Skip to content

Latest commit

 

History

History
111 lines (78 loc) · 8.33 KB

File metadata and controls

111 lines (78 loc) · 8.33 KB

English | 简体中文 | 日本語 | 한국어

ATLAS 배너

버전 라이선스 모델 GPU

A.T.L.A.S.

Adaptive Test-time Learning and Autonomous Specialization

ATLAS는 지능형 추론 인프라를 기반으로 한 완전 자체 호스팅 코딩 어시스턴트입니다. 동결된 로컬 모델에 제약 기반 생성, 에너지 기반 검증, 자기 검증 수리를 적용합니다. 파인튜닝, API 호출, 클라우드가 필요하지 않습니다. ATLAS는 의미 있는 AI 도구가 프론티어 모델, 클라우드 API, 또는 대규모 예산을 필요로 하지 않는다는 것을 증명하기 위해 존재합니다. 뛰어난 오픈 웨이트 모델을 감싸는 스마트 인프라만 있으면 됩니다.


최신 소식


ATLAS의 기능

  1. atlas-proxy - 전체 시스템을 조율하는 Go 기반 에이전트 루프입니다.
  1. V3 파이프라인 - 단일 프롬프트를 검증된 고품질 출력으로 변환하는 다단계 코드 생성입니다.
  • a. PlanSearch - 제약 기반 구조화된 계획 수립
  • b. DivSampling - 온도와 전략을 달리한 다양한 후보 생성
  • c. Budget Forcing - 단계별 사고 토큰 할당 제어
  • d. PR-CoT Repair - 자체 생성 테스트 케이스를 활용한 반복 수정 사이클
  • e. Refinement Loops - 반복적인 샌드박스 검증 및 수정
  • f. Derivation Chains - 복잡한 문제를 위한 다단계 추론
  1. Geometric Lens - 외부 오라클 없이 에너지 기반 점수 산출 및 검색을 수행합니다. ("Geometric Lens"란?)
  1. Sandbox - 빌드 검증을 위한 격리된 실행 환경입니다.
  • a. 다중 언어 실행 - Python, Rust, Go, C, Shell 등
  • b. 컴파일 및 린팅 - 점수 산출 전 구문 검증
  • c. 테스트 실행 - 생성된 테스트 및 기존 테스트 스위트 실행
  1. llama-server - 단일 소비자용 GPU에서의 로컬 LLM 추론입니다.
  • a. CUDA 가속 - 양자화된 모델 추론 (Q6_K / Q4_K_M)
  • b. 문법 제약 디코딩 - 토큰 수준의 구조화된 출력
  • c. 셀프 임베딩 - 별도 모델 없이 임베딩 추출
  1. 대화형 CLI - 프로젝트 디렉토리에서 atlas를 입력하면 바로 개발을 시작할 수 있습니다.

전체 문서 - 설정 가이드, 아키텍처, 설정, 문제 해결, 벤치마크 보고서 - 는 docs/ 디렉토리에 있습니다.


시작하기

ATLAS는 16GB 이상의 VRAM을 갖춘 GPU, Docker(nvidia-container-toolkit 포함) 또는 Podman, 그리고 Python 3.9 이상이 필요합니다. 현재 NVIDIA GPU에서 테스트되었습니다. ATLAS는 NVIDIA에 종속되지 않으며, AMD GPU를 위한 ROCm 지원이 로드맵에 포함되어 있습니다. Docker Compose, 베어메탈, K3s 배포를 다루는 전체 설치 안내는 **SETUP.md**를 참조하십시오. 실행 후 프로젝트 디렉토리에서 atlas를 입력하면 바로 개발을 시작할 수 있습니다.


알려진 제한 사항

  • NVIDIA에서만 테스트됨 - ATLAS는 추론에 llama.cpp를 사용하며, 다양한 가속기 백엔드를 지원합니다. ROCm 지원은 V3.1의 우선 과제입니다.
  • 9B 모델 공식 벤치마크 미실시 - CLI는 전체 V3 파이프라인과 함께 Qwen3.5-9B를 제공하지만, 공식 LiveCodeBench 점수는 14B 모델 기준입니다. 9B 벤치마크는 V3.1 작업 항목입니다.
  • 복잡한 기능 추가 시 실패 가능 - 기존 프로젝트에 기능을 추가하는 작업은 약 67%의 성공률을 보입니다. 모델이 코드를 작성하는 대신 탐색에 과도하게 시간을 소비하는 경우가 있습니다.
  • 문법 제약 추론 속도 - llama-server에서 약 51 tok/s입니다. 더 빠른 문법 통합이 V3.1에서 계획되어 있습니다.

로드맵

V3.0.1 - 현재 릴리스. 대화형 CLI, Docker Compose 배포, V3 파이프라인 통합.

V3.1 - 진행 중.

  • ROCm 지원 - llama.cpp ROCm 백엔드를 통한 AMD GPU 추론
  • 공식 9B 벤치마크 - Qwen3.5-9B에서 LiveCodeBench, GPQA Diamond, SciCode 평가
  • CLI 안정성 - 확장된 테스트, L6 90% 이상 목표
  • 문법 속도 - 더 빠른 제약 디코딩을 위한 C 사이드 샘플러 체인

기여하기

ATLAS는 오픈으로 개발되고 있으며, 기여자와 핵심 메인테이너를 적극적으로 찾고 있습니다. 버그 수정, 가속기 지원 추가, 하위 시스템 전면 재설계 등 어떤 형태의 기여든 환영합니다. 오픈 모델이 더 나은 인프라를 갖추어야 한다고 생각하신다면, 함께 만들어 가시기 바랍니다.

가이드라인은 **CONTRIBUTING.md**를 참조하십시오.


라이선스

GNU Affero General Public License v3.0 (AGPL-3.0)에 따라 라이선스가 부여됩니다.