Nanocode: $200로 TPU에서 JAX로 구현하는 나만의 Claude Code 학습 라이브러리
Nanocode: The best Claude Code that $200 can buy in pure JAX on TPUs
TL;DR Highlight
이 오픈소스 라이브러리는 Constitutional AI 방식으로 $200 TPU에서 1.3B 파라미터 규모의 coding agent 모델을 처음부터 학습하게 하며 개발자가 AI 학습 파이프라인 전체를 직접 이해하고 실습할 수 있는 환경을 제공한다.
Who Should Read
Constitutional AI나 RLHF 같은 alignment 학습 기법을 직접 구현해보고 싶은 ML 엔지니어, 또는 Claude 같은 coding agent가 내부적으로 어떻게 만들어지는지 end-to-end로 파악하고 싶은 개발자.
Core Mechanics
- nanocode는 Anthropic의 Claude 모델 학습에 사용된 Constitutional AI 방식을 최대한 단순하게 따라서, 누구나 자신만의 coding agent 모델을 처음부터 학습할 수 있도록 보여주는 라이브러리다.
- 전체 학습 인프라와 철학은 Karpathy의 nanochat 프로젝트에서 가져왔고, nanochat에 익숙한 사람이라면 nanocode도 비슷하게 느껴질 정도로 구조가 유사하다.
- 코드는 전부 JAX로 작성됐고, Google TPU에서 학습하도록 최적화돼 있다. NVIDIA GPU에서도 동작은 하지만 TPU 최적화 코드라는 점을 감안해야 한다.
- 1.3B 파라미터 모델인 nanocode-d24는 TPU v6e-8에서 약 9시간이면 학습 완료되고, 비용은 약 $200(약 27만원) 정도다.
- 477M 파라미터짜리 작은 모델 nanocode-d20은 약 1.5시간, $34(약 4.5만원)면 학습할 수 있어서 빠르게 실험해보기 좋다.
- Google TRC(TPU Research Cloud) 프로그램을 통해 한 달간 무료 TPU를 받을 수 있고, 새 Google Cloud 계정이면 $300 크레딧도 받을 수 있어서 비용 없이 시작도 가능하다.
- 학습 파이프라인은 SOUL.md 작성(모델의 가치 기준 정의) → agentic interface 정의 → 합성 데이터(synthetic data) 생성 → preference optimisation(선호도 최적화)으로 구성된다.
- 저자는 TRC 프로그램으로 3개월간 TPU를 사용했고, spot instance가 거의 중단되지 않아 같은 pod를 일주일 이상 유지할 수 있었다고 한다.
Evidence
- 데모 영상에서 nanocode가 'falsey 값을 리스트에서 제거하되 새 리스트를 만들지 말라'는 프롬프트에 list comprehension(새 리스트를 만드는 방식)으로 답하는 걸 보고, 요구사항을 정확히 이해하지 못한 틀린 코드를 생성한 거 아니냐는 지적이 나왔다. 진짜로 원본 리스트를 in-place로 수정하려면 reversed range + pop을 써야 한다는 올바른 구현 예시도 댓글로 공유됐다.
- '무료 coding 모델이 많은데 왜 $200 써서 직접 학습하냐'는 질문이 올라왔다. 이는 사용보다는 학습 원리를 직접 이해하고 싶은 목적의 프로젝트라는 맥락을 놓친 것으로 보이며, 별도의 명확한 답변은 달리지 않았다.
- 'Claude Code는 LLM을 호출하고 tool을 실행하는 harness(실행 프레임워크)이지, 그 자체를 학습할 수 있는 게 아닌데 용어를 잘못 쓴 거 아니냐'는 날카로운 지적도 있었다. 프로젝트 이름이 Claude Code를 오마주한 것이지 실제 Claude Code 자체를 학습한다는 의미가 아님을 이해해야 한다.
- nanocoder라는 비슷한 이름의 다른 오픈소스 프로젝트(https://github.com/Nano-Collective/nanocoder)가 있어서 혼동할 수 있다는 주의 댓글이 달렸다.
- ML 경험이 전혀 없는 사람도 내용이 이해하기 쉽게 잘 쓰였다는 긍정적인 반응이 있었던 반면, 'Anthropic이 실제로 이 방식을 쓰는 건지, 실제로 동작하는지' 검증을 요구하는 회의적인 댓글도 있었다.
How to Apply
- Constitutional AI 방식으로 alignment된 모델을 직접 만들어보고 싶다면, Google TRC 프로그램에 신청해 무료 TPU를 받은 뒤 nanocode-d20(477M 파라미터) 학습부터 시작해보면 $34, 1.5시간 안에 전체 파이프라인을 한 번 돌려볼 수 있다.
- 회사나 팀 고유의 코딩 스타일, 규칙, 가치 기준을 반영한 coding agent를 만들고 싶다면, SOUL.md를 직접 작성해서 그 기준에 맞는 합성 데이터를 생성하고 preference optimisation으로 학습하는 nanocode 파이프라인을 참고하면 된다.
- JAX와 TPU 기반 학습 인프라를 처음 접하는 경우, nanochat 프로젝트를 먼저 읽고 나서 nanocode를 보면 거의 동일한 명령어와 구조를 사용하기 때문에 학습 곡선을 크게 낮출 수 있다.
- NVIDIA GPU 환경에서 실험하고 싶다면 nanocode가 GPU에서도 동작하긴 하지만, TPU 최적화 코드 기반이라 성능 차이가 있을 수 있음을 감안하고 비용/속도 트레이드오프를 직접 측정해보는 게 좋다.
Terminology
관련 논문
PyTorch Lightning AI 학습 라이브러리에서 Shai-Hulud 테마 악성코드 발견
널리 쓰이는 딥러닝 프레임워크 PyTorch Lightning의 PyPI 패키지 버전 2.6.2와 2.6.3이 공급망 공격으로 침해되어, import 시 자격증명 탈취 악성코드가 실행된다.
Alignment Whack-a-Mole: 파인튜닝이 LLM 내부의 저작권 도서 암기를 활성화한다
안전 정렬(alignment)된 LLM도 파인튜닝을 거치면 억제됐던 저작권 책 내용을 그대로 출력하게 된다는 연구로, LLM의 저작권 침해 위험이 단순히 프롬프트 필터링으로는 해결되지 않음을 보여준다.
MacMind – 1989년 Macintosh의 HyperCard로 구현한 Transformer 신경망
HyperTalk으로 1,216개 파라미터짜리 단일 레이어 Transformer를 Macintosh SE/30에서 학습시켜 현대 LLM의 핵심 수학이 30년 전 하드웨어에서도 동일하게 동작함을 증명했다.
MegaTrain: 단일 GPU로 100B+ 파라미터 LLM을 Full Precision으로 학습하기
MegaTrain은 CPU 메모리를 주 저장소로, GPU를 연산 엔진으로만 활용함으로써 H200 GPU 단 한 장으로 120B 파라미터 모델을 풀 정밀도로 학습할 수 있다.
9M 파라미터짜리 초소형 LLM으로 언어 모델 작동 원리 직접 이해하기
물고기 Guppy를 학습한 870만 파라미터 미니 LLM이 Colab 노트북 하나로 5분 만에 처음부터 구현되어, LLM의 블랙박스 이미지를 완전히 걷어낸다.
Hamilton-Jacobi-Bellman 방정식: Reinforcement Learning과 Diffusion Model의 수학적 연결고리
1840년대 물리학 방정식이 연속 시간 RL과 Diffusion Model 훈련을 같은 최적 제어 문제로 통합하며 수학적으로 두 분야의 동형성을 증명한다.