Karpathy 워크플로우에서 영감받아 사전 컴파일된 Wiki로 세션당 토큰 90%+ 절감
90%+ fewer tokens per session by reading a pre-compiled wiki instead of exploring files cold. Built from Karpathy's workflow.
TL;DR Highlight
사전에 정리된 코드베이스 Wiki를 활용하면 Claude 세션당 토큰 사용량을 90% 이상 줄인다.
Who Should Read
Claude나 다른 LLM을 코드베이스 탐색 및 개발 작업에 활용하면서 토큰 비용 또는 컨텍스트 한계에 부딪히는 개발자.
Core Mechanics
- 매 세션마다 AI가 파일을 직접 탐색(cold exploration)하도록 두면 불필요하게 많은 토큰이 소비되는데, 이를 사전에 Wiki 형태로 코드베이스를 정리해두는 방식으로 해결했다.
- Andrej Karpathy가 사용하는 워크플로우에서 영감을 받아 만들어진 접근법으로, 코드베이스의 구조와 핵심 내용을 미리 컴파일해두는 것이 핵심이다.
- 이 방식으로 세션당 토큰 사용량을 90% 이상 줄였다고 보고하고 있으며, 반복적인 코드베이스 탐색 비용을 크게 절감할 수 있다.
- 원문 접근이 차단되어 구체적인 구현 방법, 도구, 스크립트 등의 세부 내용은 확인할 수 없었다.
Evidence
- (댓글 정보 없음)
How to Apply
- 반복적으로 같은 코드베이스에서 Claude와 작업한다면, 프로젝트 구조·주요 모듈·함수 역할을 정리한 Markdown Wiki 파일을 미리 만들어두고 매 세션 시작 시 해당 파일만 주입하는 방식을 시도해볼 수 있다.
- 새 프로젝트를 시작할 때 Claude에게 코드베이스를 한 번만 전체 탐색하게 하고, 그 결과를 CODEBASE_WIKI.md 같은 파일로 저장해두면 이후 세션에서는 해당 파일 하나만 참조해 토큰을 아낄 수 있다.
- 원본 포스트의 구체적인 구현 방법이 필요하다면 Reddit 원본 URL(https://www.reddit.com/r/ClaudeAI/comments/1sfdztg/)에 직접 접속하거나, Karpathy의 공개 워크플로우 관련 자료를 참고하라.
Terminology
관련 논문
Claude Code에서 HTML을 출력 포맷으로 쓰는 이유: Markdown보다 나은 점들
Claude Code 팀이 Markdown 대신 HTML을 LLM 출력 포맷으로 선호하기 시작한 이유와 그 실용적 장점을 정리한 글로, AI와 함께 문서/스펙/대시보드를 만드는 워크플로우에 직접적인 영향을 준다.
언제 투표하고 언제 다시 쓸까: Disagreement 기반 Test-Time Scaling 전략 라우팅
모델 출력이 얼마나 일치하는지 보고 쉬운 문제엔 majority voting, 어려운 문제엔 문제 rewriting을 자동으로 선택해 정확도 3~7% 올리고 샘플링 비용도 줄이는 학습 불필요 프레임워크.
Less Is More: Android 앱에 On-Device Small Language Model 통합할 때 실제로 겪는 엔지니어링 문제들
Wordle 게임에 온디바이스 SLM(Gemma 4 E2B, Qwen3 0.6B)을 5일간 붙여보면서 발견한 5가지 실패 유형과 8가지 실용 해결책 정리
확장 가능한 Synthetic Data 생성을 위한 Dynamic Context Evolution
VTS + Semantic Memory + Adaptive Prompt 3가지 메커니즘으로 구성된 프레임워크는 LLM 대량 synthetic data 생성 시 배치 간 중복·반복 현상을 완전히 제거한다.
3개월치 AI 생성 코드를 전부 삭제했다. 그리고 배운 것들.
AI로 작성된 코드베이스를 70% 삭제 후 2주 만에 재작성하니 절반 크기로 줄어들면서 완전한 이해 가능성을 확보했다.
원시인 말투로 토큰 60% 절약하는 압축 프롬프트 기법
관사·접속사·조동사를 제거한 전보체 스타일은 LLM 응답 토큰을 60% 감소시킨다.