CodeBurn – Claude Code, Cursor 등 AI 코딩 도구의 token 사용량을 태스크별로 분석하는 TUI 대시보드
Show HN: CodeBurn – Analyze Claude Code token usage by task
TL;DR Highlight
오픈소스 도구가 AI 코딩 도구의 token 소모를 터미널 대시보드로 시각화하되, 별도 API 키나 프록시 없이 로컬 세션 파일만으로 동작한다.
Who Should Read
Claude Code, Cursor, Codex 등 AI 코딩 도구를 매일 쓰는데 비용이 얼마나 나가는지, 어떤 작업에서 token을 많이 태우는지 파악하고 싶은 개발자.
Core Mechanics
- CodeBurn은 Claude Code, OpenAI Codex, Cursor, OpenCode, Pi, GitHub Copilot 등 주요 AI 코딩 도구의 token 사용량을 태스크 유형·도구·모델·MCP 서버·프로젝트별로 분류해서 보여준다.
- 동작 방식이 독특한데, 별도 래퍼나 프록시, API 키가 전혀 필요 없고 각 도구가 디스크에 저장해두는 세션 파일을 직접 읽어서 분석한다. Claude Code는 ~/.claude/projects/, Codex는 ~/.codex/sessions/ 등의 경로를 사용한다.
- 태스크 유형별 '한 번에 성공한 비율(one-shot success rate)'을 추적해서, AI가 처음 시도에 바로 맞추는 작업과 edit/test/fix 재시도로 token을 낭비하는 작업이 어디인지 구분해서 볼 수 있다.
- 터미널에서 동작하는 인터랙티브 TUI(Terminal UI) 대시보드로, Ink(터미널용 React 프레임워크)를 기반으로 만들어졌으며 그래디언트 차트, 반응형 패널, 키보드 네비게이션을 지원한다.
- 오늘/7일/30일/월별/전체 기간 등 다양한 시간 범위를 지원하고, CSV/JSON 내보내기, macOS SwiftBar 메뉴바 위젯, auto-refresh 기능도 갖추고 있다.
- 가격 정보는 LiteLLM에서 자동으로 캐시해서 가져오므로, 지원하는 모든 모델의 비용을 별도 설정 없이 계산할 수 있다.
- 설치는 npm install -g codeburn 한 줄이면 되고, Node.js 20+ 환경이면 npx codeburn으로 바로 실행도 가능하다. Cursor/OpenCode는 SQLite 파일을 읽기 위해 better-sqlite3가 자동으로 설치된다.
- 제작자가 밝힌 제작 동기는 Claude Code에 주당 약 $1,400를 쓰고 있었는데 어디서 token이 소모되는지 전혀 보이지 않았기 때문이라고 한다.
Evidence
- Claude Code에 주당 $1,400를 쓴다는 제작자의 언급에 대해 한 댓글에서 '$200/달 정액 플랜으로도 300k LoC 코드베이스에서 에이전트 5개를 동시에 돌려도 rate limit에 한 번도 안 걸렸다'며 API 종량제 대신 정액 플랜을 쓰면 비용 걱정 자체가 없다는 의견이 나왔다.
- 비슷한 목적의 도구로 Claudoscope(github.com/cordwainersmith/Claudoscope)와 ClaudeRank(clauderank.com)가 댓글에서 언급됐고, 댓글 작성자들은 CodeBurn의 접근 방식이 더 마음에 든다는 반응을 보였다.
- Cursor Agent와의 호환성 문제가 보고됐는데, Cursor가 ~/.cursor 경로에 데이터를 저장하는 경우 제대로 인식이 안 된다는 이슈가 있었다.
- 터미널 UI에 Ink(React for terminals) 프레임워크를 쓴 것에 대해 'Claude Code 자체도 Ink로 만들어졌다'는 흥미로운 사실이 댓글로 공유됐다.
- 비용 비효율을 감지해서 개선 방안을 제안하는 기능이 있으면 좋겠다는 아이디어가 댓글로 제안됐고, 제작자도 흥미롭다고 반응했다.
How to Apply
- Claude Code나 Cursor를 매일 쓰면서 월말에 청구서가 예상보다 크게 나오는 상황이라면, npx codeburn 한 줄로 바로 실행해서 어느 프로젝트, 어느 태스크 유형에서 token이 집중적으로 소모되는지 즉시 확인할 수 있다.
- one-shot success rate가 낮은 태스크 유형을 찾아내면, 해당 작업의 프롬프트나 작업 분해 방식을 개선해서 재시도로 낭비되는 token을 줄이는 데 활용할 수 있다.
- 팀 단위로 AI 코딩 도구를 도입하고 있고 비용 정당화가 필요한 경우, codeburn report --format json으로 데이터를 추출해서 팀별·프로젝트별 비용 보고서를 만드는 데 활용할 수 있다.
- macOS 환경에서 token 사용량을 항상 모니터링하고 싶다면 SwiftBar 메뉴바 위젯을 연동해서 별도로 대시보드를 열지 않아도 현황을 확인할 수 있다.
Code Example
# 설치
npm install -g codeburn
# 설치 없이 바로 실행
npx codeburn
# 기본 인터랙티브 대시보드 (최근 7일)
codeburn
# 오늘 사용량
codeburn today
# 이번 달 사용량
codeburn month
# 최근 30일 rolling window
codeburn report -p 30days
# 전체 기간
codeburn report -p all
# JSON 형식으로 출력
codeburn report --format json
# 60초마다 자동 갱신
codeburn report --refresh 60
# 한 줄 요약 (오늘 + 이번 달)
codeburn status
# CSV 내보내기 (오늘/7일/30일)
codeburn export
# JSON 내보내기
codeburn export -f jsonTerminology
관련 논문
Swift로 LLM 학습시키기 Part 1: 행렬 곱셈을 Gflop/s에서 Tflop/s로 끌어올리기
Apple Silicon에서 Swift로 직접 행렬 곱셈 커널을 구현하며 CPU, SIMD, AMX, GPU(Metal)를 단계별로 최적화해 Gflop/s에서 Tflop/s 수준까지 성능을 높이는 과정을 상세히 설명한 글이다. 프레임워크 없이 LLM 학습의 핵심 연산을 밑바닥부터 구현하고 싶은 개발자에게 Apple Silicon의 성능 한계를 체감할 수 있는 드문 자료다.
fsync 없이 로컬 스토리지 엔진을 crash-consistent하게 만든 방법
FractalBits가 fsync 없이 SSD 전용 KV 스토리지 엔진을 구현해 동일 조건 대비 약 65% 높은 쓰기 성능을 달성한 설계 방법을 공유했다. fsync의 메타데이터 오버헤드를 피하기 위해 사전 할당, O_DIRECT, SSD 원자 쓰기 단위 정렬 저널을 조합한 구조가 핵심이다.
Google Chrome, 사용자 동의 없이 4GB AI 모델(Gemini Nano)을 몰래 설치
Google Chrome이 사용자 동의 없이 Gemini Nano 4GB 모델 파일을 자동 다운로드하고, 삭제해도 재다운로드되는 문제가 발견됐다. GDPR 위반 가능성과 수십억 대 기기에 적용될 때의 환경 비용 문제가 제기되고 있다.
OpenAI가 대규모 저지연 Voice AI를 제공하는 방법
OpenAI가 9억 명 이상의 사용자에게 실시간 음성 AI를 제공하기 위해 WebRTC 스택을 어떻게 재설계했는지 설명하는 글로, relay + transceiver 분리 아키텍처의 설계 결정과 trade-off를 상세히 다룬다.
Truncated Decoding Tree의 결정론적 탐색을 통한 효율적인 Test-Time Inference
Self-consistency의 중복 샘플링 낭비를 없애는 결정론적 트리 탐색 디코딩 기법 DLE로 수학/코드 추론 성능과 속도를 동시에 개선
GoModel – Go로 작성된 오픈소스 AI Gateway
OpenAI, Anthropic, Gemini 등 여러 AI 프로바이더를 하나의 OpenAI 호환 API로 묶어주는 Go 기반 오픈소스 AI 게이트웨이로, LiteLLM의 컴파일 언어 대안이다.