I replaced chaotic solo Claude coding with a simple 3-agent team (Architect + Builder + Reviewer) — it's stupidly effective and token-efficient
TL;DR Highlight
This post shares the experience of adopting a 3-agent structure separating the roles of Architect, Builder, and Reviewer, instead of relying on a single Claude, to simultaneously improve coding quality and token efficiency.
Who Should Read
Developers utilizing the Claude API to automate coding tasks or design AI agent workflows. It is particularly useful for those who have experienced quality degradation or token waste when handling complex tasks with a single LLM call.
Core Mechanics
- Access to the original article is blocked, so we can only summarize based on the title.
- The 3-agent structure separates Claude into three roles: Architect (design), Builder (implementation), and Reviewer (review).
- It claims to solve the problem of tangled context and token waste that occurs when entrusting all tasks to a single Claude session.
- The logic is that focusing each agent on its assigned role reduces the context window for each call, increasing token efficiency.
- The structure overcomes the limitations of self-review by having the Reviewer agent separately review the Builder's output.
Evidence
- "(No comment information)"
How to Apply
- When developing a new feature, assign only the Architect role to the first Claude call and have it perform only 'requirement analysis → component separation → interface design', and then pass the results to the prompt of the next call to have the Builder write the actual code, configuring a pipeline.
- Instead of using the code generated by the Builder as is, automate the review stage by creating a third Claude call with a separate Reviewer role prompt ('Find bugs, security vulnerabilities, and performance issues in this code').
- Design prompts to minimize unnecessary token usage by passing only minimal context between agents (e.g., Architect → Builder only the design document, Builder → Reviewer only the code).
Code Example
# handoff/brief.md 예시 (Architect → Builder)
## Task Brief
**Goal:** 사용자 프로필 수정 API 엔드포인트 추가
**Scope (이것만 구현):**
- `PATCH /api/users/:id` 엔드포인트
- 수정 가능 필드: name, bio (email 제외)
- 입력 유효성 검사 포함
**Out of Scope (절대 추가 금지):**
- 인증 미들웨어 변경
- 다른 엔드포인트 수정
- 리팩토링
**완료 기준:**
- 위 두 필드만 업데이트됨
- 잘못된 입력 시 400 반환
- 기존 테스트 통과
---
# Builder 시스템 프롬프트 예시
"brief.md에 명시된 것만 구현하라.
범위 밖 기능 추가, 리팩토링, 스타일 변경 금지.
완료 후 handoff/review-request.md에 변경 파일 목록 작성."Terminology
Related Papers
Show HN: adamsreview – better multi-agent PR reviews for Claude Code
Claude Code에서 최대 7개의 병렬 서브 에이전트가 각각 다른 관점으로 PR을 리뷰하고, 자동 수정까지 해주는 오픈소스 플러그인이다. 기존 /review나 CodeRabbit보다 실제 버그를 더 많이 잡는다고 주장하지만 커뮤니티에서는 복잡도와 실효성에 대한 회의론도 나왔다.
How Fast Does Claude, Acting as a User Space IP Stack, Respond to Pings?
Claude Code에게 IP 패킷을 직접 파싱하고 ICMP echo reply를 구성하도록 시켜서 실제로 ping에 응답하게 만든 실험으로, 'Markdown이 곧 코드이고 LLM이 프로세서'라는 아이디어를 네트워크 스택 수준까지 밀어붙인 재미있는 사례다.
Show HN: Git for AI Agents
AI 코딩 에이전트(Claude Code 등)가 수행한 모든 툴 호출을 자동으로 추적하고, 어떤 프롬프트가 어느 코드 줄을 작성했는지 blame까지 가능한 버전 관리 도구다.
Principles for agent-native CLIs
AI 에이전트가 CLI 도구를 더 잘 사용할 수 있도록 설계하는 원칙들을 정리한 글로, 에이전트가 CLI를 도구로 활용하는 빈도가 높아지면서 이 설계 방식이 실용적으로 중요해지고 있다.
Agent-harness-kit scaffolding for multi-agent workflows (MCP, provider-agnostic)
여러 AI 에이전트가 서로 역할을 나눠 협업할 수 있도록 조율하는 scaffolding 도구로, Vite처럼 설정 없이 빠르게 멀티 에이전트 파이프라인을 구성할 수 있다.
Show HN: Tilde.run – Agent sandbox with a transactional, versioned filesystem
AI 에이전트가 실제 프로덕션 데이터를 건드려도 롤백할 수 있는 격리된 샌드박스 환경을 제공하는 도구로, GitHub/S3/Google Drive를 하나의 버전 관리 파일시스템으로 묶어준다.