CanIRun.ai — 내 컴퓨터에서 돌릴 수 있는 AI 모델 찾기
Can I run AI locally?
TL;DR Highlight
브라우저에서 WebGPU로 내 하드웨어 스펙을 감지해 로컬에서 실행 가능한 LLM 모델을 등급별로 보여주는 웹 도구. 로컬 AI 도입을 고민하는 개발자에게 모델 선택의 첫 관문을 낮춰준다.
Who Should Read
로컬 LLM을 돌려보고 싶은데 내 Mac이나 GPU에서 어떤 모델이 돌아가는지 감이 안 잡히는 개발자. 또는 팀에 로컬 AI 도입을 검토 중인 엔지니어.
Core Mechanics
- CanIRun.ai는 브라우저 WebGPU API로 GPU/RAM 스펙을 자동 감지한 뒤, 각 오픈소스 모델을 S~F 등급으로 매겨서 내 머신에서 실제로 돌아갈지 알려준다. 별도 소프트웨어 설치 없이 웹에서 바로 확인 가능.
- Llama 3.1 8B(4.1GB), Qwen 3.5 9B(4.6GB) 같은 소형 모델부터 DeepSeek V3.2 685B(350GB), Kimi K2 1T(512GB) 같은 초대형 MoE 모델까지 다양한 모델을 커버한다. 각 모델별로 Q2_K부터 F16까지 양자화 옵션도 표시된다.
- Chat, Code, Reasoning, Vision 등 용도별 필터와 Meta, Google, Alibaba 등 제공사별 필터를 지원해서 목적에 맞는 모델을 빠르게 찾을 수 있다.
- MoE(Mixture of Experts) 모델은 전체 파라미터 중 일부만 활성화되기 때문에, 예를 들어 GPT-OSS 20B는 3.6B만 활성화돼서 실제 추론 속도는 3~4B 급 dense 모델과 비슷하다. 다만 전체 모델을 VRAM에 올려야 하므로 메모리는 20B만큼 필요.
- 사이트에서 보여주는 VRAM 수치는 기본적으로 Q4_K_M 양자화 기준이라, 원본 모델 크기(예: Llama 3.1 8B 원본은 16GB)와 큰 차이가 난다. 양자화 버전에 따라 성능과 메모리 요구량이 달라지는데 이 부분이 명확히 표시되지 않아 혼동 가능.
- 비슷한 도구로 CLI 기반의 llmfit(github.com/AlexsJones/llmfit)이 있는데, CanIRun.ai는 이걸 웹 버전으로 만든 느낌. 다만 양쪽 모두 모델 품질(벤치마크 점수) 기준 정렬이 없어서, 내 하드웨어에서 '가장 똑똑한' 모델을 찾기는 여전히 어렵다.
- WebGPU 기반 감지라 한계가 있다. 모바일 GPU 지원이 부족하고, CPU-GPU 메모리 공유나 KV cache offloading 같은 고급 전략은 고려되지 않는다. 또한 브라우저에 렌더링용 GPU가 잡히면 실제 추론용 GPU와 다를 수 있다.
- M4와 M5 칩 간 성능 차이가 전혀 없이 동일 데이터로 표시되는 등, 실측이 아닌 추정치 기반이라는 지적이 있다. 실제 벤치마크 데이터가 뒷받침되지 않으면 참고용 이상의 신뢰도를 기대하기 어렵다.
Evidence
- 로컬 모델에 2년간 집중 투자한 사용자가 '소형 모델(Qwen 3.5 9B 등)은 tool use나 정보 추출 같은 임베디드 용도에 탁월하지만, 코딩은 그냥 Claude나 Gemini CLI 쓰라'고 조언했다. 로컬 코딩 환경 구축에 100시간을 썼지만 취미가 아니면 비추천이라는 경험담.
- MoE 모델의 속도 추정이 부정확하다는 기술적 반론이 있었다. GPT-OSS 20B의 경우 활성 파라미터가 3.6B라 dense 3~4B급 속도가 나오지만, 지능은 sqrt(20B×3.6B)≈8.5B dense급이라는 구체적 공식도 공유됐다.
- '내 하드웨어에서 tok/s X 이상, context Y 이상인 가장 똑똑한 모델'을 찾는 게 가장 흔한 질문인데, 이 사이트도 llmfit도 그걸 못 해준다는 불만이 여럿 있었다. 품질 기준 정렬이 없어서 결국 guess-and-check로 돌아간다는 의견.
- 에이전트 워크플로우(멀티스텝 계획, 도구 사용, 에러 복구)에는 로컬 모델과 프론티어 모델 간 격차가 여전히 크다는 의견이 있었다. 실용적 타협안으로 '커밋 메시지, 코드 완성, 분류 같은 단순 대량 작업은 로컬, 추론·계획이 필요한 복잡한 작업은 API'라는 분리 전략을 추천.
- WebGPU로 브라우저가 정확한 하드웨어 스펙을 웹사이트에 알림 없이 제공한다는 점에 놀랐다는 프라이버시 우려 댓글도 있었다. 또한 M3 Ultra 256GB 같은 고사양 옵션이 누락되어 있고, 역방향 검색(모델을 선택하면 각 프로세서별 성능 비교)이 있으면 구매 결정에 도움이 될 거라는 제안도 나왔다.
How to Apply
- 로컬 LLM 도입을 검토 중이라면 CanIRun.ai에서 내 하드웨어 기준으로 S/A/B 등급 모델 목록을 먼저 확인하고, 그중 용도(Chat/Code/Reasoning)에 맞는 모델을 ollama로 바로 테스트해볼 수 있다.
- 코딩 보조 도구를 로컬로 돌리고 싶다면, Qwen 2.5 Coder 32B나 Devstral 2 123B 같은 코드 특화 모델의 양자화 버전(Q4_K_M)을 기준으로 VRAM 여유를 확인하고, 부족하면 Q3_K_M으로 한 단계 낮춰서 시도한다.
- API 비용을 줄이려면 커밋 메시지 생성, 코드 완성, 로그 분류 같은 반복적이고 단순한 작업만 로컬 소형 모델(8~9B급)로 전환하고, 에이전트·추론·긴 컨텍스트 작업은 프론티어 API를 유지하는 하이브리드 구조를 적용한다.
- Mac 사용자라면 MLX 생태계(mlx-community 모델들)를 활용해 Apple Silicon에 최적화된 모델을 로드할 수 있다. 64GB Mac 기준 Qwen 3.5 27B 4bit가 실사용 가능한 sweet spot으로 여러 사용자가 추천했다.
Terminology
양자화(Quantization)모델 가중치를 32비트에서 4비트 등으로 압축하는 기법. 파일 크기와 메모리 사용량이 줄어들지만 정확도가 약간 떨어진다. Q4_K_M은 4비트 양자화의 한 방식.
MoE (Mixture of Experts)모델 안에 여러 '전문가 네트워크'를 두고, 각 토큰마다 일부 전문가만 활성화하는 구조. 전체 파라미터는 크지만 실제 계산량은 적어서 같은 크기 dense 모델보다 빠르다.
WebGPU브라우저에서 GPU를 직접 접근할 수 있게 해주는 웹 표준 API. WebGL의 후속으로, 이 사이트는 이걸로 사용자 GPU 스펙을 감지한다.
KV Cache Offloading추론 시 생성되는 Key-Value 캐시를 GPU 메모리 대신 CPU RAM이나 디스크로 옮기는 기법. VRAM이 부족해도 긴 컨텍스트를 처리할 수 있게 해준다.
tok/s (tokens per second)LLM이 1초에 생성하는 토큰 수. 체감 응답 속도의 핵심 지표. 대화용으로는 30~50 tok/s면 충분하다는 게 일반적 의견.