FUSE: 레이블 데이터 없이 Verifier 앙상블하기
FUSE: Ensembling Verifiers with Zero Labeled Data
TL;DR Highlight
정답 레이블 없이 여러 LLM 검증 모델을 자동으로 앙상블해서 Best-of-N 성능을 반지도학습 수준으로 끌어올리는 방법.
Who Should Read
Test-time scaling이나 Best-of-N 샘플링을 프로덕션에 적용하려는 ML 엔지니어. 여러 reward model을 조합해 응답 품질을 높이고 싶지만 레이블 데이터 확보가 어려운 상황의 개발자.
Core Mechanics
- FUSE는 여러 verifier(LLM 판정 모델, reward model 등)의 점수를 정답 레이블 없이 자동으로 가중 앙상블하는 방법으로, 단순 평균이나 다수결보다 훨씬 정확하게 최선의 응답을 고를 수 있음.
- 핵심 아이디어는 Triplet Conditional Independence(TCI, 세 verifier의 출력이 정답이 주어졌을 때 서로 독립이라는 가정)를 최대한 만족하도록 verifier 점수를 자동 변환한 뒤, 통계적 moment 기법으로 각 verifier의 정확도를 추정하는 것.
- 실제 LLM verifier들은 TCI를 위반하는 경우가 많아서, 기존 Jaffe et al. (2015) 알고리즘을 그냥 쓰면 단순 naive ensemble보다 10개 설정 중 7개에서 성능이 떨어짐. FUSE는 이 문제를 점수 변환 단계로 해결함.
- verifier 정확도 추정값으로 pseudo-label을 만들고, 이걸로 logistic regression 같은 앙상블 함수를 학습해 최종 응답을 선택함. 이 덕에 더 강한 독립성 가정인 JCI(모든 verifier가 동시에 독립)를 쓰지 않아도 됨.
- query별로 독립적으로 동작하는 query-conditional 모드 덕에, 도메인이 섞인 heterogeneous 환경에서도 반지도학습 기반 WEAVER보다 성능이 좋음. 레이블이 특정 도메인 것만 있는 경우 FUSE 우위가 더 커짐.
- Gemini 3 Pro와 GPT-5 같은 최전선 모델도 아직 포화되지 않은 Humanity's Last Exam 벤치마크에서도 FUSE가 작동하며, 데이터 필터링·벤치마크 감사·비지도 모델 랭킹 등 다양한 응용 가능성이 있음.
Evidence
- GPQA Diamond(70B, Best-of-100)에서 FUSE 64.4% vs WEAVER(5% 레이블 사용) 64.1%, 즉 레이블 없이도 반지도학습 수준에 도달. 40개 비교 중 27번 반지도학습 baseline을 이김.
- Humanity's Last Exam(649문제, Best-of-50)에서 FUSE 54.3%로 Pass@1(52.1%), WEAVER(51.2%), naive ensemble(51.4%)을 모두 상회. naive ensemble은 랜덤 선택보다 오히려 낮은 유일한 벤치마크.
- IMO Shortlist(123문제, Best-of-50)에서 FUSE 63.8%로 WEAVER(62.1%), 반지도 logistic regression(60.2%), oracle best verifier(59.7%)를 모두 이김.
- Saad-Falcon et al. 데이터(8B/70B, 10개 설정)에서 FUSE가 naive ensemble 대비 최소 +2.3%p에서 최대 +12.3%p 향상, majority vote 대비는 최대 17.0%p(MMLU Pro 70B) 향상.
How to Apply
- Best-of-N 파이프라인을 운영 중이고 여러 reward model을 갖고 있다면, 각 모델의 점수를 [-1, 1]로 min-max 정규화한 뒤 FUSE 알고리즘을 적용하면 됨. 레이블 수집 비용 없이 앙상블 가중치를 자동으로 추정할 수 있음.
- 도메인이 섞인 쿼리 세트(예: 수학+코딩+상식)를 처리하는 경우, FUSE의 query-conditional 모드를 사용하면 도메인별로 verifier 가중치가 달라져서, 하나의 레이블 셋으로 학습한 반지도학습 방법보다 더 좋은 성능을 얻을 수 있음.
- 합성 데이터 선택이나 RLHF 데이터 필터링에서 정답 레이블 없이 품질 좋은 응답을 골라야 할 때, 여러 LLM judge를 verifier로 두고 FUSE로 앙상블 점수를 구한 뒤 상위 응답만 학습 데이터로 사용하는 방식으로 적용 가능.
Code Example
Terminology
관련 논문
LLM이 TLA+로 실제 시스템을 제대로 모델링할 수 있을까? — SysMoBench 벤치마크
LLM이 TLA+ 명세를 작성할 때 문법은 잘 통과하지만 실제 시스템과의 동작 일치도(conformance)는 46% 수준에 그친다는 걸 체계적으로 검증한 벤치마크 연구로, AI 기반 형식 검증의 현실적 한계를 보여준다.
Natural Language Autoencoders: Claude의 내부 활성화를 자연어 텍스트로 변환하는 기법
Anthropic이 LLM 내부의 숫자 벡터(활성화값)를 직접 읽을 수 있는 자연어로 변환하는 NLA 기법을 공개했다. AI가 실제로 무슨 생각을 하는지 해석하는 interpretability 연구의 새로운 진전이다.
ProgramBench: LLM이 프로그램을 처음부터 다시 만들 수 있을까?
LLM이 FFmpeg, SQLite, PHP 인터프리터 같은 실제 소프트웨어를 문서만 보고 처음부터 재구현할 수 있는지 측정하는 새 벤치마크로, 최고 모델도 전체 태스크의 3%만 95% 이상 통과하는 수준에 그쳤다.
MOSAIC-Bench:코딩 에이전트의 Compositional Vulnerability 유도 측정
티켓 3장으로 쪼개면 Claude/GPT도 보안 취약점 코드를 53~86% 확률로 그냥 짜준다.
LLM의 거절(Refusal) 동작은 단 하나의 방향(Direction)으로 제어된다
13개의 오픈소스 채팅 모델을 분석했더니, 모델이 유해한 요청을 거절하는 동작이 내부 활성화 공간에서 단 하나의 1차원 벡터 방향으로 인코딩되어 있었다. 이 방향을 제거하면 안전 파인튜닝이 사실상 무력화되므로, 현재 안전 학습 방식이 얼마나 취약한지 보여준다.
LLM의 구조화된 출력(Structured Output)을 테스트하는 새 벤치마크 SOB 공개
스키마 준수 여부만 보던 기존 벤치마크의 한계를 넘어, 실제 값의 정확도까지 7가지 지표로 평가하는 Structured Output Benchmark(SOB)가 공개됐다. 인보이스 파싱, 의료 기록 추출처럼 JSON 출력의 정확성이 중요한 프로덕션 시스템에서 어떤 모델을 써야 할지 판단하는 데 직접적으로 참고할 수 있다.
Related Resources
Original Abstract (Expand)
Verification of model outputs is rapidly emerging as a key primitive for both training and real-world deployment of large language models (LLMs). In practice, this often involves using imperfect LLM judges and reward models since ground truth acquisition can be time-consuming and expensive. We introduce Fully Unsupervised Score Ensembling (FUSE), a method for improving verification quality by ensembling verifiers without access to ground truth correctness labels. The key idea behind FUSE is to control conditional dependencies between verifiers in a manner that improves the unsupervised performance of a class of spectral algorithms from the ensembling literature. Despite requiring zero ground truth labels, FUSE typically matches or improves upon semi-supervised alternatives in test-time scaling experiments with diverse sets of generator models, verifiers, and benchmarks. In particular, we validate our method on both conventional academic benchmarks such as GPQA Diamond and on frontier, unsaturated benchmarks such as Humanity's Last Exam and IMO Shortlist questions.