AI 기술중급

Chain-of-Thought (CoT)

CoT · 사고의 사슬 · Chain of Thought Prompting

Chain-of-Thought는 LLM에게 답을 바로 내놓지 말고 중간 추론 단계를 보여주도록 유도하는 프롬프팅 기법이다. Wei et al.(2022)이 NeurIPS에서 발표했으며, 수학 문제 정확도를 18%에서 57%로 끌어올렸다.

  • Wei et al.(2022, NeurIPS): GSM8K에서 표준 프롬프팅 18% → CoT 57%로 +39%p 향상
  • Zero-shot CoT: "Let's think step by step" 한 문장으로 MultiArith 17.7% → 78.7% (+61%p)
  • CoT 추론 능력은 창발적(emergent) — 충분히 큰 모델에서만 나타남
  • 2025년 전환점: 추론 모델(o3, Claude ET)에서 CoT 효과가 2.9~3.1%로 급감 — 모델이 이미 내부에서 수행

관련 개념

더 깊이 알고 싶다면

아키피디아로 돌아가기