AI 기반입문

할루시네이션

Hallucination · AI 환각 · AI 할루시네이션

할루시네이션이란 AI 모델이 사실이 아닌 정보를 마치 사실인 것처럼 생성하는 현상이다. 존재하지 않는 판례 인용, 가짜 논문 인용, 없는 API 추천 등이 대표적이며, 2026년 최고 모델 기준 쉬운 벤치마크에서 0.7%까지 떨어졌지만, 어려운 지식에서는 10% 이상이다.

  • Gemini 2.0 Flash가 0.7%(쉬운), GPT-5가 1.4%, Claude 3.7 Sonnet이 4.4%로, 쉬운 벤치마크에서는 크게 개선되었다.
  • 역설: "강한 추론" 모델이 어려운 벤치마크에서 오히려 10% 이상 할루시네이션한다. "모르겠다"고 하지 않고 추론으로 답을 만들어내기 때문이다.
  • 법률(18.7%), 코딩(17.8%), 과학(16.9%), 의료(15.6%) 순으로 영역별 할루시네이션율이 높다.
  • 틀린 정보에 "확실히", "분명히" 같은 확신 표현을 사용할 확률이 34% 더 높아 위험도가 크다.

관련 개념

더 깊이 알고 싶다면

아키피디아로 돌아가기