AI 기반중급

임베딩

Embedding · 벡터 임베딩 · Vector Embedding

임베딩이란 토큰을 의미를 담은 고차원 벡터로 변환하는 과정이다. 의미가 비슷한 단어는 벡터 공간에서 가까운 위치에 배치되며, 이 원리가 RAG, 시맨틱 검색, 추천, 분류의 기반 인프라가 된다.

  • Word2Vec(2013)이 "king - man + woman ≈ queen"으로 의미의 기하학적 표현을 증명했다.
  • 정적 임베딩(Word2Vec, GloVe)은 BERT(2018) 이후 문맥적 임베딩에 대체되었다. 같은 "수도"라도 문장마다 다른 벡터를 가진다.
  • Gemini Embedding 2(2026.03)는 텍스트·이미지·영상·오디오·PDF를 하나의 벡터 공간에 매핑하는 최초의 진정한 멀티모달 임베딩이다.
  • 오픈소스(NV-Embed-v2, 72.31점)가 MTEB 총점에서 상용 모델을 추월했으나, 검색 점수에서는 Gemini(67.71)가 앞선다.

관련 개념

더 깊이 알고 싶다면

아키피디아로 돌아가기