먼저 Word embedding의 특성을 떠올려보자.워드 임베딩의 강점 1. 의미적 유사성 반영: • Word Embedding은 단어를 벡터 공간에 매핑하여, 의미적으로 유사한 단어들이 가까운 위치에 배치되도록 학습됩니다. 예를 들어, “king”과 “queen”, “Paris”와 “France” 같은 단어 쌍은 유사한 의미 관계를 가지기 때문에 벡터 공간에서도 가까운 위치에 있게 됩니다. 2. 유사 단어 탐색: • 특정 단어에 대해 유사한 의미를 가진 다른 단어들을 쉽게 찾을 수 있습니다. 이는 시소러스 구축이나 어휘 확장 작업에 매우 유용합니다. 3. 단어 관계 학습: • Word Embedding은 단어 간의 다양한 관계를 학습할 수 있습니다. 예를 들어, “man”과 “woman”의 관계는 “k..