[2022] A Framework for Adapting Pre-Trained Language Models to Knowledge Graph Completion Justin Lovelace∗ Carolyn Penstein Rosé 본문의 논문은 EMNLP 2022 paper로, 여기를 확인해 주세요. Introduction 최근 연구에서 KG 내에 자연적으로 발생하는 희소성을 더 강하게 접근할 수 있는 방법을 개발하기 위해 pre-trained language model을 활용하였다. 이 접근법은 그래프 연결에 덜 의존하는 entity representations를 개발하기 위해 텍스트 entity 묘사를 활용하는 것이다. 이런 연구는 언어 모델에 entities를 인코딩하기 위한 훈련 중 직접적으로 f..