논문제목 : Improving Language Understanding by Generative Pre-Training저자 : Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever논문링크https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf 1. Introduction자연어 이해 분야에서는 다양한 과제들이 존재하지만, 각 문제를 해결할 충분한 라벨 데이터가 부족해 모델 학습이 어렵다. 이를 극복하기 위해 GPT는 대규모 비지도 텍스트 데이터를 활용하는 생성적 사전학습(generative pre-training) 방식을 도입했다.생성적..