[LLM] Finetuned Language Models Are Zero-Shot Learners
·
Paper Review
Finetuned Language Models Are Zero-Shot Learners해당 논문은 instruction tuning을 사용함으로써, zero-shot 능력이 향상됨을 보여준다. 기존 언어 모델들은 다양한 dataset에 대한 instruct을 지정한 상태에서의 Input-Output을 기반으로 Fine-Tuning을 진행하였을때, Unseen(지시가 지정되지 않은) Task에 대한 zero-shot 성능은 현저히 떨어지는 문제가 발생했고, FLAN은 instruction tuning을 사용해 zero-shot 성능을 향상하였다. https://arxiv.org/abs/2109.01652 Finetuned Language Models Are Zero-Shot LearnersThis pape..