GPT是“Generative Pre-Training”的简称,是指的生成式的预训练。GPT采用两阶段过程,第一个阶段是利用语言模型进行预训练,第二阶段通过Fine-tuning的模式解决下游任务。下图展示了GPT的预训练过程。
GPT l论文
代码 https://github.com/openai/finetune-transformer-lm
GPT-2
https://d4mucfpksywv.cloudfront.net/better-language-models/language-models.pdf
https://github.com/openai/gpt-2
GPT的底层架构是transformer,是由pre-training和fine-tuning两部分构成的。
先make后学习