【NLP高频面题 - 高效微调篇】什么是提示微调?

发布于:2025-02-11 ⋅ 阅读:(39) ⋅ 点赞:(0)

【NLP高频面题 - 高效微调篇】什么是提示微调?

重要性:★


NLP Github 项目:


提示微调(Prompt Tuning)该方法可以看作是Prefix Tuning的简化版本,只在输入层加入prompt tokens,并不需要加入MLP进行调整来解决难训练的问题,主要在T5预训练模型上做实验。似乎只要预训练模型足够强大,其他的一切都不是问题。作者也做实验说明随着预训练模型参数量的增加,Prompt Tuning的方法会逼近Fine-tune的结果。

与前缀微调不同,提示微调仅在输入嵌入层中加入可训练的提示向量。在离散提示方法的基础上,提示微调首先在输入文本端插入一组连续嵌入数值的提示词元,这些提示词元可以以自由形式 或前缀形式来增强输入文本,用于解决特定的下游任务。

提示微调示意图:


NLP 大模型高频面题汇总

NLP基础篇
BERT 模型面
LLMs 微调面

网站公告

今日签到

点亮在社区的每一天
去签到