PEFT概述
PEFT(Parameter-Efficient Fine-Tuning) 是一种针对大规模预训练模型(如 GPT、BERT 等)设计的高效微调技术框架。PEFT 的目标是在不更新或仅少量更新模型参数的情况下,使模型能够高效适配新任务。这种方法大幅降低了微调的计算和存储成本,并在多任务学习和领域适配中展现了强大的灵活性。
1 LoRA(Low-Rank Adaptation)
对模型的权重调整部分使用低秩分解,只优化新增的低秩矩阵
2 Prefix Tuning
在输入序列前添加一段可训练的“前缀”,这些前缀参数独立于模型原始参数。
3 Adapter Tuning
在预训练模型的中间层中插入小的可训练层或“适配器”。这些适配器通常包括一些全连接层、非线性激活函数等,它们被设计用来捕获特定任务的知识,而不需要对整个预训练模型进行大规模的微调。
4 Prompt engineering
优化输入中的提示(Prompt)部分,而非模型本身的参数。
PEFT概述
https://chunfei-he.github.io/2024/09/17/PEFT概述/