重要提示

您正在查看 NeMo 2.0 文档。此版本对 API 和一个新库 NeMo Run 进行了重大更改。我们目前正在将 NeMo 1.0 中的所有功能移植到 2.0。有关先前版本或 2.0 中尚不可用的功能的文档,请参阅 NeMo 24.07 文档

参数高效微调 (PEFT)#

PEFT 是一种流行的技术,用于高效地微调大型语言模型,以用于各种下游任务。当使用 PEFT 进行微调时,基础模型权重被冻结,并且将少量可训练的适配器模块注入到模型中,从而产生非常少数量(<< 1%)的可训练权重。通过精心选择的适配器模块和注入点,PEFT 以远低于全量微调的计算和存储成本实现了可比的性能。

NeMo 支持四种 PEFT 方法,这些方法可以与各种基于 Transformer 的模型一起使用。 此处 收集了一些转换脚本,这些脚本将流行的模型从 HF 格式转换为 nemo 格式。

GPT 3

Nemotron

LLaMa 1/2

Falcon

Starcoder

Mistral

Mixtral

Gemma

T5

LoRA

P-Tuning

Adapters (Canonical)

IA3

通过 快速入门指南 了解更多关于 NeMo 中 PEFT 的信息,其中概述了 PEFT 在 NeMo 中的工作原理。阅读关于支持的 PEFT 方法 此处 的内容。对于实际示例,请查看 逐步指南

API 指南可以在此处找到