重要提示
您正在查看 NeMo 2.0 文档。此版本引入了 API 的重大更改和一个新的库 NeMo Run。我们目前正在将所有功能从 NeMo 1.0 移植到 2.0。有关先前版本或 2.0 中尚不可用的功能的文档,请参阅 NeMo 24.07 文档。
SpeechLLM API#
模型类#
- class nemo.collections.nlp.models.language_modeling.megatron_base_model.MegatronBaseModel(*args: Any, **kwargs: Any)
基类:
NLPModel
Megatron 基类。所有 NeMo Megatron 模型都从此类继承。
为 nemo 初始化模型并行世界。
启用所有 NVIDIA 优化。
如果 cfg.tokenizer 可用,它将加载分词器并将词汇表填充到张量模型并行的正确大小。
如果使用分布式优化器,请配置为与 O2 级别优化和/或模型并行兼容。
执行梯度裁剪:grad_clip_pl_default 触发 PyTorch Lightning 默认实现,with_distributed_adam 触发分布式优化器的实现,megatron_amp_O2 触发主梯度上的梯度裁剪,否则在模型梯度上执行梯度裁剪。
- __init__(
- cfg: omegaconf.dictconfig.DictConfig,
- trainer: lightning.pytorch.trainer.trainer.Trainer,
- no_lm_init=True,
所有 NeMo 模型应继承的基类
- 参数:
cfg (DictConfig) –
配置对象。cfg 对象应具有(可选)以下子配置
train_ds - 用于实例化训练数据集
validation_ds - 用于实例化验证数据集
test_ds - 用于实例化测试数据集
optim - 用于实例化带有学习率调度器的优化器
trainer (Optional) – Pytorch Lightning Trainer 实例