docs(implementation): 修正LaTeX文档中代码引用的格式

将`transformers`库的引用格式从反引号改为普通文本,以符合LaTeX文档的排版规范
This commit is contained in:
carry
2025-04-28 22:17:06 +08:00
parent e4919ecf69
commit aac8c9d334

View File

@@ -63,7 +63,7 @@
Datasets库构建高效数据管道。将原始Python列表转换为内存映射格式的HFDataset对象该设计显著提升了大规模数据的加载效率。通过map操作实现批量化数据处理配合多进程并行机制在保证数据转换一致性的同时实现了预处理速度与内存占用的优化平衡。这种工业化数据处理流程的确立为后续高频次的模型训练迭代提供了可靠的基础设施支持。
\subsubsection{训练流程实现与配置}
为了高效且便捷地进行大规模语言模型的监督式微调本项目选用了一系列成熟且广泛应用的开源框架核心依赖于Hugging Face的`transformers`库,该库提供了丰富的预训练模型、分词器以及用于模型训练的基础设施。在此基础上,结合使用了`trl`Transformer Reinforcement Learning特别是其提供的监督式微调训练器SFTTrainer。该训练器是专门为简化监督式微调任务而设计的它在`transformers`的训练接口之上进行了封装和优化使得研究者能够更专注于数据准备和模型配置而无需处理底层复杂的训练循环逻辑极大地提高了开发效率。这种框架组合提供了强大的功能性和灵活性能够支持复杂模型的加载、PEFT技术的应用以及多样化的训练策略。
为了高效且便捷地进行大规模语言模型的监督式微调本项目选用了一系列成熟且广泛应用的开源框架核心依赖于Hugging Face的transformers库该库提供了丰富的预训练模型、分词器以及用于模型训练的基础设施。在此基础上结合使用了trlTransformer Reinforcement Learning特别是其提供的监督式微调训练器SFTTrainer。该训练器是专门为简化监督式微调任务而设计的它在`transformers`的训练接口之上进行了封装和优化使得研究者能够更专注于数据准备和模型配置而无需处理底层复杂的训练循环逻辑极大地提高了开发效率。这种框架组合提供了强大的功能性和灵活性能够支持复杂模型的加载、PEFT技术的应用以及多样化的训练策略。
模型训练的效果很大程度上取决于训练参数的合理设置。在本项目中通过配置一系列关键参数来控制训练过程的行为这些参数包括但不限于学习率learning\allowbreak\_rate它决定了模型在每次参数更新时的步长每个设备的训练批次大小per\allowbreak\_device\allowbreak\_train\allowbreak\_batch\allowbreak\_size影响显存占用和梯度更新的稳定性梯度累积步数gradient\allowbreak\_accumulation\allowbreak\_steps通过累积多个小批次的梯度来模拟使用更大的批次进行训练训练的总步数或总轮数max\_steps / epoch定义了整个训练过程的长度学习率调度器类型lr\allowbreak\_scheduler\allowbreak\_type控制学习率随训练进程的变化策略权重衰减weight\allowbreak\_decay作为一种正则化手段有助于防止模型过拟合以及随机种子seed用于确保训练结果的可复现性。对这些参数的细致调整是获得高性能模型的关键环节。