
- 移除了 max_steps_input 组件,减少不必要的输入项 - 将 per_device_train_batch_size_input 和 epoch_input 的标签简化为 "batch size" 和 "epoch" - 新增 save_steps_input 组件,用于设置保存步数 - 修改 train_model 函数,移除了 max_steps 参数 - 更新了 trainer.train() 方法的调用,设置 resume_from_checkpoint=False
基于文档驱动的自适应编码大模型微调框架
简介
本人的毕业设计
项目概述
- 通过深度解析私有库的文档以及其他资源,生成指令型语料,据此对大语言模型进行针对私有库的微调。
项目技术
- 使用unsloth框架在GPU上实现大语言模型的qlora微调
- 使用langchain框架编写工作流实现批量生成微调语料
- 使用tinydb和sqlite实现数据的持久化
- 使用gradio框架实现前端展示
施工中......
Languages
TeX
63.9%
Python
36.1%