AI课程3:“智能微调:在不烧毁GPU的情况下适应大型语言模型”
QLoRA通过将4位量化与低秩适配器相结合,实现了在低内存GPU上对大型语言模型的高效微调,在减少显存使用的同时保持性能。
🧭 课程结构
- 模块1:什么是微调,为什么这么昂贵?
- 模块2:PEFT — 高效微调范式
- 模块3:LoRA — 低秩适配
- 模块4:QLoRA — 高性能量化微调
- 模块5:实际配置 — 超参数、target_modules和环境
- 模块6:数据集准备和指令格式
- 模块7:使用TRL(Transformer强化学习)进行训练配置
- 模块8:训练监控和评估
- 模块9:资源管理和常见问题
- 模块10:保存、加载和合并LoRA/QLoRA适配器
- 模块11:最终综合项目 — 微调Qwen2.5-0.5B生成产品描述