Curso de IA 3: "Ajuste Fino Inteligente: Adapte Modelos de Linguagem sem Queimar sua GPU"
QLoRA permite o ajuste fino eficiente de grandes modelos de linguagem em GPUs com pouca memória combinando quantização de 4 bits com adaptadores de baixo rank, reduzindo o uso de VRAM enquanto preserva o desempenho.
🧠Estrutura do Curso
- Módulo 1: O que é Ajuste Fino e Por Que É Tão Caro?
- Módulo 2: PEFT — O Paradigma de Ajuste Fino Eficiente
- Módulo 3: LoRA — Adaptação de Baixo Rank
- Módulo 4: QLoRA — Ajuste Fino Quantizado de Alto Desempenho
- Módulo 5: Configuração Prática — Hiperparâmetros, target_modules e Ambiente
- Módulo 6: Preparação de Conjuntos de Dados e Formato de Instruções
- Módulo 7: Configuração de Treinamento com TRL (Aprendizado por Reforço de Transformadores)
- Módulo 8: Monitoramento do Treinamento e Avaliação
- Módulo 9: Gerenciamento de Recursos e Problemas Comuns
- Módulo 10: Salvar, Carregar e Fundir Adaptadores LoRA/QLoRA
- Módulo 11: Projeto Integrado Final — Ajuste Fino do Qwen2.5-0.5B para Geração de Descrições de Produtos