Curso de IA 3: "Ajuste Fino Inteligente: Adapta Modelos de Lenguaje sin Quemar tu GPU"

QLoRA permite el ajuste fino eficiente de grandes modelos de lenguaje en GPUs con poca memoria combinando cuantización de 4 bits con adaptadores de rango bajo, reduciendo el uso de VRAM mientras se preserva el rendimiento.


🧭 Estructura del Curso

  • Módulo 1: ¿Qué es el Ajuste Fino y Por Qué Es Tan Costoso?
  • Módulo 2: PEFT — El Paradigma de Ajuste Fino Eficiente
  • Módulo 3: LoRA — Adaptación de Rango Bajo
  • Módulo 4: QLoRA — Ajuste Fino Cuantizado de Alto Rendimiento
  • Módulo 5: Configuración Práctica — Hiperparámetros, target_modules y Entorno
  • Módulo 6: Preparación de Conjuntos de Datos y Formato de Instrucciones
  • Módulo 7: Configuración de Entrenamiento con TRL (Aprendizaje por Refuerzo de Transformadores)
  • Módulo 8: Monitoreo del Entrenamiento y Evaluación
  • Módulo 9: Gestión de Recursos y Problemas Comunes
  • Módulo 10: Guardar, Cargar y Fusionar Adaptadores LoRA/QLoRA
  • Módulo 11: Proyecto Integrado Final — Ajuste Fino de Qwen2.5-0.5B para Generación de Descripciones de Productos
Course Info

Course: AI-course3

Language: ES

Lesson: Index