Session

Entrenar un cerebro: ¿fine-tuning o RAG para una IA que realmente sabe de lo que habla?

En los últimos meses he trabajado en un proyecto donde necesitaba que un modelo generativo respondiera con precisión dentro de un dominio muy específico. El objetivo no era generar texto genérico, sino obtener respuestas coherentes, pertinentes y basadas en contenidos fiables.

En esta charla compartiré lo que he aprendido comparando dos enfoques diferentes: el fine-tuning, donde el modelo se reentrena con un dataset personalizado, y el enfoque RAG (Retrieval-Augmented Generation), que enriquece las respuestas recuperando información desde una base de conocimientos externa.

Hablaremos de:
• Cuándo conviene realizar un fine-tuning y cuándo, en cambio, es mejor optar por un enfoque RAG.
• Una visión general del flujo de trabajo de ambos enfoques: desde la preparación del dataset hasta la infraestructura en la nube y los scripts en Python.
• Cuáles son los costes, las complejidades y las ventajas de cada opción.
• Cómo cambia el control sobre el contenido, la capacidad de actualización y la interpretabilidad de las respuestas.

Daniele Mario Areddu

Full-Stack Developer|CTO @ CaLab.AI |ML Developer & Data Analyst| Compter Science Student @ University of Calabria |Community Lead @ Velletri-Dev | Author

Reggio Calabria, Italy

Actions

Please note that Sessionize is not responsible for the accuracy or validity of the data provided by speakers. If you suspect this profile to be fake or spam, please let us know.

Jump to top