Knowledge Distillation: cómo “comprimir” un modelo grande en uno pequeño (sin destrozar la calidad)

Del paper clásico de Hinton a LLM modernos: qué se transfiere, cuándo funciona, y casos reales donde ahorras coste por x10.

INTELIGENCIA ARTIFICIAL

2/27/2026