K
Machine Learning
Knowledge Distillation
Technique transférant les connaissances d'un grand modèle (teacher) vers un modèle plus petit (student), conservant les performances avec moins de ressources.
Technique transférant les connaissances d'un grand modèle (teacher) vers un modèle plus petit (student), conservant les performances avec moins de ressources.
Nous utilisons des cookies pour la mesure d’audience et, avec votre accord, pour des fonctionnalités publicitaires. Vous pouvez accepter ou refuser.
Répondre
IA • En ligne