Les petits modèles de langage (SLM) sont des modèles de langage d'intelligence artificielle (IA) optimisés pour l'efficacité, la spécialisation et le déploiement dans des environnements à ressources limitées et à capacité de calcul restreinte. Similaires aux grands modèles de langage (LLM), les SLM sont également conçus pour comprendre, interpréter et générer des sorties semblables à celles des humains à partir d'une large gamme d'entrées. En tirant parti de techniques d'apprentissage automatique (ML) efficaces, d'architectures simplifiées et de jeux de données spécialisés, ces modèles sont souvent réutilisés pour effectuer un ensemble de tâches sélectionnées afin de maximiser l'efficacité des ressources. Les SLM peuvent être essentiels pour les organisations nécessitant un déploiement rapide et économique de modèles d'IA.
En raison de leurs architectures optimisées, les SLM peuvent être déployés sur des appareils périphériques, des plateformes mobiles et des systèmes hors ligne, facilitant ainsi le déploiement accessible de l'IA. Les SLM diffèrent des LLM, qui se concentrent sur des modèles de langage généraux et complets capables de gérer des tâches complexes et variées dans plusieurs domaines. Les SLM sont conçus pour être réentraînés afin de maximiser la spécialisation et l'efficacité des ressources, en se concentrant sur des applications ciblées plutôt que sur une intelligence large.
Une différence clé entre les SLM et les LLM est leur taille de paramètre, qui est un indicateur direct de leur base de connaissances et de leur potentiel de raisonnement. Les tailles de paramètre des SLM varient généralement de quelques millions à plus de 10 milliards. Tandis que les LLM ont des tailles de paramètre allant de 10 milliards à des trillions de paramètres. En pratique, certains SLM sont également dérivés des LLM par des méthodes comme la quantification ou la distillation, qui réduisent la taille du modèle pour l'efficacité mais ne changent pas les données d'entraînement originales. Les SLM diffèrent des chatbots IA, qui fournissent la plateforme orientée utilisateur, plutôt que les modèles fondamentaux eux-mêmes.
Pour être inclus dans la catégorie des Petits Modèles de Langage (SLM), un produit doit :
Offrir un modèle de langage compact optimisé pour l'efficacité des ressources et les tâches spécialisées, capable de comprendre et de générer des sorties semblables à celles des humains
Contenir 10 milliards de paramètres ou moins, tandis que les LLM dépassent ce seuil de 10 milliards de paramètres
Fournir une flexibilité de déploiement pour les environnements à ressources limitées, tels que les appareils périphériques, les plateformes mobiles ou le matériel informatique
Être conçu pour l'optimisation spécifique aux tâches par le biais de l'affinage, de la spécialisation de domaine ou de la formation ciblée pour des applications commerciales spécifiques
Maintenir une efficacité computationnelle avec des temps d'inférence rapides, des exigences de mémoire réduites et une consommation d'énergie inférieure par rapport aux LLM