I modelli di linguaggio piccoli (SLM) sono modelli di intelligenza artificiale (AI) ottimizzati per l'efficienza, la specializzazione e il dispiegamento in ambienti con risorse limitate e capacità di calcolo ridotte. Simili ai modelli di linguaggio grandi (LLM), anche gli SLM sono progettati per comprendere, interpretare e generare output simili a quelli umani da una vasta gamma di input. Sfruttando tecniche di apprendimento automatico (ML) efficienti, architetture semplificate e dataset specializzati, questi modelli sono spesso riutilizzati per eseguire una selezione di compiti per massimizzare l'efficienza delle risorse. Gli SLM possono essere essenziali per le organizzazioni che richiedono un dispiegamento di modelli AI economico e rapido.
Grazie alle loro architetture ottimizzate, gli SLM possono essere dispiegati su dispositivi edge, piattaforme mobili e sistemi offline, facilitando il dispiegamento accessibile dell'AI. Gli SLM si differenziano dagli LLM, che si concentrano su modelli di linguaggio generali e completi che gestiscono compiti complessi e diversificati in più domini. Gli SLM sono progettati per essere riaddestrati per massimizzare la specializzazione e l'efficienza delle risorse, concentrandosi su applicazioni mirate piuttosto che su un'intelligenza ampia.
Una differenza chiave tra SLM e LLM è la dimensione dei parametri, che è un indicatore diretto della loro base di conoscenza e potenziale di ragionamento. Le dimensioni dei parametri degli SLM variano tipicamente da pochi milioni a oltre 10 miliardi. Mentre gli LLM hanno dimensioni dei parametri che vanno da 10 miliardi a trilioni di parametri. In pratica, alcuni SLM sono anche derivati dagli LLM attraverso metodi come la quantizzazione o la distillazione, che riducono la dimensione del modello per l'efficienza ma non cambiano i dati di addestramento originali. Gli SLM si differenziano dai chatbot AI, che forniscono la piattaforma rivolta all'utente, piuttosto che i modelli fondamentali stessi.
Per qualificarsi per l'inclusione nella categoria dei Modelli di Linguaggio Piccoli (SLM), un prodotto deve:
Offrire un modello di linguaggio compatto ottimizzato per l'efficienza delle risorse e compiti specializzati e capace di comprendere e generare output simili a quelli umani
Contenere 10 miliardi di parametri o meno, mentre gli LLM superano questa soglia di 10 miliardi di parametri
Fornire flessibilità di dispiegamento per ambienti con risorse limitate, come dispositivi edge, piattaforme mobili o hardware di calcolo
Essere progettato per l'ottimizzazione specifica del compito attraverso il fine-tuning, la specializzazione del dominio o l'addestramento mirato per applicazioni aziendali specifiche
Mantenere l'efficienza computazionale con tempi di inferenza rapidi, requisiti di memoria ridotti e un consumo energetico inferiore rispetto agli LLM