
CompactifAI è uno strumento di compressione dei modelli di intelligenza artificiale sviluppato da Multiverse Computing, progettato per migliorare l'efficienza, l'accessibilità economica e la portabilità dei sistemi di intelligenza artificiale. Sfruttando reti tensoriali avanzate, CompactifAI riduce significativamente le dimensioni e le richieste computazionali dei grandi modelli linguistici (LLM) e di altre architetture di intelligenza artificiale. Questa compressione porta a notevoli risparmi in termini di memoria e spazio su disco, rendendo i progetti di intelligenza artificiale più convenienti e accessibili. Inoltre, CompactifAI supporta lo sviluppo di modelli di intelligenza artificiale localizzati, garantendo la privacy dei dati e la conformità ai requisiti di governance. Il suo approccio innovativo affronta le crescenti sfide delle crescenti richieste di potenza computazionale, dei costi energetici in aumento e della disponibilità limitata di hardware nell'industria dell'intelligenza artificiale.