
CompactifAI est un outil de compression de modèles d'IA développé par Multiverse Computing, conçu pour améliorer l'efficacité, l'accessibilité financière et la portabilité des systèmes d'intelligence artificielle. En exploitant des réseaux de tenseurs avancés, CompactifAI réduit considérablement la taille et les exigences computationnelles des grands modèles de langage (LLM) et d'autres architectures d'IA. Cette compression entraîne des économies substantielles en mémoire et en espace disque, rendant les projets d'IA plus rentables et accessibles. De plus, CompactifAI soutient le développement de modèles d'IA localisés, garantissant la confidentialité des données et la conformité aux exigences de gouvernance. Son approche innovante répond aux défis croissants des demandes de puissance de calcul en augmentation, des coûts énergétiques en hausse et de la disponibilité limitée du matériel dans l'industrie de l'IA.