Les outils de gestion de la posture de sécurité de l'IA (AI-SPM), parfois appelés AI TRiSM (Gestion de la Confiance, des Risques et de la Sécurité de l'Intelligence Artificielle), constituent un marché émergent de logiciels qui découvrent, surveillent, évaluent et corrigent les mauvaises configurations de sécurité de l'IA pour réduire le risque de perte de données sensibles. Ce logiciel aide les organisations à :
Sécuriser l'utilisation des outils d'IA générative, des chatbots et des agents IA à travers les applications et les systèmes
Découvrir en continu les intégrations IA, signaler le contenu sensible généré par l'IA, surveiller les flux de données et appliquer des politiques de sécurité pour prévenir l'exposition de données sensibles, contrôler le comportement des agents et réduire les risques pour l'entreprise
Les outils de sécurité, tels que les pare-feux réseau, les passerelles de messagerie, la détection des points d'extrémité et les navigateurs d'entreprise, ne surveillent traditionnellement pas ou ne détectent pas les intégrations SaaS avec l'IA. Les outils AI-SPM comblent cette lacune en donnant aux équipes de sécurité une visibilité sur les applications IA connectées, les données qu'elles accèdent et comment les agents agissent, tout en fournissant des contrôles pour arrêter la perte de données ou les actions malveillantes.
Les logiciels AI-SPM sont utilisés par les équipes de sécurité cherchant à prévenir les fuites de données via les intégrations IA et à obtenir une visibilité sur les outils IA connectés. Les équipes de conformité et de gouvernance responsables de garantir une utilisation responsable de l'IA peuvent également utiliser ces outils. Ce logiciel diffère des autres outils de gestion de la posture de sécurité tels que le logiciel de gestion de la posture de sécurité des données (DSPM), le logiciel de gestion de la posture de sécurité du cloud (CSPM), le logiciel de gestion de la posture de sécurité des applications (ASPM), et le logiciel de gestion de la posture de sécurité SaaS (SSPM) car il aborde spécifiquement les risques de sécurité des agents IA et des intégrations plutôt que de sécuriser l'infrastructure cloud, les magasins de données, les configurations SaaS ou le code des applications. Il diffère également des outils de gouvernance de l'IA, car ces outils gèrent les préoccupations éthiques, réglementaires et de conformité du cycle de vie des systèmes IA plutôt que de sécuriser les actifs IA.
Pour être inclus dans la catégorie de la Gestion de la Posture de Sécurité de l'IA (AI-SPM), un produit doit :
Découvrir les actifs IA tels que les applications, les chatbots, les agents, le contenu généré par l'IA et les intégrations
Surveiller les autorisations et l'accès aux données à travers les applications SaaS, les API et d'autres environnements
Évaluer en continu les risques d'intégration IA, en évaluant les mauvaises configurations, les violations de politiques et l'exposition de données sensibles aux services IA externes
Appliquer des politiques de sécurité par le biais de remédiation, telles que la limitation des autorisations des agents ou le blocage des activités IA non autorisées
Maintenir des pistes de gouvernance et d'audit pour soutenir les exigences de conformité