Las herramientas de gestión de la postura de seguridad de la IA (AI-SPM, por sus siglas en inglés), a veces conocidas como AI TRiSM (Gestión de Confianza, Riesgo y Seguridad de la Inteligencia Artificial), son un mercado emergente de software que descubre, monitorea, evalúa y remedia las configuraciones incorrectas de seguridad de la IA para reducir el riesgo de pérdida de datos sensibles. Este software ayuda a las organizaciones a:
Asegurar el uso de herramientas de IA generativa, chatbots y agentes de IA en aplicaciones y sistemas
Descubrir continuamente integraciones de IA, señalar contenido sensible generado por IA, monitorear flujos de datos y aplicar políticas de seguridad para prevenir la exposición de datos sensibles, controlar el comportamiento de los agentes y reducir el riesgo empresarial
Las herramientas de seguridad, como los cortafuegos de red, las puertas de enlace de correo electrónico, la detección de puntos finales y los navegadores empresariales, tradicionalmente no monitorean ni detectan integraciones de SaaS con IA. Las herramientas AI-SPM cierran esta brecha al proporcionar a los equipos de seguridad visibilidad sobre qué aplicaciones de IA están conectadas, qué datos acceden y cómo actúan los agentes, al tiempo que proporcionan controles para detener la pérdida de datos o acciones maliciosas.
El software AI-SPM es utilizado por equipos de seguridad que buscan prevenir la fuga de datos a través de integraciones de IA y obtener visibilidad sobre las herramientas de IA conectadas. Los equipos de cumplimiento y gobernanza responsables de garantizar el uso responsable de la IA también pueden utilizar estas herramientas. Este software se diferencia de otras herramientas de gestión de la postura de seguridad como el software de gestión de la postura de seguridad de datos (DSPM), el software de gestión de la postura de seguridad en la nube (CSPM), el software de gestión de la postura de seguridad de aplicaciones (ASPM) y el software de gestión de la postura de seguridad de SaaS (SSPM) porque aborda específicamente los riesgos de seguridad de los agentes e integraciones de IA en lugar de asegurar la infraestructura en la nube, los almacenes de datos, las configuraciones de SaaS o el código de las aplicaciones. También se diferencia de las herramientas de gobernanza de IA, ya que esas herramientas gestionan las preocupaciones éticas, regulatorias y de cumplimiento del ciclo de vida de los sistemas de IA en lugar de asegurar los activos de IA.
Para calificar para la inclusión en la categoría de Gestión de la Postura de Seguridad de la IA (AI-SPM), un producto debe:
Descubrir activos de IA como aplicaciones, chatbots, agentes, contenido generado por IA e integraciones
Monitorear permisos y acceso a datos en aplicaciones SaaS, APIs y otros entornos
Evaluar continuamente los riesgos de integración de IA, evaluando configuraciones incorrectas, violaciones de políticas y exposición de datos sensibles a servicios externos de IA
Aplicar políticas de seguridad a través de la remediación, como limitar los permisos de los agentes o bloquear actividades no autorizadas de IA
Mantener gobernanza y registros de auditoría para apoyar los requisitos de cumplimiento