ModelRed é uma plataforma automatizada de testes de segurança para modelos de IA. Ela executa testes adversariais contra LLMs para identificar vulnerabilidades, incluindo injeção de prompt, jailbreaks, vazamento de dados, alucinações e violações de conformidade. A plataforma inclui mais de 200 pacotes de sondagem pré-construídos cobrindo cenários específicos de domínio (médico, financeiro, jurídico) e um marketplace onde pesquisadores de segurança podem contribuir com metodologias de teste especializadas. Os usuários recebem pontuações de segurança, relatórios detalhados de vulnerabilidades e orientações de remediação. O ModelRed integra-se com pipelines CI/CD para testes contínuos e fornece acesso a API para avaliações de segurança programáticas.