Session
Pruebas adversariales para seguridad con Azure AI Red Teaming Agent
En esta sesión exploraremos cómo aplicar prácticas de red teaming específicamente diseñadas para sistemas de IA generativa con el agente de AI Red Teaming de Azure (preview).
Hablaremos y demostraremos:
* Conceptos fundamentales de AI red teaming
* La arquitectura y funcionamiento del agente de Azure integrando el framework PyRIT (Python Risk Identification Tool)
* Los módulos de evaluación de riesgo y seguridad de Azure AI Foundry.
Se demostrarán de forma práctica diferentes estrategias de ataques adversariales (como codificaciones, ofuscaciones, inversión de caracteres, prompt injection), y cómo interpretar métricas como Attack Success Rate (ASR) en modo local y en la nube.
Please note that Sessionize is not responsible for the accuracy or validity of the data provided by speakers. If you suspect this profile to be fake or spam, please let us know.
Jump to top