Session
Seguridad y auditorías en Modelos grandes del lenguaje (LLM)
Los LLM (Large Language Model) son una clase de modelos de inteligencia artificial que han revolucionado la forma en que las máquinas interpretan y generan el lenguaje humano. La seguridad y la auditoría son temas críticos cuando se trata de aplicaciones basadas en grandes modelos de lenguaje, como los modelos GPT (Generative Pre-trained Transformer) o LLM (Large Language Model).
Esta charla pretende analizar la seguridad de estos modelos de lenguaje desde el punto de vista del desarrollador, analizando las principales vulnerabilidades que se pueden producir en la generación de estos modelos. Entre los principales puntos a tratar podemos destacar:
-Introducción a LLM
-Introducción al OWASP LLM Top 10
-Seguridad en aplicaciones que manejan modelos LLM.
-Herramientas de auditoría en aplicaciones que manejan modelos LLM.
-Caso de uso con la herramienta textattack para realizar ataques adversarios
Please note that Sessionize is not responsible for the accuracy or validity of the data provided by speakers. If you suspect this profile to be fake or spam, please let us know.
Jump to top