Session

Governare l'IA: Il "Peccato Originale"

Perché i Large Language Model (LLM) sono così intrinsecamente fragili? La risposta non risiede in un bug temporaneo, ma in quello che possiamo definire il "peccato originale" della loro architettura: la mancata separazione ontologica tra istruzioni e dati. A differenza dei sistemi tradizionali che separano il codice dall'input, gli LLM fondono tutto in un "Nastro Unico", rendendo un dato capace di trasformarsi in istruzione.
In questo talk esploreremo la mappa dei sintomi di questa confusione architettonica attraverso il framework OWASP Top 10 per LLM. Analizzeremo rischi critici come Prompt Injection (LLM01), Sensitive Information Disclosure (LLM02) e la pericolosa Excessive Agency (LLM06).
Vedremo come un attacco possa dirottare la logica di un sistema e, soprattutto, come costruire barriere artificiali efficaci. Vedremo come costruire "barriere artificiali" per simulare la separazione mancante utilizzando i servizi nativi dei principali cloud provider.

Maurizio Argoneto

DevOps Culture, IT Project Manager (Scrum Master | Senior Software Engineer)

Pignola, Italy

Actions

Please note that Sessionize is not responsible for the accuracy or validity of the data provided by speakers. If you suspect this profile to be fake or spam, please let us know.

Jump to top