Session

Ollama: Local AI for my Raspberry Pi

Gli LLM sono diventati una parte fondamentale della nostra vita quotidiana, ma spesso sono accessibili solo tramite API cloud, con costi non trascurabili e preoccupazioni per la privacy. Ollama offre un'alternativa locale multipiattaforma, permettendo di eseguire modelli AI direttamente all'interno dei nostri dispositivi. In questa sessione vediamo come utilizzare questo strumento per creare agenti AI locali in esecuzione su Raspberry Pi e come integrarli in applicazioni .NET per rendere intelligenti i nostri software.

Nicola Paro

Solution Architect | Microsoft MVP

Treviso, Italy

Actions

Please note that Sessionize is not responsible for the accuracy or validity of the data provided by speakers. If you suspect this profile to be fake or spam, please let us know.

Jump to top