Session
Ollama: Local AI for my Raspberry Pi
Gli LLM sono diventati una parte fondamentale della nostra vita quotidiana, ma spesso sono accessibili solo tramite API cloud, con costi non trascurabili e preoccupazioni per la privacy. Ollama offre un'alternativa locale multipiattaforma, permettendo di eseguire modelli AI direttamente all'interno dei nostri dispositivi. In questa sessione vediamo come utilizzare questo strumento per creare agenti AI locali in esecuzione su Raspberry Pi e come integrarli in applicazioni .NET per rendere intelligenti i nostri software.
Please note that Sessionize is not responsible for the accuracy or validity of the data provided by speakers. If you suspect this profile to be fake or spam, please let us know.
Jump to top