

Luca Bianchi
Chief Technology Officer @ Neosperience Spa, AWS Serverless Hero, AWS re:Invent 2022 speaker, ServerlessDays Italy and Serverless Meetup Italy co-organizer
Chief Technology Officer @ Neosperience Spa, AWS Serverless Hero, AWS re:Invent 2022 speaker, ServerlessDays Italy and Serverless Meetup Italy co-organizer
Milan, Italy
Actions
Passionate about technology, IoT, and Machine Learning. Loving microservices, DDD, and serverless because all of them have a huge impact on software architectures and are directly tied to application business outcomes. Serving as CTO and R&D manager at Neosperience, an Italian scale-up, listed on Italian Stock Exchange.
Appassionato di tecnologia, IoT e Machine Learning, da alcuni anni promuove le tecnologie serverless, come comun denominatore per lo sviluppo di applicazioni moderne. Dal 2010 è CTO di Neosperience Spa, scale up quotata sul mercato dell'AIM con l'obiettivo di portare empatia nella tecnologia.
Area of Expertise
Topics
Blazing fast HTTP backends with serverless on AWS and Rust en it
Leveraging serverless architectures to build scalable and reliable backends offer several advantages in terms of time-to-market and cost-effectiveness.
Language of choice impacts performance and developer speed, affecting AWS Lambda cold start time and developer experience in catching errors before going into production. In this session, we'll showcase how to build a serverless backend using Rust language with AWS Lambda and AWS DynamoDB through the AWS SAM framework.
Backend HTTP super veloci con AWS serverless e Rust en it
L'utilizzo di un'architettura serverless per la realizzazione di backend scalabili offere numerosi vantaggi in termini di time to market e riduzione dei costi di gestione.
La scelta del linguaggio da utilizzare ha un impatto non trascurabile sulle performance del nostro backend, influenzando direttamente il cold start delle Lambda. In questa sessione esploreremo come realizzare un backend completamente serverless in Rust, utilizzando AWS Lambda e AWS DynamoDB, grazie al framework AWS SAM.
Elevating Generative AI Projects to Production: Tools and Best Practices to deliver customer value en it
Transitioning a generative AI (genAI) project from a simple Proof of Concept (PoC) or service demo to a robust, production-ready solution is a complex process fraught with numerous challenges. This talk aims to guide attendees through the intricacies of scaling genAI projects, highlighting common pitfalls and strategic solutions.
In this talk, we introduce a comprehensive architectural blueprint for genAI projects, covering essential aspects such as prompt and guardrail versioning, conversation management, vector database selection, and model evaluation, utilizing Amazon Bedrock’s Evaluation and Guardrails.
A highlight of this talk is a case study demonstrating the implementation of an End-to-End Retrieval-Augmented Generation (RAG) system integrated with Bedrock Knowledge with prompt versioning, knowledge-optimized chunking, conversation history, and knowledge base augmentation through agents as well as vector database and models selection.
GenAI in produzione: best practice per garantire valore. en it
Lo sviluppo di un progetto di intelligenza artificiale generativa (genAI) da un semplice Proof of Concept (PoC) o demo a una soluzione robusta e pronta per la produzione è un processo complesso pieno di numerose sfide.
Questo talk mira a guidare i partecipanti attraverso le complessità del dimensionamento dei progetti genAI, evidenziando le insidie comuni e le soluzioni strategiche.
In questo talk presentiamo un'architettura completa per i progetti genAI, che copre aspetti essenziali come il controllo delle versioni dei prompt e la definizione delle guardrail, la gestione delle conversazioni, la selezione di database vettoriali e la valutazione del modello.
Vedremo anche quali strumenti AWS mette a disposizione, utilizzando la suite Bedrock.
Infine mostreremo come queste tecniche sono state applicate in un caso reale nell'implementazione di un sistema di Retrieval-Augmented Generation (RAG) integrato con Bedrock Knowledge con a cui sono state apportate modifiche necessarie al mantenimento in produzione di un livello qualitativo adeguato quali prompt versioning, chunking ottimizzato della knowledge base, cronologia delle conversazioni e applicazione degli agenti per migliorare l'outpuut.
LLM e Serverless, un connubio felice it en
In questo talk esploriamo le potenzialità offerte dalle architetture Serverless, quando utilizzate insieme a un framework estremamente modulare come LangChain. Queste soluzioni ci permettono di gestire una varietà notevole di task, quali l'analisi di documenti, lo sviluppo di chatbot e la generazione di testo per specifiche applicazioni.
In questa sessione sarà introdotto il framework LangChain e verrà proposta un'architettura per la gestione in ottica distribuita delle varie chain, in riferimento ad un caso d'uso reale.
Serverless LLM with AWS Lambda and LangChain: A Revolution in Application Development it en
Join us in this exciting session as we dive into serverless architectures with AWS Lambda in conjunction with LangChain, the cutting-edge framework designed to streamline the creation of applications with large language models, handling tasks from document analysis to chatbot development, all with the power of large language models.
This session will guide you through seamlessly integrating AWS Lambda with LangChain. We will cover essential topics, including setting up a serverless environment, deploying LangChain applications, and exploring real-world use cases.
Usare soluzioni headless ci ha dato alla testa! it
Il campo dello sviluppo di applicazioni web ha subito una trasformazione radicale con l'avvento di piattaforme CMS, e-commerce e CRM che integrano interfacce di comunicazione, pur preservando un'ampia flessibilità nella personalizzazione di contenuti e strutture dati.
Nel nostro talk, esploreremo in profondità il concetto di sistemi 'headless', ponendo particolare attenzione alle soluzioni più innovative e rilevanti nel panorama attuale. Dimostreremo come sia possibile potenziare un CMS attraverso la personalizzazione, creando nuove entità e sviluppando front-end dedicati con Next.js.
Cloud Day 2022 Sessionize Event
AWS Community Days ANZ 2020 Sessionize Event
Machine Learning From Zero to Hero
Guest speaker on a 1-to-1 interview to explain Neosperience Road to Machine Learning, building a ML team and tools to share knowledge between data scientists and developers
Cloud Day 2020 Sessionize Event
EuropeClouds Summit Sessionize Event
INTELLIGENZA ARTIFICIALE E INDUSTRIA - Associazione ASSI
Introduzione all’IA, principi di applicazione di tecniche di computer vision alla fabbrica
Machine Learning From Zero to Hero
Guest spearker to introduct PyTorch and Pytorch Lightninng on Amazon Sagemaker
CDK Day Sessionize Event
Please note that Sessionize is not responsible for the accuracy or validity of the data provided by speakers. If you suspect this profile to be fake or spam, please let us know.
Jump to top