Roberto Navarro
Microsoft MVP IA, NTT Data, Azure Evangelist & Architect BigData/IA
Madrid, Spain
Actions
Soy Roberto Navarro, Ingeniero Informático de profesión y por suerte de vocación y MVP en IA, llevo cerca de 20 años trabajando en el sector, y durante los últimos 7-8 dedicándome a tareas relacionadas con el BigData y la IA en Azure, aunque siempre me pico el mundillo este de contar cosas, de ayudar a la gente a meterse es este mundo hyper-loco, así que hace como unos 3 años me metí más de lleno en la “comunidad”, realizando charlas en diversos eventos de Azure, como el GlobalAIBootcamp, NetCoreConf, GlobalAzure, etc. escribiendo algún que otro post, mi propio canal de Youtube, etc. y aquí estoy ahora, como Evangelist en donde parte de mi trabajo es precisamente este, el de ayudar a la gente y las empresas a entender este mundo tan loco de los datos, la IA, etc.
Area of Expertise
Topics
Entendiendo que es una Feature Store
Uno de los procesos más importantes a la hora de desarrollar nuestros modelos, es el de Feature Engineering, el cual consiste en preparar y modelar nuestros datos, de forma que podamos obtener el mejor resultado posible a partir de ellos. Sin olvidar que luego debemos realizar la inferencia y tenemos que volver a realizar las mismas transformaciones para pasárselo a nuestro modelo entrenado.
El problema viene cuando empezamos a reinventar la rueda y tenemos varios modelos que comparten muchas features, ya que entonces distintos equipos hacen los mismos procesos una y otra vez, haciendo que se pierda mucho tiempo en aplicar las mismas transformaciones sobre los mismos datos, para tratar de paliar esto, surgieron los motores de Feature Store, que tratan de solventar estos problemas.
Vamos todos a la FEASTa
Uno de los procesos más importantes a la hora de desarrollar nuestros modelos, es el de preparar y modelar nuestros datos, crear nuevas variables, normalizar etc. de forma que podamos obtener el mejor resultado posible a partir de los datos, denominándose este proceso Feature Engineering, sin olvidar que luego cuando queremos realizar la inferencia de los mismos, tenemos que volver a realizar las mismas transformaciones para pasárselo a nuestro modelo entrenado.
El problema viene cuando tenemos varios modelos que usan los mismos datos y necesitan o comparten todas o algunas de las transformaciones, ya sea en entrenamiento como en inferencia. Esto al final hace que se pierda mucho tiempo, y muchos recursos, en aplicar las mismas o transformaciones sobre los mismos datos, y sin olvidar lo que esta tan de moda últimamente como es la gobernanza de los modelos y de sus componentes, como pueden ser la Features.
Para tratar de paliar esto, ha aparecido un nuevo proyecto OpenSource iniciado por GCP allá por el 2019 y ahora mismo está bajo licencia Apache, y sobre el cual se ha realizado una implementación específica para Azure y que será la que veamos que se liberó hace unos 6 meses bajo licencia MIT, y que será el que veamos en profundidad en esta sesión.
Tu RAG 100% local con SQL Server 2025
En esta sesión exploraremos cómo usar las capacidades nativas de SQL Server 2025 para construir un sistema de Retrieval-Augmented Generation (RAG) que opere localmente, sin depender totalmente de servicios externos en la nube. Veremos cómo generar embeddings, almacenarlos dentro de T-SQL, indexarlos con vectores, hacer búsquedas semánticas, conectar con modelos de lenguaje y montar un pipeline de RAG seguro. Mostraremos ejemplos y buenas prácticas para producción.
RAG 2.0... o cuales son las evoluciones de las arquitecturas RAG (GraphRAG, LightRAG, StructRAG...)
En esta charla, exploraremos las últimas innovaciones en las arquitecturas de Generación Aumentada por Recuperación (RAG) para Inteligencia Artificial Generativa. Analizaremos cómo las nuevas variantes están transformando la manera en que los modelos de lenguaje interactúan con grandes volúmenes de datos.
GraphRAG: Descubre cómo la integración de estructuras de grafos mejora la recuperación de entidades y relaciones, proporcionando respuestas más contextualmente relevantes.
LightRAG: Aprende sobre las mejoras en eficiencia y rapidez en la recuperación de información, manteniendo la simplicidad y efectividad.
StructRAG: Explora las técnicas avanzadas para segmentar y acceder a información relevante de manera más precisa y eficiente.
Y otras variantes que puedan ir surgiendo....
Quantum Computing y como afectará al mundo del Machine Learning
El periplo para entender lo que es y como funciona la Computación Cuántica no es sencilla, y en esta sesión intentaré explicar lo que he ido aprendiendo en estos últimos meses, en como funciona, y como afectará al mundo del Machine Learning, ya que el QML es uno de los topics mas candentes dentro del espectro actual de la computación cuántica, y como no, echaremos un vistazo al servicio de Azure para la computación cuántica, su microprocesador, si para entonces ya por fin lo ha liberado... el nuevo lenguaje de programación de la familia, el Q#...
ONNX un framework para gobernarlos a todos
ONNX es un framework que ha surgido de la colaboración entre Facebook, Microsoft y Amazon, aunque actualmente hay mas de 40 grandes corporaciones involucradas, tales como IBM, Intel, AMD, Alibaba, etc. y que define una lingua franca o definición interoperable para modelos de AI, tanto para modelos más clásicos de ML, como para las potentes redes neuronales.
Este framework está cogiendo una gran relevancia tanto fuera como dentro del mundo Azure gracias al ONNXRuntime, el cual esta siendo empujado por Microsoft. Este runtime nos permite tener un único entorno de ejecución y gracias a él, no nos tendremos que preocupar sobre el hardware que tenemos por debajo, en como optimizarlo, o en si hemos hecho nuestra red neuronal con Pythorch o con TensorFlow, o si lo ejecuto en un tipo de máquina u otra.
También veremos algunos de los servicios de Azure que lo usan, tanto para entrenar modelos con Custom Vision o AutoML, desplegarlos en un AzureML o hacer inferencia en tiempo de ejecución en Synapse, etc.
Y por supuesto con mucha demo para que veamos la realidad de cómo usarlo…
MCP: el enchufe universal de la IA (qué es, para qué sirve y por qué debes conocerlo)
En los últimos meses se habla mucho de MCP y de su integración con herramientas como Power Platform y Microsoft Fabric, pero… ¿qué es realmente MCP y por qué está ganando tanta relevancia?
En esta charla haremos una introducción clara y sin tecnicismos al Model Context Protocol (MCP):
explicaremos qué problema viene a resolver, para qué sirve y cómo permite que los modelos de IA se conecten de forma estándar y segura con datos, APIs y herramientas.
A través de ejemplos sencillos y cercanos al día a día (Power Apps, Copilot, Fabric, datos corporativos…), veremos cómo MCP actúa como un “conector universal” entre la IA y los sistemas empresariales, y por qué puede convertirse en una pieza clave para crear soluciones más útiles, escalables y gobernadas.
Una sesión pensada para perfiles no necesariamente técnicos, pero con interés en entender cómo evoluciona la IA más allá del “prompt” y qué impacto real puede tener en las plataformas low-code de Microsoft.
MLOps en Azure con Github Copilot
¿Quieres acelerar tu productividad en Data Science hasta 5x?
Estoy compartiendo un workshop completo de 3.5 horas que te enseñará a:
✅ Configurar GitHub Copilot con 8 servidores MCP especializados
✅ Automatizar análisis exploratorio de datos con IA
✅ Implementar feature engineering profesional
✅ Desplegar modelos en Azure ML con CI/CD
✅ Crear pipelines de ML production-ready
🎯 ¿Para quién es?
* Data Scientists que quieren acelerar su workflow
* ML Engineers interesados en MLOps
* Desarrolladores trabajando con IA/ML
* Equipos que buscan automatizar sus pipelines
Introducción al desarrollo de modelos de IA en Microsoft Fabric
Hasta ahora hemos visto siempre el desarrollo de modelos de IA centrados en Databricks y en AzureML, pero Microsofot Fabric ha incorporado funcionalidades muy interesantes para el desarrollo de modelos de Machine Learning, como son MLFlow, inferencias por Predict, dentro del propio MS Fabric.
En esta sesión haremos una primera aproximación al mundo del ML, cuales son los conceptos base, como aplicarlos en MS Fabric, que opciones nos ofrece, etc. y todo desde un punto de vista muy practico.
Los agentes no fallan: fallan tus datos. Cómo hacer que las IAs pueda consultar tus bases de datos
Los agentes basados en modelos de lenguaje prometen consultar datos en lenguaje natural y generar SQL automáticamente.
Sin embargo, en la práctica, muchos equipos se encuentran con consultas incorrectas, joins erróneos o resultados difíciles de explicar.
En esta charla veremos por qué el problema rara vez está en el agente y casi siempre en cómo están modelados los datos.
A través de ejemplos prácticos, analizaremos:
Por qué los agentes funcionan bien con tablas simples y empiezan a fallar a medida que el modelo se complica
Qué patrones de modelado (tablas planas, modelos en estrella, capas de consumo) facilitan la generación de SQL fiable
Qué lecciones del BI clásico siguen siendo válidas en la era de los agentes
Cuándo tiene sentido limitar el contexto o especializar agentes por dominio.
introducción a las arquitecturas y servicios involucrados en el procesamiento de datos
En primer lugar veremos los conceptos claves de las arquitecturas de datos, que es un data lake, como se estructuran y almacenan los datos, los diferentes tipologías de ficheros, Bases de datos (SQL Vs NOSQL), etc. luego continuaremos hablando de las arquitecturas tipo, Lambda, Kappa, etc. Y por último daremos un repaso a los servicios normalmente involucrados para que tengáis una idea general de cuales son, y que poco a poco iremos viendo en el grupo.
Introducción a la IA generativa
Esta sesión está diseñada para aquellos que quieren comenzar con la IA generativa y su aplicación en proyectos prácticos. Comenzaremos con una introducción que sentará las bases teóricas, seguida de un análisis de las técnicas de prompt engineering para mejorar la interacción con modelos generativos. También abordaremos la Recuperación Augmentada (RAG), explorando cómo el particionamiento de documentos puede aumentar la precisión de las respuestas generadas, el papel de Azure AI Search en la gestión y búsqueda avanzada de datos, y cómo sus opciones pueden integrarse en soluciones de IA.
Interactua con AzureML en remoto
En esta sesión, se realizará una introducción muy rápida a azureML, centrándonos después en el SDK proporcionado por Azure (azuremlsdk) el cual nos permitirá interactuar ya sea desde una maquina en la nube o desde nuestro propio equipo, pero usando los recursos de computación o inferencia de Azure.
Para ello usaremos un ejemplo en R el cual entrenaremos, registraremos y desplegaremos como un servicio Rest en un contenedor.
Implementando RAG local sobre SQL Server 2025
En esta sesión exploraremos cómo usar las capacidades nativas de SQL Server 2025 para construir un sistema de Retrieval-Augmented Generation (RAG) que opere localmente, sin depender totalmente de servicios externos en la nube. Veremos cómo generar embeddings, almacenarlos dentro de T-SQL, indexarlos con vectores, hacer búsquedas semánticas, conectar con modelos de lenguaje y montar un pipeline de RAG seguro. Mostraremos ejemplos y buenas prácticas para producción.
El viaje de los Datos a través de los sistemas…
Actualmente vivimos en un mundo en el que por todos lados escuchamos “El nuevo petróleo”, “Los datos son oro puro” … y si, es verdad, pero esto es la visión bonita la idílica que muchas veces se tiene desde afuera, pero la realidad, es mucho más complicada, más difícil de gestionar, por ello en esta sesión, veremos cómo gestionar y almacenar los datos, de forma eficiente, viendo cosas sobre cómo son de calientes nuestros datos, que es eso del Raw/Silver/Golden, Parquet Vs Delta, DataMesh, DataFabric, etc. de forma que al menos tengamos claro que debemos hacer y como debemos manipular nuestros datos para que podamos generar esos insights o ese oro tan deseado a partir de nuestros modelos de ML, Visualizaciones, etc.
Data Munging, Data Wrangling, Data WHAT.... hablemos claro sobre la preparación de datos
Una de las tareas que suele llevar más tiempo a los Data Engineering, es el de ejecutar los procesos de Data Munging o Data Wrangling (es la forma chula de llamar a la preparación de datos) para ser almacenados en la zona Silver de tu DataLake (donde están los datos para su consumo), entre ellos tenemos la unificación semántica (que tengan sentido los nombres), Data Transformation (como adaptar nuestros datos), Data Cleaning (vamos a sacar el trapo del polvo), etc…
En esta sesión veremos las diferentes técnicas existentes, y entenderemos que significan, y como llevarlas a cabo para que nuestros datos estén siempre limpios y relucientes.
Como montar mi proyecto de Streaming con el nuevo driver de Spark.
En esta charla mostraremos como montar mi servicio de Streaming de principio a fin, usando EventHub para la captura de datos, y que opciones o cuando nos puede ser útil la funcionalidad del Capture, usaremos la última versión del driver de Spark, y por último lo almacenaremos todo en CosmosDB, que tener en cuenta a la hora de particionar nuestros datos, gestionar nuestras claves etc.
Como sacar el máximo partido a mi escaso conocimiento de Python.
En esta sesión analizaremos y revisaremos la nueva librería Bamboolib disponible en Azure Databricks, veremos como integrarlo de forma adecuada con nuestro BlobStorage, como procesar nuestros datos a golpe de botón, y no tanto a golpe de tecla, de forma que, aunque sepamos poco de Python, seamos capaces de procesar nuestros datos sin preocuparnos de la sintaxis, creemos unos gráficos super chulos sin apenas conocimiento de Plotty, y generemos con ello nuestro script para usarlo en otros servicios de Azure, en la sesión veremos algunos ejemplos.
Como mantener la privacidad de los datos de tus clientes en entornos estructurados y no estructurado
Cuando se trabaja con datos, especialmente en temas analíticos, tenemos dos fuerzas encontradas, por un lado los consumidores de datos, entendiendo como tal a los equipos de Data Scientist, Data Analysts, Data Visualization, etc. que necesitan datos para hacer su trabajo, pero por otro lado los equipos de seguridad y cumplimientos normativos como puede ser GDPR en Europa, la CPA en California, APEC en USA, HIPAA, etc., ya que es tan importante el obtener información de nuestros datos como el asegurarnos que cumplimos con los derechos de los usuarios y por ende de sus datos, y que estos no sean usados para nada ilegal o no informado, y por supuesto que no son robados para usos fraudulentos, etc.
Por ello una de las mayores preocupaciones que tenemos al diseñar una arquitectura para procesamiento y análisis de datos es el de la seguridad, para asegurarnos que los datos son accesibles y útiles, pero que además tengan un uso seguro y autorizado.
En esta sesión veremos como proteger nuestros datos, tanto si estamos trabajando con datos estructurado, y veremos cosas como Hasheado, Tokanización, Encriptación, como no estructurados, y veremos como con gestionar esto con herramientas de Open Source como Prometeo, o usando los servicios cognitivos de Azure, para trabajar con texto libre, imágenes con texto o con personas, etc.
Como mantener la privacidad de los datos de tus clientes y no morir en el intento
Cuando se trabaja con datos, especialmente en temas analíticos, tenemos dos fuerzas encontradas, por un lado los consumidores de datos, entendiendo como tal a los equipos de Data Scientist, Data Analysts, Data Visualization, etc. que necesitan datos para hacer su trabajo, pero por otro lado los equipos de seguridad y cumplimientos normativos como puede ser GDPR en Europa, la CPA en California, APEC en USA, HIPAA, etc., ya que es tan importante el obtener información de nuestros datos como el asegurarnos que cumplimos con los derechos de los usuarios y por ende de sus datos, y que estos no sean usados para nada ilegal o no informado, y por supuesto que no son robados para usos fraudulentos, etc.
Por ello una de las mayores preocupaciones que tenemos al diseñar una arquitectura para procesamiento y análisis de datos es el de la seguridad, para asegurarnos que los datos son accesibles y útiles, pero que además tengan un uso seguro y autorizado.
En esta sesión veremos como proteger nuestros datos, tanto si estamos trabajando con datos estructurado, y veremos cosas como Hasheado, Tokanización, Encriptación, como no estrcuturados, y veremos como con gestionar esto con herramientas de Open Source como Prometeo, o usando los servicios cognitivos de azure, para trabajar con texto libre, imagenes con texto o con personas, etc.
Como lidiar con Feathr (Feder) y no morir en el intento
Uno de los procesos más importantes a la hora de desarrollar nuestros modelos, es el de preparar y modelar nuestros datos, crear nuevas variables, normalizar etc. de forma que podamos obtener el mejor resultado posible a partir de los datos, denominándose este proceso Feature Engineering, sin olvidar que luego cuando queremos realizar la inferencia de los mismos, tenemos que volver a realizar las mismas transformaciones para pasárselo a nuestro modelo entrenado.
El problema viene cuando tenemos varios modelos que usan los mismos datos y necesitan o comparten todas o algunas de las transformaciones, ya sea en entrenamiento como en inferencia. Esto al final hace que se pierda mucho tiempo, y muchos recursos, en aplicar las mismas o transformaciones sobre los mismos datos, y sin olvidar lo que esta tan de moda últimamente como es la gobernanza de los modelos y de sus componentes, como pueden ser la Features.
Para tratar de paliar esto, surgieron los motores de Feature Store, uno de ellos, fue el que monto LinkedIn (Feathr) y que tras su compra por Microsoft, ha sido liberado recientemente bajo licencia Apache y que será el que veamos en profundidad en esta sesión, aunque también haremos mención al plugin de feast para Azure en la que hable en mi sesión anterior del Global Azure.
Como lidiar con Feathr (Feder) y no morir en el intento
Uno de los procesos más importantes a la hora de desarrollar nuestros modelos, es el de preparar y modelar nuestros datos, crear nuevas variables, normalizar etc. de forma que podamos obtener el mejor resultado posible a partir de los datos, denominándose este proceso Feature Engineering, sin olvidar que luego cuando queremos realizar la inferencia de los mismos, tenemos que volver a realizar las mismas transformaciones para pasárselo a nuestro modelo entrenado.
El problema viene cuando tenemos varios modelos que usan los mismos datos y necesitan o comparten todas o algunas de las transformaciones, ya sea en entrenamiento como en inferencia. Esto al final hace que se pierda mucho tiempo, y muchos recursos, en aplicar las mismas o transformaciones sobre los mismos datos, y sin olvidar lo que esta tan de moda últimamente como es la gobernanza de los modelos y de sus componentes, como pueden ser la Features.
Para tratar de paliar esto, surgieron los motores de Feature Store, uno de ellos, fue el que monto LinkedIn (Feathr) y que tras su compra por Microsoft, ha sido liberado recientemente bajo licencia Apache y que será el que veamos en profundidad en esta sesión, aunque también haremos mención al plugin de feast para Azure.
Como integrar las arquitecturas RAG en Microsoft Fabric
Los modelos de Lenguaje han venido para revolucionar nuestro mundo, y ya no nos imaginamos ninguna aplicación sin que use estas capacidades que nos proporcionan.
Estos sistemas LLMs, tienen muchas limitaciones con respecto al conocimiento que tienen accesible para dar una respuesta, pero para ello surgieron las arquitecturas RAG (Retrieval Augmented Generation), que proporcionan esta capacidad de dar conocimiento preciso a nuestros modelos. Existen varias opciones, pero en esta sesión nos centraremos en usar índices para búsquedas documentales, y aproximaciones basadas en Function Calling para recuperar datos de nuestro OneLake, BB.DD. o DWH
Como Integrar la IA Responsable en tus aplicaciones de IA Generativa
El desarrollo de aplicaciones basadas en IA Generativa tiene un hándicap de base, y es que por definición son modelos probabilísticos, lo cual implica que nunca puedes estar seguro del resultado que vas a obtener, puedes jugar con ciertos parámetros (Temperatura, Top_N, etc.) o con arquitecturas como las RAGs para reducir alucinaciones, etc. pero aún así existe un riesgo importante de que el sistema genere contenido inadecuado, o que el propio usuario quiera que la IAG genere contenido inapropiado.
Para intentar mitigar esto tenemos Azure Content Safety, el cual analiza las entradas y las salidas en los modelos, proporciona metricas sobre la calidad de nuestras respuestas, riesgos sobre sexualidad, violencia, etc. como métricas personalizadas, ya que no todos los casos de uso son iguales, etc. y es lo que revisaremos en esta charla...
Como gestionar tus movimientos de Datos con ADF
Normalmente en las presentaciones y webinars sobre ADF, se suelen ver aproximaciones simples, o el uso de componentes en mayor o menor media aislados, pero la realidad suele ser mucho más compleja, y es necesario el interactuar con otros elementos como la BB.DD. para controlar el estado en el que nos quedamos, no avanzar si no tenemos todos los datos preparados en el paso anterior, y así no desperdigar los errores en todos los almacenes de datos, etc.
En esta charla presentaremos la aproximación seguida en un proyecto real apoyándonos en SQL Database, y mostrando como montar y orquestar diferentes pipelines o usar la Base de datos para reducir la necesidad de insertar componentes en el Pipeline.
Como agilizar las tareas de conocimiento y preparación de los datos para entrenar un modelo de ML
Una de las tareas más relevantes e importantes con las que se enfrenta un Analista de datos o Data Scientist, es el de revisar y entender los datos con los que debe trabajar, durante esta fase, debe centrarse en muchas cosas, como son las distribuciones de sus datos, como limpiar los datos, ver que información es relevante y cual no, realizar gráficos que le permitan visualizar por donde atacar el dataset, etc.
Esto es un proceso que suele llevar bastante tiempo, pero hay multitud de herramientas tanto para R como en Python que nos permiten acelerar este proceso, ya que lo hacen de forma automatizada, y es lo que veremos durante la sesión, como funcionan estas herramientas y que podemos esperar de ellas tanto para el EDA como la limpieza de datos, y como no podía ser de otra forma veremos cómo funcionan un par de ellas, pero no os desvelo cuales, pero si os adelanto que una es para usar con Databricks, y otra con Synapse, el resto lo dejo a vuestra imaginación.
Como aplicar tecnicas de LowCode para el desarrollo de modelos de ML Sobre Fabric
En esta sesión, exploraremos cómo las técnicas de LowCode pueden simplificar y acelerar el desarrollo de modelos de Machine Learning (ML) en la plataforma Microsoft Fabric. Para ello usaremos FLAML, una librería de AutoML eficiente y fácil de usar, demostraremos cómo los desarrolladores y analistas de datos pueden crear modelos predictivos robustos sin necesidad de escribir extensas líneas de código.
A lo largo de la sesión, los participantes aprenderán los puntos importantes del desarrollo de modelos de ML y como integrar y usar FLAML en Microsoft Fabric, optimizando el proceso de modelado y mejorando la productividad.
Capitán Capitán, Tenemos un dato a la deriva...
o como detectar que los datos de nuestros modelos siguen siendo coherentes.
Los trabajos de los Data Scientist son variados y a veces poco agradecidos, pero no por ello menos importantes, como por ejemplo limpiar los datos, prepararlos, o incluso desplegar los modelos, pero hay otro que está empezando a escucharse cada vez más fuera del mundillo, y es el del Data Drifting o deriva de datos, en donde por diversas razones que veremos durante la charla estos pueden cambiar, ya sea porque hay datos nuevos o que desaparecen, por cambios en la entrada de datos , o donde los datos van variando poco a poco... que es uno de los más difíciles de detectar, ya que hay que ver cómo evolucionan en el tiempo, menos mal que en este caso AzureML nos ayuda para detectar esta deriva de datos y ser nuestro vigía y avisarnos para que nuestra armada de modelos llegue a buen puerto.
Azure Quantum... ¿Qué se esconde realmente detrás?
En esta sesión, nos adentraremos en el mundo de la Cuántica, si, en ese mundo que suena tan raro, que tiene tanto Hype, del que todo el mundo habla pero pocos conocen en detalle, yo el primero, que es tan extraño, y que mucha gente dice que le explota la cabeza al verlo...
En esta charla veremos una base muy muy inicial y que base se necesita para adentrarse en este mundo, veremos que nos proporciona Azure para poder empezar a entender las bases de la próxima revolución que vendrá detrás de la IA Generativa, por que si, hay vida después de Azure OpenAI...
AzureOpenAI bajo el capo
"A todos nos gusta conducir" esta es una frase que escuche o algo parecido en algún anuncio de coches, pero en la comunidad Azure aparte de conducir nos gusta saber como funciona el coche, como tunearlo, como se articulan las piezas y como se integran con otras piezas para sacar lo mejor de el.
Y eso es justo lo que haremos en esta sesión, veremos como funciona Azure OpenAI, como trabajar con el SDK (Python) y que opciones de parametrización tengo, que no solo de temperatura vive el modelo, hablaremos sobre sus limitaciones, y como apoyarnos en proyectos como Langchain o semantic kernel para superarlas y poder montarnos nuestra aplicación...
Todo ello aderezado con mucho código, que es lo que nos gusta...
Azure FaceRecognition, ese reflejo en el espejo.
En esta charla, hablaremos sobre los servicios congnitivos de Azure, especialmente sobre FaceRecognition, que es, como funciona, etc. y como de teoría todos nos aburrimos, y estamos cansados del hola mundo, entrenaremos desde cero y usando Anaconda nuestro identificador, de forma que podemos usarlo para diferentes funcionalidades, y para ello haremos un ejemplo de comparador de imágenes, de forma que pasándole 2 imágenes desde nuestro Notebook nos diga si son la misma persona, y otra en la que basándonos en la librería OpenCV, hagamos un identificador en tiempo real, que según la persona que se ponga delante de la cámara de nuestro portátil, nos diga quien es... todo un reto con un montón de cosas a enseñar en tan poco tiempo...
Azure AI Search: Entendiendo las funcionalidades que me proporciona
#IAGenerativa AISearch.
Azure AI Search ha pasado de ser una herramienta de búsqueda clásica basada en palabras clave, a un servicio core en el mundo de la IA Generativa, que integra tanto keywords como embeddings, permitiendo mejorar la precisión de los resultados. Esta fusión permite captar el contexto y las relaciones más complejas entre los datos. En la charla, también abordaremos los avances en la cuantización de embeddings a formatos más eficientes como int y bitwise, lo que optimiza el rendimiento sin comprometer la calidad. Exploraremos cómo estos desarrollos hacen que la búsqueda en grandes volúmenes de datos sea más eficiente y relevante.
Aprovechando las capacidades de las Feature Store en Microsoft Fabric
En los últimos años, las herramientas de Feature Store han ido imponiéndose cada vez más en el desarrollo e inferencia de modelos de ML, y esto en Fabric no podía ser de otra forma.
Que no te suena de lo que te hablo, pues pásate por la charla y te cuento la foto completa, teoría y practica.
En primer lugar fue Feast (de Google), del que ya hable en otra charla hace algunos años, luego llego Feathr (de LinkedIn), que tenía sus luces y sombras como todo en esta vida y ahora ya tenemos las Feature Stores como solución propia, veremos en que punto se encuentra, como se organizan, que opciones tenemos de integración, y veremos como usarlo desde Microsoft Fabric.
Aprovechando las capacidades de las Feature Stores en Microsoft Fabric
Únete a nosotros en este evento donde exploraremos Azure Feature Store, la solución de Microsoft para gestionar y reutilizar características en proyectos de Machine Learning e IA dentro del ecosistema de Microsoft Fabric.
En esta sesión, abordaremos:
✅ Introducción a Azure Feature Store: ¿Qué es y cómo optimiza el ciclo de vida de ML?
✅ Integración con Microsoft Fabric: Beneficios de un almacenamiento unificado en Lakehouse.
✅ Flujo de trabajo end-to-end: Desde la ingesta de datos hasta su uso en modelos de ML.
✅ Demo en vivo: Creación, almacenamiento y reutilización de características.
Si trabajas con ML, MLOps o datos en la nube, este evento te brindará herramientas clave para escalar y optimizar tus modelos.
Anonimizando que es gerundio tus cargas en los LLMs
En un mundo cada vez más digital, la seguridad y la privacidad de los datos son de suma importancia, sobre todo cuando pensamos en sistemas de IA Generativa que tan sensibles son a la información que le proporcionamos. Esta anonimización de los datos personales es un paso crítico en este proceso para garantizar la privacidad del usuario y la conformidad con las regulaciones de protección de datos, ya que una vez esta información es particionada y generado su embedding, el localizar el trozo exacto y cambiar el dato, puede ser algo complejo, por ello loe mejor es ajustarlo y cambiarlo todo antes.
En esta presentación, exploraremos las opciones que Azure/Microsoft ofrece para garantizar la seguridad de los datos y nos centraremos en Presidio, una potente biblioteca OpenSource de Microsoft, y como por ejemplo tras realizar una transcripción de una llamada con whisper podemos anonimizar los datos para insertarlos en la base de datos vectorial.
A Gentle introduction to AI (vamos la IA desde cero en Fabric)
Alguna vez te has planteado que es esto de la IA, Como introducirte en él, como y cuales son las herramientas de Microsoft Fabric nos proporciona para ayudarnos a desarrollar esto modelos... hablaremos sobre Data Wrangling, AutoML, MLFlow, pero desde un enfoque claro y sencillo para que empieces a trabajar con ello...
CosmosDB4PostgreSQL o Que hay de nuevo Viejo.
En esta charla entraremos en detalle en el “nuevo” (o quizás no tan nuevo) servicio de CosmosDB para PostgreSQL recién anunciado en el MSIgnite, en donde veremos que se esconde bajo las faldas de esta nueva opción de nuestro servicio de CosmosDB, veremos su arquitectura, como se distribuyen las tablas y las queries entre los nodos, como chequear el balanceo de los Shards, y como ajustarlos para mejorar el rendimiento, y veremos algunos consejos que nos ayudaran a mejorar aún mas el rendimiento de las tablas.
“Son mis datos y me los llevo” o “Que por mucho que comprimas no entra”...cómo lo solucionamos
Esto que puede parecer algo jocoso, y que a alguno hasta le puede recordar a cierto anuncio del pasado del Scartergories, o alguna otra cosa es algo que ocurre con bastante frecuencia, ya que por un lado sabemos que entrenar ciertos modelos de IA requiere de muchos, muchísimos datos, pero por otro que los datos son un bien preciado o escaso y en casi todas las ocasiones con muchísimas restricciones sobre su uso y compartición, su volumen lo cual hace que esto sea un problema de difícil resolución…
Pero ya, así lo dejamos… que el egoísmo se salga con la suya… pues como que no, así que en esta sesión os contare lo que es el Federated Machine Learning, y como nos puede solucionar la papeleta…
Roberto Navarro
Microsoft MVP IA, NTT Data, Azure Evangelist & Architect BigData/IA
Madrid, Spain
Actions
Please note that Sessionize is not responsible for the accuracy or validity of the data provided by speakers. If you suspect this profile to be fake or spam, please let us know.
Jump to top