Speaker

Rodrigo Cabello

Rodrigo Cabello

Principal AI Research Engineer at Plain Concepts and Microsoft MVP in Artificial Intelligence

Granada, Spain

Actions

Principal AI Research Engineer at Plain Concepts and a nine-time Microsoft Most Valuable Professional (MVP) in Artificial Intelligence. I hold a degree in Computer Engineering and a Master’s in Soft Computing and Intelligent Systems. My work centers on designing and implementing state-of-the-art deep learning solutions, with a strong focus on computer vision and generative AI. Deeply passionate about artificial intelligence and emerging technologies, I bring research into practice by developing solutions with real-world impact. This passion also drives ongoing engagement with the AI community, where I share insights through talks, publications, and collaborations with industry leaders, contributing to the growth and responsible adoption of AI.

Badges

Area of Expertise

  • Information & Communications Technology

Topics

  • Artificial Intelligence
  • Computer Vision
  • Azure Machine Learning
  • Point Cloud

VoiceRAG: Habla con tus datos en tiempo real

¿Te interesaría conocer cómo la aplicación de técnicas como RAG puede mejorar tus modelos LLM's mediante el uso de fuentes de conocimiento externas?

En esta sesión, comenzaremos con una introducción a los embeddings, tanto para texto e imágenes, explicando cómo son fundamentales para construir sistemas multimodales potentes. A continuación, exploraremos los casos de uso de RAG y cómo puede aplicarse para crear soluciones de IA que puedan recuperar y generar contenido basado en conocimientos externos.

Nos centraremos en un caso práctico utilizando las nuevas capacidades de vectorización integradas en Azure Search para construir un sistema RAG multimodal. Este sistema nos permitirá realizar consultas tanto sobre texto como sobre imágenes de un manual técnico, obteniendo respuestas detalladas y precisas.

Además, mostraremos como hemos implementado el patrón VoiceRAG para hablar directamente con nuestros datos y mantener una conversación fluida gracias a la nueva api en realtime de gpt4-o

Vision AI Agents

El término "agente de IA generativo" es cada vez más común en nuestro día a día, pero… ¿sabemos realmente qué es un agente generativo y para qué se usa?

A lo largo de esta sesión, exploraremos un nuevo concepto de agente generativo: Vision AI Agents, especializados en la comprensión de imágenes y/o vídeo. Además, presentaremos un caso real en el que abordaremos temas de seguridad, trazabilidad y orquestación de agentes, utilizando el nuevo servicio Azure AI Agent Service.

Como agente de visión, utilizaremos un fine-tuning de un VLM realizado en Azure Machine Learning, el cual ha sido desplegado en Azure Container Apps (GPU).

Super-Resolución con GAN's

En esta sesión haremos una breve introducción a la super-resolución. Veremos cómo podemos utilizar Generative Adversarial Networks para aumentar la resolución de las imágenes y recuperar los detalles de las mismas. Presentaremos el modelo SRGAN y haremos una demostración en directo del modelo.

Rocket your Machine Learning models to the edge with C#

In this talk we will see how to optimize the cascade execution of various Machine Learning models with ML Net using the latest Microsoft video analytics platform: "Project Rocket" https://github.com/microsoft/Microsoft-Rocket-Video-Analytics-Platform .

We'll see how to build our own Machine Learning pipeline to optimize its execution at the edge (in this particular case we will use the jetson nano).

To see the use of this Pipeline, several models (lightweight and heavy from Tensorflow and Darknet) have been used for pedestrian detection. In addition, these models will be able to recognize when certain pedestrians cross certain dangerous areas, sending all this information to the cloud.

Once the pipeline has been built, we will simulate the streaming video in real time to our edge device and send all the generated telemetry to the IoT Hub.

Revolucionando la Industria 3D mediante IA Generativa y Visión por Computación

La Inteligencia Artificial generativa ha captado la atención mundial con la aparición de LLM's, pero ¿sabías que sus aplicaciones van mucho más allá?

Durante esta sesión, haremos una breve introducción al uso de técnicas como NERF o Gaussian splatting con las que podemos renderizar escenas 3D a partir de fotografías o vídeos. Como ejemplo, usaremos un conjunto de fotografías del ámbito industrial. Demostraremos que con tan solo un conjunto de imágenes, podemos renderizar una escena 3D de alta calidad.

Debido a la necesidad de GPU para realizar el entrenamiento de nuestros modelos de renderizado, nos apoyaremos en Azure Machine Learning, donde mostraremos como se ha definido un pipeline basado en componentes que permite lanzar múltiples entrenamientos en paralelo y escalar según las necesidades que tengamos gracias al clúster de computación sobre el que se ejecuta.

Por último, veremos como podemos interactuar con esta escena 3D, aplicando modelos como SAM (Segment Anything) para segmentar y clusterizar y posteriormente exportar los distintos objetos que aparecen en la escena.

Mejora el mantenimiento de tus instalaciones con IoT, Inteligencia Artificial y Blockchain

En esta sesión, veremos una aplicación real que nos ayudará a predecir los posibles fallos que puedan ocurrir en tuberías hidráulicas. Para poder detectar dichos fallos, utilizaremos técnicas de Inteligencia Artificial, las cuales nos ayudarán a realizar un mantenimiento predictivo en nuestras instalaciones.

Para este escenario en concreto, utilizaremos Azure Databricks con Azure Machine Learning para cubrir todos los pasos del ciclo de trabajo de un proyecto de Machine Learning. En esta ocasión, entrenaremos una red neuronal convolucional 1D para detectar en un futuro posibles fallos en tuberías utilizando los datos recogidos por los sensores.

Además, mostraremos como desarrollar varios módulos con IoT edge. Uno de ellos, estará desarrollado en C# y será el encargado de enviar la telemetría de los sensores a IoT Hub y al módulo de inferencia. Este último módulo, estará desarrollado en Python y utilizará nuestro modelo TFLite (previamente optimizado) para predecir cuando va a ocurrir un fallo en una tubería hidráulica.

Por último, utilizaremos Blockchain para registrar cuando ocurrió un fallo y cuando es necesario llamar al personal cualificado para realizar la reparación. De esta manera, podemos conservar la trazabilidad de los distintos mantenimientos que fueron necesarios.

Live from Spain! - AI of Things: El panel de expertos

¿Conoces los principales beneficios del IoT y la Inteligencia Artificial? En esta sesión tendremos a tres grandes AI MVPs hablándonos sobre las herramientas disponibles para comenzar a trabajar con tecnologías Microsoft en el mundo de la inteligencia artificial: Azure Machine Learning, ML.net y cómo no, Microsoft Bot Framework y la integración con smart speakers como Alexa o Google Assistant.

Learning with Azure and Dall-e

El Deep Learning no deja de sorprendernos y es por eso que en esta sesión os proponemos ver los últimos avances y el estado del arte del Deep learning. Para ello, utilizaremos como pilar de la sesión uno de los últimos modelos publicados: “Dall-e”, el cual se basa en un modelo de "transformers", siendo capaz de generar imágenes a partir de descripciones de texto. Aquí os dejamos el link donde podeis saber mas del modelo que os estamos comentando: https://openai.com/blog/dall-e/

En esta sesión nos enfocaremos a explicar como se desarrollaría un pipeline de entrenamiento del modelo Dall-e para que aprenda sobre formas geométricas usando varios servicios de Azure. Lo mas importante de todo esto no es solo como se entrena Dalle, si no aprender al mismo tiempo a organizar nuestro proyecto y de como entrenar los modelos de Deep Learning mas actuales en Azure.

Para ello utilizaremos Databricks, sera el encargado de gestionar nuestro entrenamiento y validación del modelo, se comentaran el porque y curiosidades del uso de dicho servicio. Se registraran en Azure Machine Learning Service las métricas correspondientes para un modelo de este tipo y se explicaran dichas metricas por consiguiente para entender mejor el porque del modelo seleccionado. Finalmente, el modelo generado y evaluado y que haya pasado nuestros "checks" lo guardaremos en el registro de modelos de Azure Machine Learning Service.

Una vez que hayamos entrenado nuestro modelo y haya una versión estable en el registro de Azure Machine Learning, se motrara el componente final para darle uso a dicho modelo. Este ultimo sera un pequeño asistente virtual, haciendo uso de bot framework, el cual ayudará y se comportara como profesor hacia los alumnos para que puedan aprender sobre formas geométricas!

Learning with Azure and Dall-e

Deep Learning never ceases to amaze us and that is why in this session we propose to see the latest advances and the state of the art of Deep learning. To do this, we will use as the mainstay of the session one of the latest published models: "Dall-e", which is based on a "transformers" model, being able to generate images from text descriptions. Here we leave you the link where you can know more about the model that we are commenting on: https://openai.com/blog/dall-e/

In this session we will focus on explaining how a training pipeline of the Dall-e model would be developed so that you learn about geometric shapes using various Azure services. The most important of all this is not only how Dalle trains, but at the same time learning to organize our project and how to train the most current Deep Learning models in Azure.

For this, we will use Databricks, it will be in charge of managing our training and validation of the model, the reason and curiosities of the use of said service will be discussed. The corresponding metrics for a model of this type will be registered in Azure Machine Learning Service. The metrics will be explained accordingly to better understand the reason for the selected model. Finally, the model will be saved in the Azure Machine Learning Service model registry.

Once we have trained our model and there is a stable version in the Azure Machine Learning registry, We will be able to consume our model using a small virtual assistant, making use of the bot framework, which will help and behave as a teacher towards the students so that they can learn about geometric shapes!

Handoff: cuando los agentes se pasan el marrón

¿Te gustaría conocer cómo los agentes pueden comunicarse entre sí para alcanzar un objetivo común?

Si has oído términos como Magentic o Handoff y quieres entender qué significan realmente y cómo se aplican en sistemas reales, en esta charla te lo mostramos paso a paso.

Exploraremos cómo diseñar y orquestar sistemas multiagente capaces de coordinar agentes ejecutándose en local con Foundry Local, junto con agentes desplegados en AI Agent Services de AI Foundry, todo dentro de flujos bien definidos y escalables.

También veremos cómo incluir y coordinar agentes que expongan APIs compatibles con OpenAI, permitiendo integrar modelos y servicios heterogéneos dentro de un mismo sistema multiagente. A través de ejemplos prácticos, analizaremos patrones de orquestación, comunicación entre agentes y gestión de flujos, entendiendo cómo distribuir responsabilidades, compartir contexto y controlar la ejecución.

Utilizaremos Agent Framework de Microsoft como base para construir estos sistemas, apoyándonos además en una nueva herramienta visual para observar y loggear las interacciones entre agentes durante la ejecución.

Gemelos Digitales que ven

La creación de un gemelo digital suele requerir un gran esfuerzo: desde el modelado de los entornos 3D hasta la identificación y mapeo de cada objeto industrial. En esta charla veremos cómo un agente de visión por computador puede simplificar ese proceso, reconociendo automáticamente los objetos en el entorno y ayudando a mapearlos con los ya existentes en el gemelo digital. Usaremos DINOv3, uno de los modelos más potentes para extracción de características y detección zero-shot, aplicándolo sobre datos 3D generados a partir de nubes de puntos o Gaussian Splatting.

También mostraremos algunos de los proyectos en los que estamos trabajando, como Muvacas, que permitirá realizar experimentos con gran precisión para validar el diseño del futuro acelerador de partículas que se construirá en Granada.

Por último, construiremos paso a paso un agente de visión por computador utilizando Azure AI Foundry Agent Service, integrado con Azure Machine Learning, que automatizará el flujo completo de análisis, detección y mapeo 3D.

Enriching 3D point cloud data with Artificial Intelligence

3D point clouds provide us with detailed and precise information about any environment thanks to the use of LIDAR scanners. The use of artificial intelligence over point clouds allows us to create a digital twin.

In this session, we will introduce the point cloud concept and explain in detail the current state of the art of different artificial intelligence techniques to object detection and segmentation.

Point cloud datasets have a million points and are difficult to process. For this reason, the most efficient encoder for object detection will be used: CUDA-Point pillars. This model has a good performance to make inferences in IoT devices in real-time.

A real case about pipes detection (in industrial plants) will be shown. All the deep learning workflow will be explained step by step: from training (with Pytorch) to model optimization and quantization (with tensorRT). This demo will be run in an Nvidia Jetson nano.

Domina la generación de imágenes con modelos de difusión y Azure Machine Learning

¿Alguna vez te has preguntado cómo funciona un modelo de generación de imágenes?

En esta sesión, haremos una introducción a cómo funcionan los modelos de difusión y las diversas técnicas que existen para reentrenar estos modelos y lograr imágenes totalmente personalizadas.

A lo largo de la charla, explicaremos de forma sencilla distintas técnicas de fine-tuning, como Dreambooth, LoRA, Textual Inversion y Hypernetworks.

Finalmente, presentaremos un caso práctico desarrollado por nuestro equipo de Research, donde entrenaremos un modelo de FLUX utilizando un pipeline de Azure Machine Learning para que sea capaz de generar imágenes en 360 grados que podrán ser renderizadas en nuestro motor gráfico de Evergine.

Detección de síntomas de Parkinson con IoT & AI

A lo largo de esta sesión, veremos como crear un modelo de Machine Learning desde cero para detectar posibles síntomas relacionados con la enfermedad de Parkinson. Para ello, utilizaremos Azure ML como herramienta principal para desarrollar todo nuestro ciclo de Machine Learning:

- Preprocesado
- Entrenamiento
- Testing
- Registro de versiones del modelo.

Se creará un pipeline de Azure Machine Learning para poder ejecutar y automatizar los pasos previamente mencionados.

Una vez que tenemos nuestro modelo entrenado, este se desplegará como módulo de IoT Edge. Este módulo será capaz de monitorizar la información de los sensores que tiene instalados el paciente y generar predicciones en tiempo real sobre la aparición de posibles síntomas de la enfermedad de Parkinson.

Debido a que este proceso necesita una continua monitorización del paciente, veremos como optimizar nuestro modelo para desplegarlo en una Jetson-Nano, la cual será la encarga de acceder a la información de los sensores y ejecutar el proceso de inferencia.

Del píxel al conocimiento: cómo la IA generativa está reinventando el OCR

En esta sesión, exploraremos las diferencias clave entre el OCR tradicional y el OCR basado en IA generativa, destacando que estos nuevos enfoques están basados en VLM (Vision-Language Models), lo que les permite no solo extraer texto, sino también comprender el contexto visual y semántico de documentos e imágenes.

Analizaremos cómo DeepSeek OCR está cambiando el paradigma del reconocimiento óptico de caracteres, junto con nuevos modelos avanzados como Mistral OCR 3, que combinan visión y lenguaje para ofrecer resultados mucho más precisos.

Además, mostraremos cómo integrar estos modelos dentro de un pipeline de Docling con el objetivo de indexar los documentos procesados en Azure Search.

Data anonymization using Cognitive Search and custom Deep Learning models

Society creates over 2.5 quintillion bytes of new data every day. This has brought new opportunities to create a positive impact on the world around us, especially in AI since it benefits from using large amounts of data. Using a combination of AI Knowledge Mining techniques, we are now able to provide solutions for any sector where we can deeply understand their data, explore it and uncover insights.
However, these benefits do not come without risk. Governments, corporations, and research institutes continue to gather a massive amount of data, that contains personal information. This information in the wrong hands could harm individuals. Thus, great efforts are being made to remove personally identifiable information from the data. Even in some cases, new legal requirements to anonymize data have emerged. Unfortunately, many attempts to anonymize data are vulnerable to reidentification tactics, especially when multiple data sources contain overlapping information.
This raises the following question: How can we provide a Knowledge Mining solution without compromising the data privacy problem? In our session, we will address this question.
We will present an end to end solution for a Multilanguage Cognitive Search using an Azure Search pipeline with NLP Deep Learning models. We will use a BERT Transformer model as a custom skill to integrate data anonymization seamlessly in the pipeline and thus overcome the challenge previously mentioned

Custom object detection models with NVIDIA and Azure Machine Learning

A lo largo de esta sesión práctica desarrollaremos un ejemplo de detección de objetos utilizando Azure Machine Learning. En primer lugar realizaremos una introducción a las distintas técnicas de Deep Learning existentes para detectar y localizar objetos en las imágenes. Posteriormente, implementaremos todos los pasos necesarios de un pipeline de Machine Learning para conseguir que nuestro modelo sea capaz de detectar distintas latas y bebidas:

- Etiquetado del dataset.
- Procesamiento.
- Entrenamiento del modelo.
- Model versioning.
- Despliegue.

Por último se desplegará nuestro modelo utilizando Tritón Server de NVIDIA.

Agentes de IA: ¿Verdad o mito?

En esta sesión exploraremos el fascinante mundo de los Agentes de Inteligencia Artificial. A través de ejemplos prácticos, aprenderemos a identificar qué es realmente un agente y qué no lo es. Cerraremos la sesión, viendo como podemos llevar nuestros agentes a producción utilizando Azure AI Agent service, un nuevo servicio de Azure que facilita la seguridad y la trazabilidad entre las distintas interacciones de nuestros agentes.

¿Es este el final de las redes neuronales convolucionales? Welcome Vision-transformers

Durante casi una década, las redes neuronales convolucionales han dominado la investigación en el campo de la visión por computación. Sin embargo, la aparición de nuevos métodos que aprovechan los Transformers para dar sentido a las imágenes está dando bastantes buenos resultados. Los Transformers se diseñaron inicialmente para tareas de procesamiento del lenguaje natural con un enfoque principal en la traducción automática neuronal. Las investigaciones recientes proponen nuevas arquitecturas llamadas “Vision-Transformers” para procesar imágenes usando Transformers. Durante esta sesión explicaremos los principales problemas que tienen las redes neuronales y como los Transformers pueden mitigarlos haciendo uso del concepto de “self-attention”. Además, mostraremos un ejemplo de segmentación de imágenes con vision transformers en un Azure Percept en el que podremos apreciar en tiempo real las ventajas de este tipo de arquitecturas.

¿Cómo pueden entender los Large Language Models escenas 3D?

La aparición de las distintas versiones de los modelos GPT ha hecho que el campo de la inteligencia artificial relacionado con el procesamiento de lenguaje natural esté en auge y estos modelos sean capaces de comprender y generar texto con mayor rendimiento que nunca.. pero ¿Son capaces de analizar escenas 3D ? En esta sesión veremos como podemos utilizar distintas técnicas de computer vision con LLM's para que estos comprendan y entiendas escenas 3D renderizadas con tecnologías como NERF o nubes de puntos. Además, podremos ver paso a paso como utilizar Semantic Kernel y Azure Machine Learning para orquestar todo nuestro proceso y entender las instrucciones que le proporcionemos.

Rodrigo Cabello

Principal AI Research Engineer at Plain Concepts and Microsoft MVP in Artificial Intelligence

Granada, Spain

Actions

Please note that Sessionize is not responsible for the accuracy or validity of the data provided by speakers. If you suspect this profile to be fake or spam, please let us know.

Jump to top