Thomas Tomow
Azure MVP - Cloud, IoT & AI / Co-Founder Xebia MS Germany (former Xpirit Germany)
Azure MVP - Cloud, IoT & AI / Co-Founder Xebia MS Germany (former Xpirit Germany)
Stockach, Germany
Actions
As a Microsoft MVP for Azure, Thomas Tomow actively contributes to the community and is passionate about modern cloud technologies. He hosts Azure Meetups in Konstanz and Stuttgart, Germany. He is the Chief Technology Officer (CTO) and Chief Operations Officer (COO) at Xebia MS Germany, where he leverages his expertise in Cloud Development, AI, and many other bleeding-edge technologies. Thomas practices karate to maintain balance in his free time and is always eager to share his knowledge and experience with like-minded individuals.
Als Microsoft MVP für Azure trägt Thomas Tomow aktiv zur Community bei und begeistert sich für moderne Cloud-Technologien. Er veranstaltet Azure Meetups in Konstanz und Stuttgart, Deutschland. Er ist Chief Technology Officer (CTO) und Chief Operations Officer (COO) bei Xebia Germany, wo er seine Expertise in den Bereichen Cloud-Entwicklung, KI und vielen anderen Spitzentechnologien einsetzt. Thomas trainiert Karate, um in seiner Freizeit einen Ausgleich zu schaffen, und ist immer bereit, sein Wissen und seine Erfahrung mit Gleichgesinnten zu teilen.
Links
Area of Expertise
Topics
Quickly prepare image data for an AI model yourself en de
This talk is aimed at developers who need to pre-process data for their "AI model training" without a lot of science work and lengthy data preparation. After the short time that has passed since the hype around AI, there are quite a few approaches and pre-trained models that can be used.
My talk will demonstrate a practical approach from the field of vision. The goal is to use the example of the development of an own object detection, which recognizes not only car, person etc., but special objects like garbage can or mother-in-law. The necessary data collection and processing of this is in the foreground. I will discuss simple ways to quickly process the gigabytes of image material in order to achieve quick results. With a few simple steps, the participants can generate their own AI models in their own projects and quickly become creative in building them out in their own ways.
At the end of the talk, a demo will show the way from raw data to a simple application that uses our trained model and recognizes different objects.
This talk is aimed at software developers who already have some experience with AI and not much with the subject area DataScientists.
My intention is to bring the topic of AI closer to developers, as I believe that in the near future AI will be increasingly dominated by software developers.
For my talk I need some space on a table, as I am setting up a small "IoT" hardware that is supposed to recognize things with a WebCam.
Bilddaten für eine KI schnell selbst aufbereiten en de
Dieser Talk richtet sich an Entwickler, die ohne viel Wissenschaftsarbeit und langwieriger Datenaufbereitung für ihr "KI-Model Training" Daten vorverarbeiten müssen. Denn nach der kurzen Zeit, die seit des Hypes um AI herum, vergangen ist, gibt es etliche Ansätze und vortrainierte Modelle, die man sich zu nutze machen kann.
Mein Talk wird eine praktische Herangehensweise aus dem Bereich Vision demonstrieren. Das Ziel ist es, am Beispiel der Entwicklung einer eigenen Object Detection, die nicht nur Auto, Person usw. erkennt, sondern spezielle Objekte wie Mülltonne oder Schwiegermutter. Die dabei notwendige Datensammlung und -aufbereitung Dieser steht hierbei im Vordergrund. Ich gehe dabei auf einfache Möglichkeiten ein, die Gigabytes an Bildmaterial zügig auf zu bereiten, um schnelle Erfolge zu erhalten. Mit wenigen einfachen Handgriffen können die Teilnehmer in ihren eigenen Projekten eigene KI-Modelle erzeugen und werden schnell kreativ, diese nach eigenen Wegen aus zu bauen.
Am Ende des Talks zeigt eine Demo den Weg von den Rohdaten zu einer simplen Anwendung, die unser trainiertes Modell verwendet und verschiedene Objekte erkennt.
Dieser Talk richtet sich an Software Entwickler, die schon etwas Erfahrung mit AI sammeln konnten und nicht viel mit dem Themengebiet DataScientists haben.
Meine Intention ist es, Entwicklern das Themenfeld AI nahe zu bringen, da ich glaube, dass in der nahen Zukunft KI verstärkt von SoftwareEntwicklern dominiert wird.
Für meinen Talk benötige ich etwas Platz auf einem Tisch, da ich eine kleine "IoT"-Hardware aufbaue, die mit einer WebCam Dinge erkennen soll.
Master Class: Architecting and Development of Custom Copilots en de
As a professional architect or software developer, you are challenged to develop new applications that utilize Large Labguage Models (LLM).
In this master class, we first explain how LLMs and GenAI work under the hood. We'll start with the basics and dive deep into topics such as token generation, vector similarity, embeddings, different model types, plugins, agents and much more. We will demonstrate how .NET developers and developers from other fields can create AI agents that run intelligent code in any application via numerous demos.
You will also learn about Microsoft's Semantic Kernel and how to build applications and powerful backends that integrate AI into the Azure platform.
This master class is designed for professional software architects and developers.
Technology, that is used: LLM from (Azure) OpenAI, Semantic Kernel, .NET
Big Brother is watching you - Local GenAI in applications en de
Maybe you're not comfortable using LLMs in the cloud, maybe your customers have a reason to avoid the services, or or or... There are many reasons why you don't use the LLMs of the major providers, but you don't have to do without GenAI capabilities in the application.
There are ways out, which Thomas Tomow would like to show you in his presentation and illustrates with code.
He will show you what you need, how to set up your environment and what you need to include in your code to build a GenAI-enhanced application.
By the end of the talk, you will know the key differences between the cloud LLMs and the local models. You will be able to build your own model zoo and use it with your C# applications.
Optimizing services with Azure ContainerApps and DAPR: A hands-on workshop en de
In this workshop, we explore how Azure ContainerApps, in conjunction with DAPR, can improve the development and management of services. We will introduce the challenges of distributed systems and show practical ways to overcome them.
Participants will learn about the benefits and uses of Azure ContainerApps and DAPR and understand the challenges of developing distributed services.
The workshop includes an introduction to DAPR and Azure ContainerApps, a discussion of challenges with distributed services, step-by-step building of a sample application, improving the service architecture with DAPR, and the necessary deployment process.
This topic is aimed at developers who want to deepen their knowledge of cloud development and gain practical experience in using modern tools and platforms.
For this workshop, people need to have an Azure subscription. They bring a laptop and have VSCode or Visual Studio installed.
With this knowledge they can also work in project with similar technologies.
Shrinking giants: Why large language models become less big en
In his talk, Thomas Tomow explores why the miniaturization of Large Language Models (LLMs) is so important in today's technological world. Thomas focuses on the significant benefits of smaller and more efficient models in various fields such as robotics, healthcare, and customer service.
He provides insights into the innovative methods that enable the downsizing of LLMs, including model compression and fine-tuning. These approaches allow models to remain powerful and flexible despite their reduced size while saving resources.
Thomas also sheds light on the challenges and opportunities associated with developing and using these more compact AI models. Not only the technical aspects but also ethical and practical considerations are taken into account, particularly with regard to the use of these technologies in sensitive areas.
Finally, Thomas Tomow looks at the future prospects of this technology. He discusses how ongoing research and innovation can help develop these models further to create effective and ethical solutions for various applications.
Companies, especially in audited fields, often lack free access to the cloud for several reasons. Generally, data residency and ownership are what are needed to have Large Language Models hosted on-premises. But OpenAIs ChatGPT or GEMINI aren't simply downloadable, so this is I am talking about: The possibility to do it nevertheless and have much more control over you own data in conjunction with the comfort of ChatGPT-Style.
First Arm, then Bicep, now Radius: Microsoft's approach to simple deployments en de
The evolution of cloud-native application development reaches a new dimension with Microsoft's Radius. In my talk, Radius will be presented as a forward-thinking platform that is primarily focused on the Microsoft ecosystem but also bridges to other cloud platforms such as AWS and GCP. This universal compatibility makes Radius a valuable resource for many cloud developers.
Radius integrates proven technologies such as Kubernetes, Terraform, and Bicep to create an efficient and flexible development environment that is not only relevant for Azure developers but also for users of other cloud services. Thomas' talk will focus on introducing the key features of Radius, especially the "Recipes" feature that automates the provisioning and configuration of infrastructure resources.
The demonstration of Radius during the talk will provide a practical insight into the applications and benefits of the platform, with a focus on simplifying and accelerating development processes. This demonstration will show how Radius helps developers to work more efficiently regardless of their preferred cloud platform.
Finally, Thomas will highlight the strategic importance of Radius in the landscape of cloud-native development and discuss how it extends the Microsoft ecosystem while providing a welcoming environment for developers from different cloud environments. Radius thus exemplifies a platform that promotes flexibility and openness in cloud development and bridges the boundaries between different cloud ecosystems.
Radius is a new "technology" comming from the Microsoft Incubation team their goal was to create a layer ontop of Azure deployments with bicep, to with a more abstract idea like "create a database and the application in Azure". This leverages the ease to change the details under the hood and enables also switching resources, while keeping the solution. That is currently new stuff.
Legacy App Modernization - How to start right? en de
In this talk, Thomas Tomow will focus on the increasingly important topic of legacy app modernization. He will discuss the challenges that businesses face in this process, such as selecting the right technology, deciding what to modernize, and developing a modernization strategy. But even when the plan is in place and the modernization process can begin, a crucial question often arises: how do we start?
Thomas will address this essential question in his talk and share practical tips and strategies from his own experience to untangle the "Gordian knot" and start the modernization process successfully. Using a real-world example, he will discuss the necessary collaboration models and project frameworks, as well as technological frameworks such as static code analysis and SBOMs, to ensure the success of the modernization. This talk is targeted at technical audiences and provides valuable tips and best practices for getting started with legacy app modernization.
The target audience, such as DevOps engineers, developers, or IT architects, are not so technical. This is not a guide for project managers. I am sharing my own experience, which is why I know the topic well. I have several years of experience as a speaker. With my YouTube channel, I am trying to improve my presentation skills.
Hello postman! AI on the edge detects you. en de
#IoT is a familiar topic, #AI is the new topic! Bringing the two together and you have amazing opportunities. The field of machine learning is gaining momentum and is now a lot easier to use for people like us - developers. It is important for me to take away the "fear" of AI topics and to show the new possibilities of Machine Learning for people, that are Non-Data scientists.
Based on my own story and a live demo, I guide the participant from the idea to the practical implementation in the field of AI (enabled through Azure). I will discuss technologies such as Cognitive Services, Container as well as IoT Edge and explain the technical procedure. At the end of my presentation, the participants will understand the potentials as well as the challenges and will get the first entry points for their own scenarios.
Top 3 Highlights of Attending:
- See building a Custom Vision Model in Azure and running it on the device
- Watch live, how to detecting a post car in the room, by a device, consuming, what we build in Azure
- It's a real-life story, so the audience gets pure experiences
MLOps - was Data Scientists von den Entwicklern lernen können de en
Wo DevOps die Zusammenarbeit zwischen Entwicklern und IT Pros versucht zu verbessern, müssen nun auch die Data Scientists mit den Developer und IT-Pros ihren Weg finden. Dabei lässt sich das Konzept des DevOps auch sehr gut auf das Thema AI erweitern - MLOps (DataScience Ops).
Dieser Talk geht auf die Arbeitsweise der Data Scientists ein und zeigt, wie sie mit den Developer und den IT-Pros zusammen arbeiten können. Dabei werden unter anderem folgende Fragen beantwortet:
- Welcher Flow wird mit MLOps abgebildet?
- Wo lege ich Trainings Code ab?
- Wie kann ich meine Modelle verwalten (Versionierung / History)?
- Wie funktioniert das Monitoring?
- Kann ich auch automatisieren - wie bekomme ich das in Produktion?
Durch einen exemplarischen Flow gehe ich auf die Antworten ein und demonstriere, welche Tools, wie Git, Azure ML Service und GitHub die Umsetzung ermöglichen.
Am Ende der Session verstehen die Teilnehmer warum MLOps wichtig ist und wie die Tools richtig eingesetzt werden können, um einen reibungslosen Ablauf zu unterstützen.
Ich bin auch im Beruf häufig mit diesem Thema unterwegs und sehe eine stetige Notwendigkeit, über dieses Thema zu sprechen. In den Unternemen sehe ich häufig ein hohes Interesse, MLOps ein zuführen und die entsprechenden Tools kennen zu lernen.
Die Erfahrungen aus der DevOps Journey und die Möglichkeiten im Bereich AI sollten die DataScientists aber auch die Software Entwickler im AI Umfeld nutzen. Ich glaube hier für jeden etwas anbieten zu können.
MLOps - what data scientists can learn from DevOps de en
Where DevOps tries to improve the collaboration between developers and IT pros, the Data Scientists now also have to find their way with the developers and IT pros. In doing so, the concept of DevOps can also be extended very well to the topic of AI - MLOps (DataScience Ops).
This talk will look at how Data Scientists work and how they can collaborate with Developers and IT Pros. Questions answered include:
- What flow is mapped with MLOps?
- Where do I store training code?
- How can I manage my models (versioning/history)?
- How does monitoring work?
- Can I also automate - how do I get that into production?
Through an exemplary flow, I'll address the answers and demonstrate which tools, such as Git, Azure ML Service and GitHub enable implementation.
By the end of the session, attendees will understand why MLOps is important and how to use the tools properly to support a smooth flow.
I am also frequently on the road with this topic in my job and see a constant need to talk about this topic. In companies, I often see a high level of interest in introducing MLOps and getting to know the corresponding tools.
The experiences from the DevOps Journey and the possibilities in the field of AI should be used by the DataScientists but also by the software developers in the AI environment. I believe I can offer something for everyone here.
AI on the Edge - Making IoT device smart en de
#IoT ist ein bekanntes Thema, #AI ist das neue Thema! Nur leider verbinden viele noch AI mit BigData und Wissenschaft. Aber, der Bereich Machine Learning bekommt Fahrtwind und ist nun auch für Menschen wie uns – Entwickler, Architekten, POs und so weiter, immer einfacher nutzbar. In
Verbindung mit IoT werden somit wieder neue Ansätze möglich.
Mir ist es wichtig, die „Angst“ vor KI-Themen zu nehmen und die neuen Möglichkeiten von Machine Learning auf zu zeigen. An Hand einer Story und einer Live-Demo führe ich den Teilnehmer von der Idee bis zur praktischen Umsetzung in ML „on the Edge“. Ich gehe auf Technologien wie Cognitive Services, Container sowie IoT Edge ein und erläutere das technische Vorgehen.
Am Ende meines Vortrages verstehen die Teilnehmer die Potentiale sowie die Herausforderungen und bekommen die ersten Einstiegspunkte für eigene Szenarien mit an die Hand. Der Teilnehmer benötigt keine tiefgreifenden Programmierkenntnisse, er sollte allerdings einige Kenntnisse zu Azure
mitbringen.
Ringbased Gated Releases - Mit GitHub Actions sichere und automatisierte Deployments de en
Haben Sie sich schon einmal gefragt, warum viele Deployments immer noch manuell freigegeben werden, obwohl sie oft nur wenige Informationen enthalten und kaum als wirkliche Absicherung dienen? Wenn Sie ringbasierte Deployments verwenden, ist es umso wichtiger, den Automatisierungsgrad zu erhöhen und nicht auf manuelle Freigaben zu vertrauen. Hier kommen vergatterte "gated" Releases ins Spiel.
Gated Releases ermöglichen es, verschiedene Signale zu prüfen, bevor die Anwendung in die nächste Umgebung übertragen wird. Dazu zählen beispielsweise Systemzustände wie Prozessor, RAM und I/O, unbehandelte Ausnahmen in Logfiles oder beendete Prozesse. Mit gated Releases haben Sie die Möglichkeit, den Release-Prozess vollständig zu automatisieren und sich so auf das nächste Level von Continuous Deployment zu bringen.
In diesem praxisorientierten Vortrag zeigt Thomas, wie Sie mit GitHub Actions und der GitHub API komplett automatisierte Gated Releases für ringbasierte Deployments umsetzen können. Dieser Vortrag richtet sich an DevOps-Engineers und Entwickler, die ihre Release-Pipelines verbessern und optimieren wollen.
Meine Session kann von 45min bis 60min Inhalt liefern. Sie richtet sich an Entwickler wie auch an "DevOps Engineers" o.Ä.
Da ich hier eine Demo mit Hardware als ShowCase einbauen möchte (Kann , kein Muss) benötige ich etwas Platz [etwa A3-Fläche]. Da Github mittlerweile eine sehr wichtige Platform zur Entwicklung ist, und Gated-Releases noch nicht OutOfTheBox in GitHub vorhanden, wird dies eine sehr wertvolle Session für die Teilnehmer - besonders für die aus dem Enterprise-Sektor.
Kubernetes für Jedermann - Mit Azure Container Apps schneller ans Ziel de en
Bei der Arbeit mit Docker Container stößt man meist oft auf das Thema Kubernetes. Leider ist es nicht gerade dafür bekannt mal eben schnell „installiert“ und administriert zu sein. Es gibt unterschiedlichen Netzwerk-Terminologien zu kennen, Security-Mechanismen zu etablieren, diverse Ressourcen, wie Compute, Storage usw. bereit zu halten und vieles mehr. Für Entwickler und IT Pros ohne entsprechendes Wissen und Erfahrung, also ein große Herausforderung in Zeit und Nerven, eigene Container Applikationen zu betreiben.
Mit Azure Container Apps stellt Microsoft einen weiteren Service zum Verwalten von Container zur Verfügung. Dieser ermöglicht eine Hosting Infrastruktur mit Konzepten aus der Kuberneteswelt, jedoch mit nahezu keinem notwendigem Experten Wissen. Dabei braucht man nicht auf KEDA Scaler verzichten, kann komfortabel App-Environments definieren und mit Dapr entkoppelte Services Architekturen ganz bequem aufbauen.
„So, What is in for me?“ Thomas Tomow stellt Azure Container Apps vor und erläutert, für wen Dieser Service geeignet ist und was mit dem Diesem bewerkstelligt werden kann. Auch über dessen Limitierungen spricht er an und geht auf Lifecycle sowie Deployments ein. Natürlich dürfen Kosten- und Alternativen-Vergleiche nicht außer Acht gelassen werden.
Um das „Warum“ noch besser zu unterstreichen, wird Thomas die Stärken in einer Demonstration auf zeigen. Damit kann der Teilnehmer am Ende der Session diesen Service genau einordnen und versteht dessen besonderen Nutzen und seine Grenzen, so dass er Diesen auch selbst nutzen kann.
Dieser Talk richtet sich an Entwickler und IT Pro, die sich weniger um die Einrichtung von Grundlagen, wie Kubernetes Cluster kümmern möchten, sondern eher ihre Lösungen an den Start bekommen wollen. Auch geht es um das Reduzieren von Overhead in der Infrastruktur. Teilnehmer können hiermit für sich besser abschätzen, welchen Weg sie für ihre Deployments von Docker Images nehmen können. Da die Welt zunehmend Docker spricht, ist dieser Talk durchaus interessant für Neulinge, aber auch Alteingesessene, die nach neuen Wegen suchen.
Ringbased Gated Releases - reliable and automated Deployments with Github Actions de en
Have you ever wondered why many deployments are still manually released, even though they often contain only a few pieces of information and serve little as a real safeguard? If you are using ring-based deployments, it is even more important to increase the level of automation and not rely on manual releases. This is where gated releases come in.
Gated releases allow you to check various signals before transferring the application to the next environment. This includes system states such as processor, RAM, and I/O, unhandled exceptions in log files, or completed processes. With gated releases, you have the opportunity to fully automate the release process and take your continuous deployment to the next level.
In this practical lecture, Thomas shows you how to implement fully automated gated releases for ring-based deployments using GitHub Actions and the GitHub API. This lecture is aimed at DevOps engineers and developers who want to improve and optimize their release pipelines.
My session can deliver from 45min to 60min of content. It is aimed at developers as well as "DevOps Engineers" or similar.
Since I want to include a demo with hardware as a showcase (can, not must) I need some space [about A3 area]. Since Github is now a very important platform for development, and gated releases are not yet available OutOfTheBox in GitHub, this will be a very valuable session for the participants - especially those from the enterprise sector.
Optimierung von Services mit Azure ContainerApps und DAPR: Ein praxisorientierter Workshop en de
In diesem Workshop erkunden wir, wie Azure ContainerApps in Verbindung mit DAPR die Entwicklung und das Management von Services verbessern können. Wir stellen die Herausforderungen verteilter Systeme vor und zeigen praktische Wege zu deren Bewältigung.
Die Teilnehmer lernen die Vorteile und Einsatzmöglichkeiten von Azure ContainerApps und DAPR kennen und verstehen die Herausforderungen bei der Entwicklung verteilter Services.
Der Workshop umfasst eine Einführung in DAPR zusammen mit Azure ContainerApps, die Erörterung von Herausforderungen bei verteilten Services, den schrittweisen Aufbau einer Beispielanwendung, die Verbesserung der Service-Architektur mit DAPR und den notwendigen Deployment-Prozess.
Dieses Thema richtet sich an Entwickler, die ihre Kenntnisse in der Cloud-Entwicklung vertiefen und praktische Erfahrungen im Umgang mit modernen Tools und Plattformen sammeln möchten.
Erst Arm, dann Biceps jetzt Radius: Microsofts Ansatz einfacher Deployments en de
Die Evolution der Cloud-Native Anwendungsentwicklung erreicht mit Microsofts Radius eine neue Dimension. In meinem Vortrag wird Radius als zukunftsweisende Plattform vorgestellt, die primär auf das Microsoft-Ökosystem ausgerichtet ist, aber gleichzeitig eine Brücke zu anderen Cloud-Plattformen wie AWS und GCP schlägt. Diese universelle Kompatibilität macht Radius zu einer wertvollen Ressource für ein breites Spektrum von Cloud-Entwicklern.
Radius integriert bewährte Technologien wie Kubernetes, Terraform und Bicep, um eine effiziente und flexible Entwicklungsumgebung zu schaffen, die nicht nur für Azure-Entwickler, sondern auch für Anwender anderer Cloud-Dienste von Bedeutung ist. Der Schwerpunkt meines Vortrags liegt auf der Vorstellung der Schlüsselfunktionen von Radius, insbesondere der „Recipes“-Funktion, die die Bereitstellung und Konfiguration von Infrastrukturressourcen automatisiert.
Die Demonstration von Radius während des Vortrags wird einen praktischen Einblick in die Anwendungsbereiche und Vorteile der Plattform geben, wobei der Schwerpunkt auf der Vereinfachung und Beschleunigung von Entwicklungsprozessen liegt. Diese Demonstration wird zeigen, wie Radius Entwicklern hilft, unabhängig von ihrer bevorzugten Cloud-Plattform effizienter zu arbeiten.
Abschließend werde ich die strategische Bedeutung von Radius in der Landschaft der Cloud-Native Entwicklung hervorheben und diskutieren, wie es das Microsoft-Ökosystem erweitert und gleichzeitig eine einladende Umgebung für Entwickler aus verschiedenen Cloud-Umgebungen bietet. Radius steht somit exemplarisch für eine Plattform, die Flexibilität und Offenheit in der Cloud-Entwicklung fördert und die Grenzen zwischen verschiedenen Cloud-Ökosystemen überbrückt.
Revolutionizing DevOps: Harnessing AI for unprecedented efficiency en de
Artificial Intelligence (AI) is reshaping industries worldwide, and its profound influence extends to DevOps practices. In this enlightening conference talk, join Thomas as he delves into the extensive possibilities of enhancing DevOps processes through data and AI integration. From optimizing code development (DevEx) and streamlining pipelines to enhancing production environments with AI-driven monitoring, anomaly detection, and self-healing systems, they will illustrate the remarkable synergy between AI bots and ChatOps. Discover how these AI-driven solutions can efficiently resolve incidents and assign the most qualified engineers to ongoing tasks, ushering in a new era of DevOps efficiency and effectiveness.
Already presented a short version as a Keynote at DevOpsCon Berlin - English/ for longer sessions, I have more Demo and technology - go more deep into several aspects
Revolutionierung von DevOps: Nutzung von KI für eine noch nie dagewesene Effizienz en de
Künstliche Intelligenz (KI) verändert Branchen weltweit, und ihr tiefgreifender Einfluss erstreckt sich auch auf DevOps-Praktiken. In diesem aufschlussreichen Konferenzvortrag geht Thomas auf die umfangreichen Möglichkeiten zur Verbesserung von DevOps-Prozessen durch Daten- und KI-Integration ein. Von der Optimierung der Codeentwicklung (DevEx) und der Rationalisierung von Pipelines bis hin zur Verbesserung von Produktionsumgebungen mit KI-gesteuertem Monitoring, Anomalieerkennung und selbstheilenden Systemen werden sie die bemerkenswerte Synergie zwischen KI-Bots und ChatOps veranschaulichen. Entdecken Sie, wie diese KI-gesteuerten Lösungen Vorfälle effizient lösen und die qualifiziertesten Techniker den laufenden Aufgaben zuweisen können und damit eine neue Ära der DevOps-Effizienz und -Effektivität einläuten.
Wurde schon als Keynote Talk auf der DevOps Con Berlin gehalten (in Englisch). Für längere Sessions gibt es mehr Technik und Demos zu sehen.
RAG-nificent: Setting a New Standard in Intelligent Information Retrieval en de
In my presentation on Retrieval Augmented Generation (RAG), I will give a comprehensive overview of this key technology in the modern search landscape. RAG combines retrieval and generation models to deliver more accurate and contextualized search results. I'll explain the technical foundations, including vector representation, indexing, vector databases, and integration with large language models (LLMs).
I'll highlight recent advances in RAG-based search systems, such as intent detection, routing, and hallucination prevention. Using personal experiences, I'll show how RAG is used in different industries to optimize search processes and improve user experiences. I'll also discuss current challenges in implementing RAG systems and present innovative solutions.
Finally, I'll look at the future of RAG in search and potential developments that could revolutionize how we find and process information.
This is a brand new presentation. I am incorporating some of my own experience that I have gained in customer projects.
RAG-tastisch: Der neue Standard in der intelligenten Informationssuche en de
In meinem Vortrag über Retrieval Augmented Generation (RAG) möchte ich einen umfassenden Überblick über diese Schlüsseltechnologie in der modernen Suchlandschaft geben. RAG kombiniert die Stärken von Abruf- und Generierungsmodellen, um präzisere und kontextbezogenere Suchergebnisse zu liefern. Dabei werde ich die technischen Grundlagen erläutern, einschließlich der Vektordarstellung und -indizierung, dem Einsatz von Vektordatenbanken sowie der Integration mit großen Sprachmodellen (LLMs).
Ich werde die neuesten Fortschritte in RAG-basierten Suchsystemen beleuchten, insbesondere in Bereichen wie Intent-Detection zur Verbesserung der Suchanfrageninterpretation, Routing zur Optimierung der Informationsweiterleitung und Halluzinationsprävention zur Vermeidung von Fehlinformationen. Anhand konkreter Beispiele und persönlicher Erfahrungen zeige ich, wie RAG in verschiedenen Branchen eingesetzt wird, um Suchprozesse zu optimieren und Benutzererfahrungen zu verbessern.
Darüber hinaus werde ich aktuelle Herausforderungen bei der Implementierung von RAG-Systemen diskutieren und innovative Lösungsansätze präsentieren, die von führenden Unternehmen und Forschern entwickelt wurden. Abschließend blicke ich auf die Zukunft von RAG in der Suche und erörtere potenzielle Entwicklungen, die die Art und Weise, wie wir Informationen finden und verarbeiten, revolutionieren könnten.
Dieser Vortrag richtet sich an Entwickler, Data Scientists und IT-Entscheider, die ihr Verständnis von RAG vertiefen und dessen Potenzial für fortschrittliche Suchsysteme erkunden möchten. Die Teilnehmer werden mit praktischen Einblicken und umsetzbaren Strategien für die Integration von RAG in ihre eigenen Projekte ausgestattet.
Dies ist ein brandneuer Vortrag. Ich lasse hier einiges meiner eigene Erfahrung hinein fließen, die ich in Kundenprojekten gewonnen habe.
Legacy App Modernization - Wie fange ich es an en de
In diesem Vortrag wird Thomas Tomow sich auf das Thema der Modernisierung alter Applikationen konzentrieren, das für viele Unternehmen von zentraler Bedeutung ist. Er wird auf die Herausforderungen eingehen, die Unternehmen bei diesem Prozess bewältigen müssen, wie die Auswahl der geeigneten Technologie, die Entscheidung, was modernisiert werden soll, und die Modernisierungsstrategie ansich. Doch selbst wenn der Plan steht und der Modernisierungsprozess beginnen kann, stellt sich oft die Frage: Wie fangen wir an?
Thomas wird in seinem Vortrag auf diese wichtige Frage eingehen und praktische Tipps und Strategien aus seiner eigenen Erfahrung teilen, um den "Gordischen Knoten" zu lösen und den Modernisierungsprozess erfolgreich zu starten. Anhand eines Beispiels aus der realen Welt, wird er neben notwendige Zusammenarbeitsmodi und Projektrahmen auch auf die technologischen Rahmen wie statische Codeanalyse und SBOMs eingehen, um den Modernisierungserfolg zu gewährleisten. Dieser Vortrag richtet sich an technisch versierte Zuhörer und bietet wertvolle Tipps und Best Practices für den Einstieg in die Modernisierung alter Applikationen.
Das Zielpublikum ist technisch wie DevOps Engineers, Entwickler oder IT-Architekten. Es ist keine Anleitung für Projektleiter. Ich berichte aus meiner Erfahrung, weshalb ich das Thema genau kennen. Ich habe bereits mehrjährige Speaker-Erfahrung. Mit meinem Youtube Kanal versuche ich weitere Präsentationstechniken.
The actor model and Azure Container App Services: Leveraging Orleans to build distributed systems wi en de
In this talk, we will explore the use of actors in Azure Container App Services to maintain state within distributed systems, while also leveraging the developer-friendly serverless approach. Actors are a programming model that enables developers to build highly concurrent, scalable, and reliable applications using the actor pattern. In the context of Azure Container App Services, actors allow developers to build stateful, microservices-based applications that can be deployed and managed in containers, with the added benefit of a serverless approach that abstracts away infrastructure management and scaling, making it easy for developers to focus on writing their code. One framework that makes it easy to implement actors in Azure Container App Services is Orleans. Orleans is a cross-platform, open-source framework that simplifies the development of distributed systems using the actor model.
Throughout the talk, Thomas will be demonstrating the concepts through a live practical demo, which will help to get a better understanding of the topic and see the concepts in action. He will discuss the benefits of using Orleans and actors in Azure Container App Services, including improved performance, scalability, and reliability, while also leveraging the developer-friendly serverless approach, as well as provide guidance on how to get started with Orleans and actors in Azure Container App Services. This talk will be of interest to developers and architects who are looking to build stateful, scalable, and reliable applications in the cloud.
That is a brand new talk, that show the power of being serverless with state. This talk will be interesting for devs and architects, because the talks topic will enable them to build solutions instead of managing infrastructure.
I require internet connection and perhaps an additional space for placing an IoT device, if possible.
Actor model und Azure Container Apps: Stateful mit Orleans zum einfachen Aufbau verteilter System en de
In diesem Vortrag untersuchen wir die Verwendung von Actors in Azure Container Apps, und damit, wie man innerhalb von verteilten Systemen Zustände erhalten kann, ohne den entwicklerfreundlichen Serverless-Ansatz zu verlieren.
Actors ist ein Programmiermodell, das Entwicklern ermöglicht, skalierbare und zuverlässige Anwendungen mithilfe des Actorpatterns zu erstellen. Im Kontext von Azure Container Apps ermöglichen Actors Entwicklern, zustandsbehaftete Anwendungen/Services zu erstellen, die in Containern bereitgestellt und verwaltet werden können. Dabei nutzen wir den zusätzliche Vorteil eines Serverless-Ansatzes, um Infrastruktur sowie Skalierung weg zu abstrahieren, sodass Entwickler sich nur auf die Lösung konzentrieren müssen. Ein Framework, das es einfach macht, Actors in Azure Container Apps zu implementieren, ist Orleans. Es ist ein plattformübergreifendes, open-source Framework, das die Entwicklung von verteilten Systemen mithilfe des Actormodels vereinfacht.
Während des Vortrags werden wir die Konzepte durch eine praktische Demo besser kennenlernen. Dies wird den Teilnehmern helfen, das Thema besser zu verstehen und die Konzepte in Aktion zu sehen. Wir werden die Vorteile der Verwendung von Orleans und seinem Actors in Azure Container App Services einschließlich Skalierbarkeit und Zuverlässigkeit diskutieren. Zusammen mit dem Serverless-Ansatz wird Thomas Tomow zeigen, wie der Teilnehmer Orleans mit Azure Container Apps bereitstellt.
Dieser Vortrag ist für Entwickler und Architekten interessant, die stateful, skalierbare und zuverlässige Anwendungen in der Cloud erstellen möchten.
Dies ist ein brandneuer Vortrag. Er wird für Entwickler und Architekten interessant sein, da das Thema ihnen ermöglicht, Lösungen zu entwickeln, anstatt die Infrastruktur zu verwalten.
für die praktische Demo benötige ich Internet.
Kubernetes for Everyone - Get there faster with Azure Container Apps de en
When working with Docker containers, you often come across the topic of Kubernetes. Unfortunately, it is not exactly known for being quickly "installed" and administered. There are different network terminologies to know, security mechanisms to establish, various resources such as compute, storage, etc. to keep ready and much more. For developers and IT pros without the appropriate knowledge and experience, running their own container applications is a huge challenge in terms of time and nerves.
With Azure Container Apps, Microsoft provides another service for managing containers. This enables a hosting infrastructure with concepts from the Kubernetes world, but with almost no necessary expert knowledge. You don't have to do without KEDA Scaler, you can comfortably define app environments and build decoupled services architectures quite conveniently with Dapr.
"So, What is in for me?" Thomas Tomow introduces Azure Container Apps and explains for whom this service is suitable and what can be accomplished with this. He also talks about its limitations and goes into detail about lifecycles and deployments. Of course, cost and alternative comparisons must not be ignored.
To emphasize the "why" even more, Thomas will show the strengths in a demonstration. At the end of the session, the participant will be able to classify this service precisely and understand its particular benefits and its limitations so that he can use it himself.
This talk is aimed at developers and IT pros who are less concerned with setting up basics, like Kubernetes clusters, and more concerned with getting their solutions up and running. It is also about reducing overhead in the infrastructure. Attendees can use this to better assess for themselves which path to take for their deployments of Docker images. As the world is increasingly talking Docker, this talk is definitely interesting for newcomers, but also old-timers looking for new ways.
Scaling AI Agents: Unlocking Cloud Potential with DAPR and Semantic Kernel en de
Scaling AI agents to meet high user demand is often seen as a daunting challenge. However, with the right tools and strategies, it can be more straightforward than you might think. In this talk, I offer a fresh perspective on scaling AI agents in the cloud, challenging traditional approaches and introducing innovative solutions.
This talk addresses common challenges in AI agent scaling, including resource management, latency issues, and integration complexities. We'll explore how DAPR's sidecar pattern mitigates these problems by abstracting away infrastructure concerns, while Semantic Kernel's modular approach simplifies AI integration and improves maintainability.
I will demonstrate how DAPR and Semantic Kernel can revolutionize your AI integration strategy. By showcasing code snippets and implementation techniques, you'll gain practical insights into overcoming scalability challenges and transforming your applications.
Key learning objectives include:
- Understanding architectural patterns for scalable AI agents
- Implementing efficient resource management strategies
- Leveraging DAPR and Semantic Kernel for seamless AI integration
Developing resilient and performant cloud-based AI solutions
By the end of this session, you'll have actionable strategies and hands-on knowledge to implement scalable AI agents, enhancing both performance and user experience. Gain the confidence to deploy cloud-based AI solutions effectively and unlock new potential for your applications.
This is a brand new presentation. I am incorporating some of my own experience that I have gained in customer projects.
Cloud-Potenzial entfesseln: DAPR und Semantic Kernel – Ihre KI-Agenten auf der Überholspur! en de
Die Skalierung von KI-Agenten zur Bewältigung einer hohen Nutzernachfrage wird oft als gewaltige Herausforderung angesehen. Mit den richtigen Tools und Strategien kann dies jedoch einfacher sein, als Sie vielleicht denken. In diesem Vortrag biete ich eine neue Perspektive auf die Skalierung von KI-Agenten in der Cloud, indem ich traditionelle Ansätze in Frage stelle und innovative Lösungen vorstelle.
Dieser Vortrag befasst sich mit allgemeinen Herausforderungen bei der Skalierung von KI-Agenten, einschließlich Ressourcenmanagement, Latenzproblemen und komplexen Integrationsproblemen. Wir werden untersuchen, wie das Sidecar-Pattern von DAPR diese Probleme durch Abstraktion von der Infrastruktur entschärft, während der modulare Ansatz von Semantic Kernel die KI-Integration vereinfacht und die Wartbarkeit verbessert.
Ich werde zeigen, wie DAPR und Semantic Kernel Ihre KI-Integrationsstrategie revolutionieren können. Anhand von Codesnippets und Implementierungstechniken erhalten Sie praktische Einblicke in die Überwindung von Skalierbarkeitsherausforderungen und die Umgestaltung Ihrer Anwendungen.
Zu den wichtigsten Lernzielen gehören:
- Verstehen von Architekturmustern für skalierbare KI-Agenten
- Implementierung effizienter Strategien zur Ressourcenverwaltung
- Nutzung von DAPR und Semantic Kernel für eine nahtlose KI-Integration
Entwicklung stabiler und leistungsfähiger Cloud-basierter KI-Lösungen
Am Ende dieser Session verfügen Sie über umsetzbare Strategien und praktisches Wissen zur Implementierung skalierbarer KI-Agenten, die sowohl die Leistung als auch die Benutzerfreundlichkeit verbessern.
Dies ist ein brandneuer Vortrag. Ich lasse hier einiges meiner eigene Erfahrung hinein fließen, die ich in Kundenprojekten gewonnen habe.
Robots 2.0: When artificial intelligence meets steel en de
The integration of artificial intelligence into robotics is leading to a new era of intelligent autonomous systems. This presentation will explore how advanced AI technologies, including vision-language models (VLMs) and object detection, are enhancing the capabilities of robots in various industries, such as manufacturing, healthcare, and logistics.
We will highlight key robotic developments, including examples like Figure, X1, and Optimus, discussing their advancements and limitations. A significant focus will be on the challenges of deploying AI on limited hardware, ensuring safety, and facilitating real-world interactions.
I will also showcase my own robot creation, explaining how VLMs and object detection are used to enhance understanding and interaction with the environment. Join us to discover how AI is reshaping the future of robotics and learn how to leverage these technologies to create smarter, more capable robotic systems.
This is a brand new talk. It deals in particular with a topic that will become important in the medium term. Increasingly, the field of robotics is becoming more interesting for developers of all backgrounds. The combination of abstracted hardware and modern dev topics will certainly arouse a lot of interest, but also uncover new potential for use. I focus more on devs than on hardware engineers.
Roboter 2.0: Wenn Künstliche Intelligenz auf Stahl trifft en de
Die Integration von künstlicher Intelligenz in die Robotik führt zu einer neuen Ära intelligenter autonomer Systeme. In diesem Vortrag wird untersucht, wie fortschrittliche KI-Technologien, einschließlich Vision-Language-Modelle (VLMs) und Objekterkennung, die Fähigkeiten von Robotern in verschiedenen Branchen wie der Fertigung, dem Gesundheitswesen und der Logistik verbessern.
Wir werden wichtige Roboterentwicklungen hervorheben, darunter Beispiele wie Figure, X1 und Optimus, und ihre Fortschritte und Grenzen erörtern. Ein wesentlicher Schwerpunkt wird auf den Herausforderungen liegen, die der Einsatz von KI auf begrenzter Hardware, die Gewährleistung der Sicherheit und die Erleichterung von Interaktionen in der realen Welt mit sich bringen.
Ich werde auch meine eigenes Roboterprojekt vorstellen und erläutern, wie VLMs und Objekterkennung eingesetzt werden, um das Verständnis und die Interaktion mit der Umgebung zu verbessern. Seien Sie dabei und erfahren Sie, wie KI die Zukunft der Robotik neu gestaltet und wie Sie diese Technologien nutzen können, um intelligentere und leistungsfähigere Robotersysteme zu entwickeln.
Dies ist ein brandneuer Talk. Er geht insbesondere auf ein Thema ein, das mittelfristig wichtig wird. Zunehmend wird das Gebiet der Robotik interessanter für Entwickler aller Herkunft. Die Vereinigung von abstrahierter Hardware und modernen Dev-Themen wird sicher sehr viel Interesse wecken, aber auch neue Potentiale der Nutzung aufdecken.
Master Class: Architecting and Development of Custom Copilots en de
Als professioneller Architekt oder Software Entwickler sind Sie gefordert, neue Anwendungen zu entwickeln, die Large Labguage Modelle (LLM) nutzen.
In dieser Master-Class erklären wir zuerst, wie LLMs und GenAI unter der Haube funktionieren. Wir beginnen mit den Grundlagen und tauchen tief ein in die Themen wie Token-Generierung, Vector-Similarity, Embeddings, verschiedene Modelltypen, Plugins, Agents und vieles mehr. Wir werden demonstrieren, wie .NET-Entwickler und Entwickler aus anderen Bereichen AI-Agents erstellen können, die intelligenten Code in jeder Anwendung über zahlreiche Demos ausführen.
Sie lernen auch über Microsofts Semantic Kernel und wie Sie Anwendungen und mächtige Backends erstellen können, die AI in die Azure-Plattform integrieren.
Diese Master-Class ist konzipiert für professionelle Softwarearchitekten und Entwickler.
Vorkommende Technologien: LLM from (Azure) OpenAI, Semantic Kernel, .NET
Master Class: Building a Retrieval Augmented Generation (RAG) Architecture with C# en de
Unlock the potential of Retrieval Augmented Generation (RAG) in this hands-on masterclass designed for developers, data scientists, and IT decision-makers. Dive deep into the integration of Kernel Memories and Semantic Kernel using C#, and transform your understanding of modern search technologies.
Begin with a foundational overview of Large Language Models (LLMs) and embedding models, exploring key concepts such as vectorization and vector databases. Gain insights into effective search strategies and the technical underpinnings of RAG, which combines retrieval and generation models for precise, context-aware search results.
Participants will engage in setting up a complete RAG architecture, learning through practical exercises and real-world examples. Discover how to enhance out-of-the-box solutions like Azure AI Search with Azure OpenAI Service to achieve more reliable search results. Learn to structure documents and data effectively, and understand why successful search involves more than just typing a query. Explore additional search strategies to maximize the capabilities of your search engines.
With experience spanning projects in legal, contracting, and first-level support search, I bring a wealth of practical knowledge to the table. Equip yourself with actionable strategies and practical insights to integrate RAG into your projects, enhancing search processes and user experiences. Join us for a transformative day of learning and innovation.
Master Class: Aufbau einer Retrieval Augmented Generation (RAG) Architektur mit C# en de
Erschließen Sie das Potenzial von Retrieval Augmented Generation (RAG) in dieser praxisorientierten Masterclass, die sich an Entwickler, Datenwissenschaftler und IT-Entscheider richtet. Tauchen Sie tief in die Integration von Kernel Memories und Semantic Kernel mit C# ein und erweitern Sie Ihr Verständnis für moderne Suchtechnologien.
Beginnen Sie mit einem grundlegenden Überblick über Large Language Models (LLMs) und Embedding-Modelle und erforschen Sie Schlüsselkonzepte wie Vektorisierung und Vektordatenbanken. Gewinnen Sie Einblicke in effektive Suchstrategien und die technischen Grundlagen von RAG, das Retrieval- und Generierungsmodelle für präzise, kontextbezogene Suchergebnisse kombiniert.
Die Teilnehmer werden sich mit dem Aufbau einer vollständigen RAG-Architektur befassen und anhand von praktischen Übungen und Beispielen aus der Praxis lernen. Sie erfahren, wie Sie Out-of-the-Box-Lösungen wie Azure AI Search mit Azure OpenAI Service erweitern können, um zuverlässigere Suchergebnisse zu erzielen. Lernen Sie, Dokumente und Daten effektiv zu strukturieren und verstehen Sie, warum zu einer erfolgreichen Suche mehr gehört als nur die Eingabe einer Suchanfrage. Erforschen Sie zusätzliche Suchstrategien, um die Fähigkeiten Ihrer Suchmaschinen zu maximieren.
Mit meiner Erfahrung aus Projekten in den Bereichen Recht, Vertragswesen und First-Level-Support bringe ich eine Fülle von praktischen Kenntnissen mit. Rüsten Sie sich mit umsetzbaren Strategien und praktischen Erkenntnissen aus, um RAG in Ihre Projekte zu integrieren und Suchprozesse und Benutzererfahrungen zu verbessern. Seien Sie dabei, wenn wir Ihnen einen Tag voller Lernen und Innovation bieten.
Big Brother is watching you - Lokales GenAI in Anwendungen en de
Vielleicht behagt es dir nicht, LLMs in der Cloud zu nutzen, vielleicht haben deine Kunden einen Grund die Services zu meiden, oder oder oder... Es gibt viele Gründe, warum du die LLMs der großen Anbieter nicht nutzt, dennoch musst du nicht auf GenAI-Fähigkeiten in der Anwendung verzichten.
Es gibt Auswege, die dir Thomas Tomow in seinem Vortrag gern zeigen möchte und veranschaulicht das mit Code.
Er zeigt, was du alles benötigst, wie du deine Umgebung einrichtest, und was du alles im Code mit einbinden musst, um eine GenAI-Enhanced Anwendung zubauen.
Em Ende des Vortrags, wirst du die wesentlichen Unterschiede zwischen den Cloud LLMs und den lokalen Modellen kennen. Du wirst deinen eigenen Modell-Zoo aufbauen und diesen mit deinen C# Anwendungen nutzen können.
.NET Developer Conference '24 Sessionize Event
Microsoft Student Community Tour 2023 Sessionize Event
Developer Week '23 Sessionize Event
NDC Oslo 2023 Sessionize Event
Developer Week '22 Sessionize Event
Global Azure Munich 2022 Sessionize Event
Azure Developer Community Day 2020 (virtual Edition) Sessionize Event
Developer Week '20 Sessionize Event
Cloud DeveloperDays 2020 Sessionize Event
Thomas Tomow
Azure MVP - Cloud, IoT & AI / Co-Founder Xebia MS Germany (former Xpirit Germany)
Stockach, Germany
Links
Actions
Please note that Sessionize is not responsible for the accuracy or validity of the data provided by speakers. If you suspect this profile to be fake or spam, please let us know.
Jump to top