Erik Esmaty
BI Team Lead at DYMATRIX GmbH
BI Team Lead bei DYMATRIX GmbH
Munich, Germany
Actions
Erik Esmaty (f.k.a. Monchen) currently manages the Munich office and Bucharest office of DYMATRIX and has worked with the Microsoft BI stack for over 20 years at different organizations in The Netherlands, Germany and the United States, responsible in the areas of information gathering to information delivery both with on-premise and Azure cloud solutions. Erik is an international speaker at conferences and workshops, Monster Keeper of the Bavarian chapter of Datamonster e.V. and organizer of the annual Microsoft Data Platform conference at Microsoft in Munich.
Erik Esmaty (ehemals Monchen) leitet derzeit die Standorte München und Bukarest von DYMATRIX und arbeitet seit über 20 Jahren mit dem Microsoft BI-Stack in verschiedenen Organisationen in den Niederlanden, Deutschland und den Vereinigten Staaten. Er ist verantwortlich für alle Bereiche von der Informationsbeschaffung bis zur Informationsbereitstellung - sowohl mit On-Premise- als auch mit Azure-Cloud-Lösungen. Erik ist internationaler Speaker auf Konferenzen und Workshops, Monster Keeper des bayerischen Chapter von Datamonster e.V. und Organisator der jährlichen Microsoft Data Platform Conference bei Microsoft in München.
Links
Orchestrate Like a Pro: Dynamic Pipelines in ADF en de
Think your data pipelines are smart? Think again! In this session, Azure Data Factory gets a serious upgrade. Participants will see how to orchestrate complex data loads using just a handful of pipelines and a single JSON file, making workflows more flexible, reusable, and easier to manage.
About 95% of the session is live demos, walking through real-world scenarios. Participants will learn how to use parameters and dynamic content to reduce the number of pipelines needed, how to make pipelines adapt to different sources and destinations automatically, and how to structure pipelines and JSON files for maximum reusability. Practical examples will show how to achieve faster, cleaner, and more maintainable operations.
Whether participants know the basics of ADF or just want to see magic in action, this session provides practical techniques and inspiration to transform the way pipelines are built and deployed. Attendees will leave with actionable insights they can immediately apply to their own workflows, making data loading smarter and surprisingly fun.
Smooth Deployments Ahead - CI/CD with Azure Data Factory and DevOps en de
Ready to take Azure Data Factory (ADF) pipelines to the next level? This session shows how to supercharge them with continuous integration and continuous deployment (CI/CD) in Azure DevOps. Participants will learn how to structure ADF repositories smartly and pick up practical strategies to manage and deploy pipelines without the usual headaches.
The session walks through building and releasing pipelines across dedicated Development and Production environments, ensuring workflows run smoothly and productivity gets a serious boost.
Note: the focus is on the operational side of CI/CD, not on building ADF pipelines from scratch. A basic knowledge of ADF is recommended. This session makes deployment simpler, faster, and gives data pipelines the DevOps treatment they deserve—turning a complex process into a practical, manageable, and surprisingly enjoyable experience.
Turbocharging Data Management: Mastering Performance with Massive Tables en
Navigating the complexities of extremely large SQL tables can be daunting, especially when performance issues arise. In this demo-driven session, we’ll dive into a compelling business case involving the processing of an astounding 60 million new data records per day on a relational on-premise SQL Server database.
We will kick off with an exploration of essential concepts such as partitions and indices. Whether you’re a seasoned user or new to these techniques, this segment will provide valuable insights and practical strategies for optimizing your database performance.
After that, witness the power of real-time data management in action. We’ll demonstrate how to efficiently archive millions of records without the downtime typically associated with delete operations. You'll see firsthand how to seamlessly move data across various storage locations instantly, enhancing your system’s agility and responsiveness.
Join us to learn how to unlock the full potential of your large data sets and transform your approach to data management!
Working Smarter: Streamlined automation and development en
In our professional lives, we often face repetitive tasks and time-consuming processes that distract us from what truly matters. In this session, I will demonstrate how tools like Elgato Stream Deck and Touch Portal can be used to implement simple automations that significantly enhance workflow efficiency—regardless of your specific field of work.
The session will include SQL-specific examples relevant to developers and solution architects, as well as general use cases like optimizing collaboration and productivity with tools such as Microsoft Teams. This session is for anyone looking to optimize their daily routines through smart automation solutions, whether in IT, management, or other areas.
Takeaways:
- Efficient automation for various work environments
- SQL-specific use cases to streamline the developer's daily tasks
- Flexible application of automation tools for general tasks like Microsoft Teams
This session is ideal for anyone seeking to enhance their workflow with creative automation solutions for their day-to-day tasks, with a special focus on SQL development.
While the featured tools are not free, this is NOT a commercial session. The focus is entirely on sharing experiences and practical tips to improve everyday work life.
Data on Tap: Streamlining Processing with Azure Service Bus and Functions en
In a world where data streams are constantly flowing, timely processing becomes crucial. This session explores the efficient handling of real-time data using Azure Service Bus and Azure Functions, with a strong emphasis on minimizing processing lag.
Through a mostly demo-based approach, I’ll showcase how to build a responsive data pipeline capable of ingesting, processing, and directing data into an SQL database with minimal delay. Using simulated sales data from Munich’s world-famous beer festival, you’ll experience firsthand the challenges and solutions in real-time data processing. From message handling in Azure Service Bus to using Azure Functions to manage incoming data, this session provides practical insights into creating a scalable and efficient workflow.
Ideal for developers and data engineers, you’ll leave with actionable techniques to streamline your own real-time data processing. Join us to unlock the full potential of real-time data in Azure!
Window Functions - The Superpowers of SQL en de
Imagine SQL as a superhero. Window functions are the clever sidekick that swoops in when queries get tricky. They let you compare data, calculate running totals, rank items, and uncover trends, without wrestling with complicated subqueries.
In this session, the sample database is Oktoberfest-themed, because what better way to explore data than with beer tents and crowds? Discover answers to questions like: Which beer tent draws the biggest crowd? How does beer consumption change over the evening? And which tent claims the top spot? With window functions, these insights become smooth and elegant, no messy queries required.
Step by step, participants will learn how to calculate cumulative sums, moving averages, and compare previous and following rows with ease. The examples are practical, directly applicable, and packed with Oktoberfest fun, without the hangover.
Whether someone is new to SQL or has years of experience, this session will make them wonder how they ever lived without window functions.
Partitioning in SQL Server - Do not Panic, It's Just Slices en de
Partitioning often sounds like a topic reserved for SQL wizards managing massive tables, but it does not have to be intimidating. In this session, participants will discover how partitioning can transform everyday SQL work, making queries faster, tables easier to manage, and even complex reporting tasks simpler.
The session starts from the basics: what a partition is, how to set it up, and why it matters. Hands-on examples show practical benefits that anyone using SQL Server can apply immediately, even without terabytes of data. By the end, participants will see partitioning not as an advanced trick, but as a powerful tool that makes SQL work smarter, not harder.
This session is perfect for those who have been avoiding partitioning, offering a clear, approachable, and surprisingly fun introduction that turns a seemingly complex topic into something useful and immediately applicable.
Window Functions - Die Superkräfte von SQL en de
Stell dir vor, SQL wäre ein Superheld. Window Functions wären dann der unscheinbare Sidekick, der im entscheidenden Moment alles rettet. Mit ihnen kannst du auf Knopfdruck Daten vergleichen, Summen berechnen, Ränge vergeben oder Trends sichtbar machen, ohne akrobatische Joins zu bauen.
Damit das Ganze nicht nur theoretisch bleibt, arbeiten wir mit einer Datenbank rund ums Oktoberfest – schließlich gibt es dort jede Menge spannende Daten: Welche Bierzelte haben die meisten Besucher, wie entwickelt sich der Bierkonsum im Laufe des Abends, und welches Zelt ist im Ranking ganz vorne? Mit Window Functions lassen sich solche Fragen elegant beantworten, ohne dass deine Abfragen wie eine Maß Bier überlaufen.
In dieser Session lernst du Schritt für Schritt, wie du Aufgaben wie kumulative Summen, gleitende Mittelwerte oder den Vergleich mit vorherigen und nachfolgenden Zeilen locker meistern kannst. Die Beispiele sind praxisnah, sofort einsetzbar und sorgen ganz nebenbei für ein bisschen Wiesn-Stimmung – ganz ohne Katergefahr. Egal ob du schon länger mit SQL arbeitest oder erst seit Kurzem: Nach dieser Session wirst du Window Functions nicht mehr missen wollen.
Partitionierung in SQL Server - Keine Panik, nur Scheiben en de
Partitionierung klingt oft wie ein Thema für SQL-Zauberer, die riesige Tabellen verwalten, muss aber keinesfalls einschüchternd sein. In dieser Session entdecken die Teilnehmer, wie Partitionierung den Alltag mit SQL verändern kann: Abfragen werden schneller, Tabellen lassen sich leichter verwalten und sogar komplexe Reporting-Aufgaben werden einfacher.
Die Session beginnt bei den Grundlagen: Was ist eine Partition, wie richtet man sie ein und warum ist sie wichtig? Praxisnahe Beispiele zeigen Vorteile, die jeder SQL-Server-Nutzer sofort anwenden kann, selbst ohne Terabytes an Daten. Am Ende werden die Teilnehmer Partitionierung nicht mehr als fortgeschrittenen Trick, sondern als mächtiges Werkzeug sehen, das SQL-Arbeit smarter, nicht härter macht.
Diese Session ist ideal für alle, die Partitionierung bisher gemieden haben, und bietet eine klare, zugängliche und überraschend unterhaltsame Einführung in ein scheinbar komplexes Thema, das sofort praktisch anwendbar ist.
Azure Data Factory Pipelines - Mit CI/CD stressfrei deployen en de
Bereit, Azure Data Factory (ADF)-Pipelines auf das nächste Level zu bringen? Diese Session zeigt, wie man sie mit Continuous Integration und Continuous Deployment (CI/CD) in Azure DevOps richtig aufpeppt. Die Teilnehmer lernen, wie man ADF-Repositories clever strukturiert und erhalten praktische Strategien, um Pipelines zu verwalten und bereitzustellen, ganz ohne die üblichen Kopfschmerzen.
Die Session führt Schritt für Schritt durch den Aufbau und die Bereitstellung von Pipelines in getrennten Entwicklungs- und Produktionsumgebungen, sodass Workflows reibungslos laufen und die Produktivität spürbar steigt.
Hinweis: Der Fokus liegt auf dem operativen Teil von CI/CD, nicht auf dem Erstellen von ADF-Pipelines von Grund auf. Grundkenntnisse in ADF werden empfohlen. Diese Session macht das Deployment einfacher, schneller und verleiht den Datenpipelines das DevOps-Treatment, das sie verdienen – ein komplexer Prozess wird praktisch, handhabbar und überraschend unterhaltsam.
Mastering JSON in SQL Server: From Complexity to Everyday Power en de
JSON in SQL Server often sounds complicated, but it is actually flexible, practical, and surprisingly fun once participants get hands-on. This topic is increasingly important because modern applications generate a lot of semi-structured data, and knowing how to handle it efficiently in SQL Server provides a major advantage in real-world projects.
The session guides participants step by step through storing JSON in SQL Server, querying it, and combining it with existing tables, without drowning in theory slides. Starting with the basics, participants will learn how to store JSON properly, access individual values or entire arrays, and join JSON data with relational tables to uncover real insights. Mini hands-on examples, such as analyzing log data or importing orders, make the concepts immediately tangible.
By the end of the session, participants will not only understand JSON, but also be able to use it to save time and make SQL queries more flexible, turning a seemingly complex topic into a practical, everyday tool.
JSON in SQL Server - Daten bauen wie mit LEGO en de
JSON in SQL Server klingt oft kompliziert, ist aber tatsächlich wie LEGO für Daten: flexibel, praktisch und überraschend spaßig, sobald man selbst Hand anlegt. Dieses Thema gewinnt zunehmend an Bedeutung, da moderne Anwendungen viele semi-strukturierte Daten erzeugen. Wer weiß, wie man diese effizient in SQL Server verarbeitet, hat einen klaren Vorteil in realen Projekten.
In dieser Session werden die Teilnehmer Schritt für Schritt angeleitet, wie man JSON in SQL Server speichert, abfragt und mit bestehenden Tabellen kombiniert, ohne sich in Theorie zu verlieren. Beginnend bei den Grundlagen lernen die Teilnehmer, wie man JSON korrekt speichert, auf einzelne Werte oder ganze Arrays zugreift und JSON-Daten mit relationalen Tabellen verbindet, um echte Insights zu gewinnen. Kleine praktische Beispiele, wie das Analysieren von Logdaten oder das Importieren von Bestellungen, machen die Konzepte sofort greifbar.
Am Ende der Session werden die Teilnehmer JSON nicht nur verstehen, sondern es auch nutzen können, um Zeit zu sparen und SQL-Abfragen flexibler zu gestalten. Ein scheinbar komplexes Thema wird so zu einem praktischen Werkzeug für den Alltag.
Wie ein Profi orchestrieren: Dynamische Pipelines in ADF en de
Denkst du, deine Datenpipelines sind schon clever? In dieser Session zeigt Azure Data Factory, wie viel mehr möglich ist. Mit nur wenigen Pipelines und einer einzigen JSON-Datei lernen die Teilnehmer, wie sich komplexe Datenladeprozesse deutlich flexibler, wiederverwendbarer und leichter zu verwalten gestalten lassen.
Fast die gesamte Session besteht aus Live-Demonstrationen, die durch praxisnahe Szenarien führen. Dabei erfahren die Teilnehmer, wie Parameter und dynamische Inhalte die Anzahl der benötigten Pipelines reduzieren, wie Pipelines automatisch an unterschiedliche Quellen und Ziele angepasst werden und wie sich Pipelines und JSON-Dateien optimal strukturieren lassen, um sie wiederverwendbar zu machen. Die Beispiele zeigen auf anschauliche Weise, wie sich Prozesse schneller, sauberer und einfacher warten lassen.
Ob mit Grundkenntnissen in Azure Data Factory oder als neugieriger Zuschauer: Die Teilnehmer erhalten praktische Tipps und Inspiration, um den Aufbau und die Bereitstellung von Pipelines zu optimieren. Am Ende gehen sie mit sofort umsetzbaren Erkenntnissen nach Hause, die das Datenladen effizienter, smarter und sogar überraschend unterhaltsam machen.
Erik Esmaty
BI Team Lead at DYMATRIX GmbH
Munich, Germany
Links
Actions
Please note that Sessionize is not responsible for the accuracy or validity of the data provided by speakers. If you suspect this profile to be fake or spam, please let us know.
Jump to top