Speaker

Francesco De Chirico

Francesco De Chirico

Cogito ergo ... SUM()!

Milan, Italy

Actions

Francesco De Chirico is a consultant, trainer and speaker specialized in modeling and developing complex Business Intelligence solutions with the Microsoft BI stack. He has been working with Analysis Services since 2001 and has a strong knowledge of the MDX, DAX and M languages. He focused on all the technologies of the Microsoft Data Platform especially on Fabric and Power BI. Founder and co-leader of the Power BI User Group Italy, active member of the Italian User Group of SQL Server since 2007, regular speaker at technical conferences and events, Francesco has been Microsoft Certified Trainer for many years and holds several Microsoft certifications including the prestigious SSAS Maestro for BI certification (2012) and the Microsoft Professional Program Data Science certification (2017). He is the project creator and co-developer of the Analysis Services Query Analyzer tool. Since February 2018 he has held the role of Data Analytics Team Leader in Altitudo.

Area of Expertise

  • Information & Communications Technology

Topics

  • Microsoft Data Platfom
  • Business Intelligence
  • Analysis Services
  • Power BI

DIY Embedded Power BI Custom Copilot

Copilot rappresenta sicuramente una delle più rilevanti novità in ambito Power BI ed è in grado di semplificare e accelerare la creazione di analisi e dashboard, generando suggerimenti e visualizzazioni in modo automatico e intuitivo. In questa sessione vedremo come, utilizzando gli Azure AI Services e Azure Open AI, sia possibile realizzare una versione “custom” del Copilot di Power BI in grado di fornire due specifiche ed interessanti funzionalità:
 cercare e visualizzare (se esiste), tra tutti i report pubblicati nel servizio di Power BI, un visual io un intero report, in grado di “rispondere” ad una domanda, sui propri dati, espressa in linguaggio naturale
 cercare, tra la documentazione disponibile, documenti, se presenti, che contengano informazioni su argomenti correlati ad una domanda, sui propri dati, espressa in linguaggio naturale
In aggiunta, mostreremo come, utilizzando una Power BI Embedded capacity e la modalità “embed for your customers” di Power BI, sia addirittura possibile fornire questa funzionalità a utenti esterni alla propria organizzazione (Clienti e/o Fornitori) e privi di licenza Power BI.

Power BI data changing reaction using Alerts, Metrics, Power Automate and ... Power BI beacon!

Disporre di report e dashboard per condividere dati certificati e costantemente aggiornati è, per qualsiasi organizzazione, una esigenza naturale per potere gestire al meglio il proprio business. Spesso però, la sovrabbondanza di dati può portare a perdere di vista le priorità ed a generare un “rumore di fondo” che rende difficile isolare i dati più importanti, quelli cioè che consentano di riassumere in una sintesi i fenomeni aziendali più strategici. Per questo motivo è importante individuare tali dati (key value) e, soprattutto, disporre di automatismi che aiutino ad intercettarne ed evidenziarne i cambiamenti tempestivamente, consentendo quindi di reagire adeguatamente nel più breve tempo possibile. Power BI dispone di due funzionalità (Alerts e Metrics) che possono essere d’aiuto in tal senso. In questa sessione vedremo come funzionano, discuteremo dei loro pro e contro valutandone i più tipici scenari di utilizzo e vedremo all’opera il magico Power BI beacon, un simpatico oggetto hardware che ci mostrerà come, mixando le potenzialità del cloud ed un po’ di fantasia, sia possibile implementare un sistema di “hardware alerting” divertente e funzionale.

Monitoring Full BI Stack

(Come tenere sotto controllo gli engine di Analysis Services e Power BI e l’utilizzo di modelli dati e report da parte dei Business Users)
Una volta portati in produzione, i nostri modelli dati non solo richiedono di garantirne la necessaria manutenzione, ma anche di monitorarne l’effettivo utilizzo da parte degli utenti business e l’andamento delle loro performance nel tempo. In questa sessione analizzeremo cosa ci serve e quali strumenti abbiamo a disposizione per ottenere questo risultato individuando le principali informazioni e metriche da raccogliere relativamente all’utilizzo ed alle performance delle nostre soluzioni di Business Intelligence. Vedremo come sia possibile implementare un efficace sistema di monitoring che permetta di sapere in ogni momento quanto, come e da chi vengano utilizzati i nostri modelli dati e la nostra reportistica e come stanno performando gli engine di Analysis Services e Power BI utilizzati. Infine, vedremo come ci si possa spingere oltre per monitorare l’uso dei singoli campi e delle singole misure del nostro modello dati o per individuare le attività più penalizzanti (query, report, processing o altro) per le performance dei nostri sistemi.

Il mio grosso grasso modello di Power BI

Le ottime prestazioni del motore di Power BI (VertiPaq), unite al suo elevato fattore di compressione dei dati, spesso rendono superflua l’attività di ottimizzazione dei modelli dati realizzati con Power BI desktop. In realtà questa è una buona prassi che dovrebbe sempre essere prevista nel ciclo di sviluppo dei nostri modelli indipendentemente dalla loro dimensione e complessità. In questa sessione, dopo una breve introduzione teorica sul funzionamento di VertiPaq e dei suoi algoritmi di compressione, ci concentreremo su alcune best practices da seguire per ottimizzare i nostri modelli e sugli strumenti a nostra disposizione per verificare l’effettivo livello di ottimizzazione degli stessi. Inoltre, vedremo come sia possibile raccogliere, tramite DMV, tutte le informazioni utili delle strutture dati dei nostri modelli utilizzando Power BI desktop, fino a realizzare una versione “Power BI” del famoso tool Vertipaq Analizer.

DIY: Self-Service BI Monitoring

Quando i nostri modelli dati arrivano in produzione non dobbiamo solo garantirne la necessaria manutenzione ma anche monitorarne l’effettivo utilizzo da parte degli utenti business e l’andamento delle loro performance nel tempo.
Chi usa i nostri modelli? Quando lo fa? Con quali strumenti? Quali sono i report più utilizzati? Esistono delle informazioni che non sono utilizzate? Quali sono i tempi di risposta delle analisi effettuate dai Business Users?
In questa sessione vedremo come sia possibile rispondere a queste e ad altre mille domande implementando un efficace sistema di monitoring su misura per le nostre esigenze che permetta di sapere in ogni momento quanto, come e da chi vengano utilizzati i nostri modelli dati e la nostra reportistica e come stanno performando gli engine di Analysis Services e Power BI.
Infine, vedremo come ci si possa spingere oltre per monitorare l’uso dei singoli campi e delle singole misure del nostro modello dati, per individuare le attività più penalizzanti (query, report, processing o altro) per le performance dei nostri sistemi e per verificare l’effettivo utilizzo di memoria dei nostri modelli dati.
Il tutto sfruttando alcuni servizi e tecnologie già in uso nelle nostre soluzioni e quindi in modalità zero o low-cost.

Come costruire un sistema “custom-made” per il monitoraggio dell’intera piattaforma di BI

Francesco De Chirico

Cogito ergo ... SUM()!

Milan, Italy

Actions

Please note that Sessionize is not responsible for the accuracy or validity of the data provided by speakers. If you suspect this profile to be fake or spam, please let us know.

Jump to top