Fabien Brunet
Capgemini, Software Architect
Capgemini, Software Architect
Rennes, France
Actions
Frontend Architect and Full stack developer, passionate about new technologies, I have decided to move towards Java and Node applications development. I turn to service delivery as technical referent, focusing on java development technical expertise, human relationships and contacts.
Architecte Frontend et développeur Full‑Stack, passionné par les nouvelles technologies, j’ai choisi de m’orienter vers le développement d’applications Java et Node. Je me tourne vers des missions de prestation en tant que référent technique, en mettant l’accent sur l’expertise en développement Java ainsi que sur la qualité des relations humaines et des échanges.
Area of Expertise
Topics
AI, Frontend Fragmentation and Micro‑Frontends: How to Regain Clear ROI in a Scattered Ecosystem en fr
The arrival of AI in front-end workflows is reshaping our practices: component generation, automated documentation, assisted refactoring, intelligent testing, unified design tokens… But when teams work across different stacks (React, Vue, Angular, Web Components, Svelte…), how can we ensure that AI produces something usable, coherent, and maintainable?
This session explores:
• The current limitations of AI in a heterogeneous front-end landscape
• Biases and pitfalls when letting AI generate code without guardrails
• How to structure a multi‑framework environment to make AI genuinely useful
• Why micro‑frontends are becoming an ideal catalyst for leveraging AI
• How to measure concrete ROI: velocity, quality, debt reduction, team autonomy
• A real‑world case study on implementing an AI‑driven pipeline in a fragmented context
• Practical examples: isolated component generation, automated standardization, AI‑augmented CI/CD
The goal is to demonstrate that AI is not a gimmick but a value multiplier — provided it is integrated into an architecture that embraces technological diversity. And that is precisely what micro‑frontends enable.
Modern front-end development has never been more powerful — or more fragmented. With multiple frameworks, heterogeneous stacks, distributed teams, and ever‑faster delivery cycles, maintaining application coherence has become a daily challenge.
In this landscape, generative AI and micro‑frontends open a new path: automating, harmonizing, and accelerating interface production while improving maintainability and overall ROI.
This talk offers a concrete return of experience on integrating AI into a fragmented front-end environment, and shows how micro‑frontends become a strategic lever to take advantage of fragmentation rather than suffer from it.
IA, fragmentation micro‑frontends : comment retrouver un ROI clair dans un écosystème éclaté en fr
L’arrivée de l’IA dans les workflows front-end bouleverse nos pratiques : génération de composants, documentation automatisée, refactoring assisté, tests intelligents, design tokens unifiés… Mais lorsque les équipes travaillent sur des stacks différentes (React, Vue, Angular, Web Components, Svelte…), comment garantir que l’IA produit quelque chose d’exploitable, cohérent et maintenable ?
Cette session explore :
• Les limites actuelles de l’IA dans un front-end hétérogène
• Les biais et dérives possibles lorsqu’on laisse l’IA générer du code sans garde-fous
• Comment structurer un environnement multi‑framework pour rendre l’IA réellement utile
• Pourquoi les micro‑frontends deviennent un catalyseur idéal pour exploiter l’IA
• Comment mesurer un ROI concret : vélocité, qualité, réduction de dette, autonomie des équipes
• Un retour d’expérience sur la mise en place d’un pipeline IA‑driven dans un contexte fragmenté
• Des exemples concrets : génération de composants isolés, standardisation automatisée, intégration continue augmentée par l’IA
L’objectif : montrer que l’IA n’est pas un gadget, mais un multiplicateur de valeur à condition d’être intégrée dans une architecture qui accepte la diversité technologique — et c’est exactement ce que permettent les micro‑frontends.
Le front-end moderne n’a jamais été aussi puissant… ni aussi fragmenté. Entre frameworks multiples, stacks hétérogènes, équipes distribuées et rythmes de livraison toujours plus rapides, la cohérence applicative devient un défi quotidien.
Dans ce contexte, l’IA générative et les micro‑frontends ouvrent une nouvelle voie : automatiser, harmoniser et accélérer la production d’interfaces tout en améliorant la maintenabilité et le ROI global.
Cette conférence propose un retour d’expérience concret sur l’intégration de l’IA dans un environnement front-end fragmenté, et montre comment les micro‑frontends deviennent un levier stratégique pour tirer parti de cette fragmentation plutôt que de la subir.
From OCR to GenAI: Why Throwing Everything Into GenAI Is a Bad Good Idea en fr
• Put GenAI back into the long history of AI.
• Show that each technology has an optimal scope.
• Demonstrate that “doing everything with GenAI” is often:
GenAI fascinates, impresses, and sometimes steamrolls everything in its path. But do we really need a giant LLM burning gigawatts just to extract three lines of text from a PDF?
This talk retraces the evolution of AI technologies — from OCR to classical models, all the way to GenAI — to show how a reasoned, sustainable, and modular approach can reduce carbon footprint, costs, and even technical risks.
Spoiler: the “smartest” solution isn’t always the biggest one.
De l’OCR à la GenAI : pourquoi tout mettre dans la GenAI est une fausse bonne idée en fr
• Replacer la GenAI dans une histoire longue de l’IA.
• Montrer que chaque technologie a un périmètre optimal.
• Démontrer que “tout faire avec la GenAI” est souvent :
◦ plus cher,
◦ plus lent,
◦ plus énergivore,
◦ moins fiable.
• Proposer une méthode simple pour choisir le bon outil au bon moment.
• Sensibiliser à une vision durable de l’IA : sobriété, modularité, efficacité.
La GenAI fascine, impressionne, et parfois écrase tout sur son passage. Mais doit‑on vraiment tout résoudre avec un LLM géant qui consomme des gigawatts pour extraire trois lignes de texte d’un PDF ?
Ce talk retrace l’évolution des technologies d’IA — de l’OCR aux modèles classiques, jusqu’à la GenAI — pour montrer comment une approche raisonnée, durable et modulaire permet de réduire l’empreinte carbone, les coûts, et même les risques techniques.
Spoiler : la solution la plus “smart” n’est pas toujours la plus “grosse”.
Please note that Sessionize is not responsible for the accuracy or validity of the data provided by speakers. If you suspect this profile to be fake or spam, please let us know.
Jump to top