<h2><strong>L'équipe</strong></h2><p>Tu rejoins une équipe Data de 6 personnes, à taille humaine et soudée :</p><ul><li><p>1 Head of Data, qui manage l'équipe en direct et avec qui tu travailleras au quotidien</p></li><li><p>2 Data Engineers (dont ce poste)</p></li><li><p>1 Analytics Engineer</p></li><li><p>2 Data Analysts</p></li></ul><p>Nous avons fait le choix d'une modern data platform maîtrisée, avec une forte culture du self-hosted et un attachement profond à la souveraineté de nos données. Chaque composant de notre stack a été choisi et intégré avec intention.</p><p>Tu arrives à un moment stimulant, avec plusieurs chantiers structurants en cours sur une stack moderne que tu contribueras à faire évoluer : refonte du système d'ingestion, optimisation des modèles dbt, amélioration de notre pipeline de détection de fraude.</p><h2><strong>Ton rôle</strong></h2><p>Tu prends en main un périmètre technique structurant avec de vraies responsabilités dès ton arrivée. En tant que Data Engineer, tu es au cœur de notre data platform : tu la fais tourner, tu la fais évoluer, et tu en es garant·e au quotidien.</p><p>Concrètement, tu arrives sur des chantiers concrets et à fort impact :</p><ul><li><p>La refonte de notre système d'ingestion de données (POC en cours)</p></li><li><p>L'amélioration de notre pipeline de détection de fraude</p></li><li><p>L'optimisation de nos modèles dbt et de nos datamarts Snowflake</p></li><li><p>La simplification du self-service BI pour nos équipes internes</p></li></ul><p>Tu collabores étroitement avec le reste de l'équipe Data, mais aussi avec les SRE, les développeurs Platform, les équipes SIC et les RevOps. Ceci te donne une vision transverse de l'entreprise et de ses enjeux data.</p><p>Chez nous, tu ne seras pas un·e simple exécutant·e : on te donnera l'autonomie et l'espace nécessaires pour comprendre les enjeux, proposer tes propres solutions et prendre des décisions techniques.</p><h2><strong>Tes missions</strong></h2><p>Tu rejoins une équipe Data passionnée et engagée où tu auras un impact direct sur la qualité et la fiabilité de notre plateforme. Concrètement, tu :</p><p><strong>Construis et fais évoluer notre Data Platform</strong> Tu es garant·e de sa robustesse au quotidien : tu mets en place des métriques d'observabilité, supervises les performances, investigues les alertes et optimises nos pipelines d'ingestion. Tu as une vraie latitude pour identifier des axes d'amélioration et les proposer à l'équipe, que ce soit sur l'architecture, les outils ou les processus.</p><p><strong>Accélères le travail des Analytics Engineers et Data Analysts</strong> Tu es leur partenaire technique de référence : tu les accompagnes dans la modélisation et la transformation des données, challenges leurs requêtes SQL, et contribues à faire évoluer leurs pratiques sur la plateforme. Ton impact se mesure directement dans leur efficacité et la qualité de leurs livrables.</p><p><strong>Développes des solutions concrètes </strong>Tu codes, automatises des workflows, connectes des API externes avec un souci constant de qualité, de testabilité et de lisibilité. Tu utilises l'IA générative (Claude Code, Copilot) comme levier du quotidien pour accélérer le développement, améliorer la qualité du code et automatiser les tâches répétitives. Et tu partages ces pratiques avec ton équipe.</p><p><strong>Contribues à l'ingénierie dans sa globalité</strong> Du cadrage technique au déploiement en production, tu es impliqué·e sur l'ensemble du cycle : définition d'architectures adaptées, respect des bonnes pratiques de sécurité et de conformité (RGPD), gestion des incidents critiques et rédaction de post-mortems actionnables.</p><h2><strong>Notre stack technique</strong></h2><p>Tu évolueras dans un environnement moderne, construit autour des outils de référence :</p><ul><li><p><strong>Data Warehouse :</strong> Snowflake comme socle central de stockage et d'analyse</p></li><li><p><strong>Transformation :</strong> DBT Core pour modéliser et fiabiliser nos données</p></li><li><p><strong>Orchestration :</strong> Airflow pour piloter nos pipelines et workflows</p></li><li><p><strong>Ingestion :</strong> DLT Hub pour connecter et charger nos sources de données</p></li><li><