.
À propos de l’offre d’emploi
Baobab Groupe est composé de 7 filiales, sa société Holding est à Paris, où se trouve son comité de direction, et dispose également d’un centre de services partagés à Dakar. Ces deux entités regroupent les fonctions stratégiques et supports du groupe.
Vous évoluez au sein de l’équipe Data.
L’équipe, rattachée à la ligne TRANSFO, est organisée en 3 pôles de compétences (Data Engineering , Data Analytics, Data Science) s’articulant autour d’une plateforme Data sur le cloud (GCP) accessible pour l’analyse et la modélisation.
Le rôle de Lead Data Engineering est stratégique pour :
• Renforcer la robustesse, la scalabilité et la gouvernance de la Data Platform
• Piloter l’alignement entre les besoins data et les orientations de l’architecture d’entreprise
• Encadrer une équipe technique tout en définissant une vision d’évolution à long terme
• Participer activement à la mise en place de la gouvernance des données : catalogue, documentation, qualité, sécurité, accessibilité, lineage
Responsabilités
Leadership et Vision
• Définir une stratégie d’évolution de la Data Platform (GCP, BigQuery, dbt, Airbyte…) alignée sur les ambitions métiers et les choix d’architecture globale
• Collaborer avec l’équipe d’architecture d’entreprise pour établir des standards communs (interopérabilité, sécurité, modélisation, services data)
• Porter une vision produit de la plateforme data, en lien avec les parties prenantes internes (Analytics, Science, Métier, IT) et les équipes architecture
• Participer à la feuille de route data en alignement avec la stratégie du groupe
Encadrement et montée en compétences
• Encadrer une équipe de Data Engineers, favoriser la montée en compétence (code review, pairing, mentoring)
• Promouvoir des pratiques DevOps/DataOps/Finops modernes (CI/CD, tests, monitoring, documentation)
• Instaurer une culture d’amélioration continue et de transparence dans les processus d’ingénierie
• Favoriser la montée en compétence métier de l’équipe, afin d’améliorer la compréhension des cas d’usage, des indicateurs clés et des objectifs fonctionnels
Excellence technique et delivery
• Piloter la conception, l’industrialisation et la documentation de pipelines de données complexes avec Airbyte, dbt, Cloud Composer / Workflows, BigQuery
• Garantir la qualité, la sécurité, la performance et la conformité des pipelines (RGPD, auditabilité, différentes banques centrales de nos filiales…)
• Superviser les intégrations avec les systèmes métiers (Core Banking, APIs, CRM, etc.) en collaboration avec les architectes IT
• Piloter les problématiques de fraîcheur de la donnée, avec une attention particulière portée au traitement en temps réel ou quasi-réel lorsque nécessaire (ex : flux de transactions, scoring dynamique, alertes temps réel)
Data Governance
• Participer activement à la mise en place et à l’évolution de la gouvernance de la donnée au sein du groupe (centrée sur la conformité, la traçabilité, la qualité et l’accès)
• Définir et faire respecter les standards de documentation, de sécurité, de lineage et de qualité de données, en lien avec les architectes, les équipes IT et les métiers
• Collaborer à l’animation du catalogue de données (métadonnées, dictionnaires, ownership fonctionnel et technique)
• Soutenir la mise en œuvre d’une culture “data responsable” : respect du RGPD, auditabilité, minimisation des risques opérationnels ou réglementaires
• Travailler étroitement avec les Data Analysts, Data Scientists et équipes de contrôle pour garantir un cadre de gouvernance robuste et évolutif sur les datasets critiques (KYC, scoring, crédit, transactions…)
Compétences et qualités requises
Formation & Expérience
• Diplôme d’ingénieur ou master en informatique/data
• Expérience réussie de 6 à 10 ans en Data Engineering, dont au moins 2 à 3 ans dans un rôle de lead ou de manager
• Maîtrise approfondie de GCP, SQL avancé, dbt, outil d’ingestion Modern (Airbyte/Fivetran), orchestration (Cloud Composer / Airflow), data warehouse (BigQuery, Snowflake…)
Compétences clés
• Capacité à structurer une architecture data à l’échelle
• Maîtrise des outils de traitement massivement parallèles
• Vision claire des enjeux cloud / data mesh / sécurité
• Bonne compréhension des problématiques finance / bancaire (T24, Core Banking, risque, KYC…)
• Bonne connaissance en architectures de data warehousing (ex : BigQuery, Redshift ou Snowflake) et des environnements Cloud (ex : GCP, AWS ou Azure)
Compétences comportementales
• Leadership naturel et capacité à fédérer une équipe technique
• Pédagogie, capacité à vulgariser les enjeux data auprès des directions fonctionnelles
• Orientation produit, rigueur, autonomie, agilité
• Connaissance des outils de BI : Looker, Superset, Metabase
• Familiarité avec les frameworks IA générative (GPT, Gemini, LangChain)
• Expérience en environnement multi-pays / multi-cultures