.
Vous rejoindrez l’équipe Plateforme Data pour contribuer à la digitalisation et à l’automatisation des processus métiers.
Vous participerez à des projets Data stratégiques, en travaillant avec les équipes business, product management et design, afin de concevoir des solutions fiables, évolutives et performantes.
Vos missions
• Monter en compétences sur l’ETL BigL et contribuer à l’ELT in-house (BigLoader, BDI/DBT)
• Développer, documenter et maintenir des pipelines de données robustes
• Prendre en charge les demandes de corrections liées aux anomalies et incidents
• Participer à l’auto-formation et au partage de connaissances au sein de l’équipe
• Appliquer les bonnes pratiques de développement et les méthodes DevOps
• Contribuer aux chiffrages, releases et à l’automatisation du delivery
• Collaborer au sein d’une équipe Scrum et travailler en interaction avec les métiers
Environnement technique
• Google Cloud Platform (BigQuery, Pub/Sub, Looker)
• SQL avancé & DBT (Data Build Tool)
• CI/CD (GitLab CI/CD, Docker Compose)
• Linux, Git, outils en ligne de commande
• Méthodologie Agile (Scrum)
Profil recherché
• Bac+5 en informatique / école d’ingénieur ou équivalent
• 3 à 7 ans d’expérience en Data Engineering (DBT, SQL, BigQuery)
• Bonne maîtrise des environnements Data & Cloud (GCP)
• Connaissance des outils de CI/CD et bonnes pratiques DevOps
• Excellente communication écrite et orale en français
• Esprit analytique, rigueur, capacité de recul et goût du travail en équipe
• Une expérience dans la grande distribution serait un plus