.
Description de l’offre
Missions
• Coordonner la mise en place de l’architecture data, conçue par le data architect : infrastructures et logiciels.
• Participer à la mise en œuvre des use cases analytiques
• Intégrer de grands volumes de données, structurées et non structurées, à partir de diverses sources au sein d’un datalake
• Industrialiser les algorithmes de récupération et de traitement des données et les modèles d’intelligence artificielle.
• Effectuer une veille sur les nouvelles technologies et solutions matérielles/logicielles de transport, de traitement et de stockage des données.
• Contribuer à l’évolution des pratiques dans son domaine de compétences, en étant actif dans des réseaux de veille
Activités principales
• Identifier avec le data architecte les sources de données pertinentes pour les uses case data
• Développer les chaines d’ingestion en tenant compte des aspects techniques et des exigences non fonctionnelles
• Automatiser les processus d’ingestion de données
• Mettre en œuvre les chaines de traitements de données batch et temps réels
• Industrialiser et optimiser les modèles de ML développés par les data scientist
• Cartographier les sources de données qui alimentent le datalake
• Garantir la cohérence et la fiabilité des données du datalake
• Faire le suivi capacitaire des environnements data et mettre en œuvre la politique de gourvernance des données
• Traduire les règles de gestion business en KPIs analytiques
• Mettre en œuvre des dispositifs d’alertes en cas d’indisponibilité des données
• Garantir la cohérence dans la nomenclature des données business et techniques
• Assurer l’interopérabilité du datalake avec l’écosystéme data de Sonatel
• Réaliser une veille sur les sources d’informations type open-data.
• Mettre en œuvre les politiques de sécurité en vigueur des données
Compétences requises
Savoir
• Connaissance des distributions Hadoop du marché : Hortonworks et/ou Cloudera : niveau 3
• Fortes aptitudes en développement / programmation avec une excellente maîtrise des langages de programmation suivant : Python, Scala, Java, Shell Unix. Niveau 3
• Connaissance de l’environnement cloud : GCP / AWS, … : niveau 3
• Connaissance des technologies de transports de données : Apache NiFi et Kafka niveau 3
• Excellente maitrise de l’écosystème Hadoop : HDFS, Yarn, Oozie, Hive niveau 3
• Excellente maitrise du framework Spark niveau 3
• Maitrise des techniques de gestion de projet du cahier des charges à la recette utilisateur et son déploiement
• Bonne compréhension des enjeux business impliquant le traitement des données.
Savoir faire
• Avoir une capacité d’analyse et de synthèse
• Avoir une capacité d’adaptation d’organisation et de gestion des priorités
• Avoir une facilité d’adaptation aux nouveaux environnements, un sens de l’autonomie et de l’initiative
Savoir etre
• Avoir une capacité relationnelle et un esprit d’équipe
• Intégrité et transparence
• Exemplarité et engagement vis-à-vis de l’entreprise
• S’approprier les principes d’actions de l’entreprise : au service du client, entre nous, entre managers, avec les collaborateurs pour la création de richesses et vis-à-vis de l’environnement