Data engineer Réseau - Rentabilité (IT)

Les missions du poste

Contexte / Objectifs :

Récupérer les données issues de sources externes

? Utiliser la puissance du Datalake

? Produire et mettre à disposition automatiquement des agrégats journaliers, hebdomadaires et mensuels.

Mise en ?uvre de la chaîne :

o d?ingestion de données,

o de validation de données,

o de croisement de données,

o de déversement dans le datalake des données enrichies

? Développer dans le respect des règles d?architecture définies

? Développer et documenter les user stories avec l?assistance du Product Owner.

? Produire les scripts de déploiement

? Prioriser les corrections des anomalies

? Assister les équipes d?exploitation

? Participer à la mise en ?uvre de la chaîne de delivery continue

? Automatiser les tests fonctionnels





Description :

? Mettre en place la collecte et la mise à disposition des données au sein de l?entreprise

? Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent

Activités et tâches :

? Acheminement de la donnée

? Mise à disposition de la donnée aux équipes utilisatrices

? Mise en production de modèles statistiques

? Suivi de projet de développement

? Développement job spark

? Traitement et ingestion de plusieurs formats des données

? Développement des scripts

? Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données

? Développement des moyens de restitution via génération de fichier et ou API & Dashboarding

? Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers

? Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI)

? Développer des API génériques d?ingestion et de traitement de données dans un environnement HDP

? Participer à la conception, mise en place et administration de solutions Big Data

? Participation à l?installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka

? Normalisation et agrégation des données afin de produire les rapports sous forme de Business View





Profil candidat:
Expertises spécifiques :

Connaissances techniques :

? Plateforme et environnement GCP (indispensable)

? Environnement GKE (Google Kubernetes)

? Stockage : HDFS / GCS

? Traitement: Maitrise de l?écosystème Spark / Kafka / Scala

? Planification : Airflow / Composer

? Méthodologies : Scrum, Kanban, Git

? DWH : SQL, BigQuery, BigTable

? Delivery : Git, Ansible, Docker, Terraform, Jenkins / Cloud Build

Aspects Humains :

? Grande capacité à travailler dans une équipe, en mode Scrum / Kanban.

? Bonnes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail).

? Sensible et informé des évolutions technologiques sur les piles logicielles pratiquées.

Lieu : Charenton-le-Pont
Contrat : CDI
Salaire : 45 000 € par an

Les offres similaires

Pilotage de la qualité de service (IT)

Charenton-le-Pont
CDI
VISIAN
Postée il y a 1 jour

Ingénieur Support Applicatif H/F

Charenton-le-Pont
CDI
Télétravail partiel
BPCE Solutions informatiques
Postée il y a 24 heures

Analyste Support/Incident Manager (F/H)

Charenton-le-Pont
CDI
Télétravail partiel
Groupe BPCE
Postée il y a 2 jours
Accueil / Emploi / Emploi Charenton-le-Pont / Emploi