Econocom est un groupe européen, qui met en oeuvre la transformation digitale des entreprises et des organisations publiques en plaçant les utilisateurs finaux au coeur de chaque projet. Première Entreprise Générale du Digital en Europe, le groupe Econocom conçoit, finance et facilite la transformation digitale des grandes entreprises et des organisations publiques.
Contexte : Assurer le pilotage du système et des processus métier associés à l'outil.
Votre mission tourne autour de 4 axes :
- Apporter une expertise en Big Data pour faciliter la manipulation des données
- Définir les solutions techniques permettant le traitement massif de données
- Mettre en place des solutions de stockage de données (SQL, NoSQL, etc.)
- Veiller la sécurisation et la clarté des pipelines de données pour faciliter l'analyse et la transformation
Activité principale :
- Assure la création, la maintenance, l'optimisation et la sécurité des bases de données
- Détecte, propose et suit les optimisations des requêtes SQL, PL/SQL afin de garantir les meilleures performances de nos applications métier
- Assure le support aux équipes de développement afin d'identifier et proposer des solutions performantes SGBD les mieux adaptées d'un point de vue métier
Activité secondaire :
- Veille technologique sur les outils utilisés au sein du projet
- Partage et formation sur les guides de bonnes conduites
4 à 5 années minimum d'expérience sont attendues sur le rôle
Défini/challenge les solutions et architectures techniques permettant le traitement de volumes importants de pipelines de données suffisamment sécurisés et lisibles pour les Data Analysts et Data Scientists.
Maîtrise des technologies du Big Data permettant le traitement et la manipulation de données
Maîtrise des outils de gestion de code et de déploiement projet
Maîtrise des fondamentaux de l'agilité
Maîtrise des solutions de stockage de données
Maîtrise avancée des langages structurés
Maîtrise avancée des technologies du Big Data permettant le traitement et la manipulation de données
Stack technique du projet :
Informatica, Java, Tableau Server, Oracle, Cascading, Maven, Hive, CEPH, Indexima, Control-M, Git, Jenkins, Ansible, Spark, Terraform
Ref : yj93gnb0wl
4 à 5 années minimum d'expérience sont attendues sur le rôle
Défini/challenge les solutions et architectures techniques permettant le traitement de volumes importants de pipelines de données suffisamment sécurisés et lisibles pour les Data Analysts et Data Scientists.
Maîtrise des technologies du Big Data permettant le traitement et la manipulation de données
Maîtrise des outils de gestion de code et de déploiement projet
Maîtrise des fondamentaux de l'agilité
Maîtrise des solutions de stockage de données
Maîtrise avancée des langages structurés
Maîtrise avancée des technologies du Big Data permettant le traitement et la manipulation de données
Stack technique du projet :
Informatica, Java, Tableau Server, Oracle, Cascading, Maven, Hive, CEPH, Indexima, Control-M, Git, Jenkins, Ansible, Spark, Terraform
Ref : yj93gnb0wl