Les missions du poste

DescriptionMISSIONS 
Automatisation et gestion des pipelines CI-CD 


Mise en place, optimisation et gestion des pipelines de déploiement continu (CI/CD) avec des outils comme Gitlab CI pour les équipes de développement et de data science.


Automatisation du déploiement des modèles d'apprentissage automatique dans des environnements Kubernetes, en utilisant OpenShift pour la gestion des containers.






Gestion des environnements Kubernetes et OpenShift 




Configuration, maintenance et optimisation des clusters Kubernetes/Openshift pour accueillir les services backend et les modèles d?IA.


Mise en ?uvre des meilleures pratiques pour gérer la scalabilité et la disponibilité des services dans ces environnements.






Surveillance des services et des modèles de machine learning




Mise en place de systèmes de monitoring pour les services déployés (avec Prometheus, Grafana, Logstash, Kibana) afin de suivre la performance des modèles ML en production.


Configuration et gestion des alertes sur des métriques critiques (latence des modèles, temps de réponse, erreurs, etc.).






Gestion des secrets et des configurations 




Utilisation de Vault pour la gestion sécurisée des secrets et des clés API utilisées dans les pipelines ou pour les accès aux systèmes de données.


Implémentation de la gestion des configurations pour garantir des environnements reproductibles et sécurisés.






Déploiement des modèles de machine learning en production 




Assistance aux équipes de data science pour le déploiement, la mise à l'échelle et la gestion des modèles de machine learning en production.


Intégration des modèles dans les architectures de microservices et de containers, en s'assurant de la qualité et de la performance des modèles une fois en production.






Sujets de RAG (Robustness, accuracy, Generalization)




Si le candidat maîtrise des sujets de RAG, il pourrait être amené à travailler sur l'amélioration de la robustesse, la généralisation et la précision des modèles ML utilisés en production.


Participer à des audits de performance des modèles et proposer des optimisations basées sur ces critères.






Gestion des incidents et des logs 




Configuration de Logstash et Kibana pour la collecte, l?analyse et la visualisation des logs des services et des modèles.


Mise en place de processus pour traiter les incidents rapidement et efficacement en production, en minimisant les risques d'interruption de service.






Collaboration avec les équipes de développement et de data science 




Travailler en étroite collaboration avec les équipes de développement pour s'assurer que les modèles ML sont correctement intégrés dans les environnements de production.


Fournir un support pour résoudre les problèmes liés à l'infrastructure et aux environnements, en veillant à ce que les pipelines de CI/CD soient robustes.






Amélioration continue des pratiques MLops/Devops




Proposer et mettre en ?uvre des améliorations continues dans les pratiques MLOps, en améliorant l'efficacité des workflows et en adoptant de nouvelles technologies ou méthodologies.
















Profil candidat:
PROFIL




Maitrise des environnement kubernetes, et des composants de ci/cd, maitrise la stack : Openshift / Gitlab ci / Vault / prometheus & grafana / Logstash / kibana. A l'aise sur le deploiement de model. Bonus : s?il maitrise des sujets de RAG.

Lieu : Paris
Contrat : Indépendant
Accueil / Emploi / Emploi Paris / Emploi