Le poste est rattaché à la Factory Cloud et Cybersécurité regroupant les compétences IT de l’entreprise.
Un nouveau pôle est en cours de construction, le CIS : Conception et Industrialisation de Solutions.
Son objectif est de mettre à disposition des ops cloud des outils leur facilitant le déploiement de solutions et automatisant un certain nombre de tâche récurrente.
Le CIS a notamment en charge un outil qui a été développé en interne permettant aux ops cloud de piloter les déploiements de datalake et de leurs arborescences.
Cet outil embarque également des fonctionnalités d’analyser de l’infra existante, gestion des secrets, navigation sur les datalakes … Il adresse aussi bien des besoins Azure que AWS.
Intégré(e) au sein d’une équipe projet, notre futur collaborateur prend en charge les évolutions de cet outil en fonction des besoins remontés par le PO, il/elle échange, partage avec les ops en charge de construire, déployer l’infrastructure data sur les Cloud Azure & AWS pour les projets BigData de la SNCF.
Il/elle a en charge la maintenance du code actuel afin d’en assurer la MCO.
Il/elle intervient sur tout le cycle de vie du socle en relation avec les OPS et les Architectes :
· Cadrage / définition
· Implémentation / Déploiement
· Gestion opérationnelle et évolutions applicative
Nous avons également de forts besoins autour de développement d’api pour notamment exposer les donnes des datalakes. Le candidat peut donc être amené à évoluer sur ce périmètre.
Les missions
La priorité sur ce poste est la reprise du code existant de l’application assistant les cloud ops dans leur mission pour en assurer la MCO :
Monter en compétences sur les fonctionnalités du produit
Monter en compétences sur les chaines de déploiement (Git/Jenkins) de la SNCF
Prendre en main du code et de l’infra l’hébergeant
Pouvoir assurer le déploiement dans Kubernetes
Assurer la MCO (corrections bogues)
Rédiger les documentations
Évolution du code existant
En relation avec le PO, récolter le besoin et l’évaluer la charge
Apporter les modifications et effectuer les tests unitaires
Déployer les modifications en production
Rédaction des documentations
Le candidat sera également sollicité pour d’autres projets nécessitant des compétences fortes en développement (Ex : API Ingestion / exposition de données, wrapper de logs vers datadog … )
Connaissance avancée des composants CLOUD relatif aux traitements de la data (IAAS, composants PAAS: HDI, Databricks, ADLS, NIFI, Azure Fonction, ACI, AKS…) serait un plus
Développement avancé
Bonne connaissance du développement d’API (rest, …)
Compétences transverses :
Capacités relationnelles (travail en équipe, responsabilité, service client, échanges et partage dans la communauté devops)
Capacités rédactionnelles (rédaction de documents d’exploitation projets et de guides de références de developpement)
Faire preuve d’autonomie (responsabilisation sur les projets, capacité à analyser les logs, corréler, debugger pour traiter au mieux les incidents et identifier les root causes ; tout ceci de manière proactive)
Expériences et formations
De formation informatique (bac+5) vous disposez d’une expérience (de 3 à 5 ans minimum ) dans le domaine du développement JAVA sur des projets industrialisés, et plus particulièrement dans le développement des API, dans un contexte cloud et dans l’usage des services clouders.
Localisation
Le poste est basé à Lille préférentiellement, possible sur Saint-Denis.
Télétravail autorisé à hauteur de 3 jours par semaine.