Expert Big Data H/F
Role details
Job location
Tech stack
Job description
Nous recherchons actuellement des ingénieurs système Expert Big Data (H/F) pour intégrer l'activité Data de notre entreprise, dans un contexte de forte croissance des usages DATA et d'évolution continue des plateformes du groupe.
Nous recherchons des personnes passionnées et experts sur une ou plusieurs technologies DATA, curieuses, aimant challenger les architectures existantes et se faire challenger sur des problématiques techniques complexes et à grande échelle.
Dans ce cadre, vos missions seront les suivantes :
Accompagnement des projets DATA
- Comprendre les enjeux fonctionnels et techniques des projets DATA
- Accompagner les équipes dans leur transition vers des architectures DATA modernes et distribuées
- Participer à la définition des solutions techniques en lien avec les architectes DATA et Cloud
- Contribuer à la mise en oeuvre, au déploiement et à la configuration des plateformes
- Accompagner l'adoption des nouvelles technologies via du support, de la documentation et le partage de bonnes pratiques
- Participer aux phases de tests (performance, résilience, reprise d'activité)
Exploitation et amélioration continue des plateformes
- Participer à l'exploitation quotidienne des plateformes DATA en production
- Prendre en charge les demandes, incidents et problématiques de performance
- Contribuer aux opérations d'évolution, de mise à jour et d'optimisation des environnements
- Participer aux astreintes de l'équipe
- Être force de proposition dans l'amélioration continue des processus, procédures et documentations d'exploitation
Vous évoluerez dans un environnement technique combinant des architectures distribuées on-premise et cloud public, en collaboration étroite avec les équipes projets, architectes, Cloud et RUN, afin de garantir des plateformes performantes et adaptées aux enjeux métiers.
Expertise technique attendue
- Connaissance approfondie sur les technologies Data suivantes : Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino
Requirements
Connaissance des Cloud Public AWS et GCP et Terraform
- Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc.
- Connaissance approfondie linux et kubernetes
- Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc)
- Maîtrise de langages de programmation (Scala, Java, Python...)
- Travail en Agile
- Très bon niveau d'anglais requis
- Certification ITIL V4 obligatoire
Benefits & conditions
Type de contrat : CDI privilégié - ouverture possible aux profils freelances selon les missions