ALTEN DELIVERY CENTER MAROC, Filiale du leader mondial de l'ingenierie et du conseil en technologie cree en 2008 et present a Fes, Rabat, Tetouan et Casablanca, compte aujourd'hui plus de 2300 consultants et vise un centre d'excellence de 3100 consultants ALTENiens en fin 2027. Avec plus de 90 recrutements par mois, ALTEN Maroc est desormais un acteur majeur de l'insertion professionnelle des ingenieurs. Nous accompagnons nos clients, leaders de l'Industrie dans leurs strategies de developpement dans les domaines de l'automobile, du ferroviaire, de l'IT, de la R&D et des Telecoms & Medias.
Rejoindre ALTEN MAROC c'est beneficier :
Des parcours professionnels diversifies avec des opportunites de carriere, une mobilite interne, sectorielle, geographique et metiers.
Des formations certifiantes et diplomantes.
Des evenements reguliers pour combiner bien etre et performance.
Description du poste
Vous aurez comme objectif de participer a la mise en place, a l'exploitation et a l'amelioration continue des pipelines de donnees de la Plateforme Data, dans une architecture Data Centric , afin de garantir la fiabilite, la scalabilite, la performance et la securite des plateformes de donnees, tout en contribuant a l'automatisation, au monitoring et a la gestion des incidents.
Integre(e) aux equipes Plateforme Data, le/la consultant(e) interviendra sur les activites suivantes :
Contribution a la mise en oeuvre et a l'amelioration continue des pipelines de donnees
Automatisation des deploiements et des processus d'exploitation
Supervision des performances des plateformes Data
Gestion et resolution des incidents en production
Participation active aux activites DevOps autour de Kafka, Kubernetes et GCP
Collaboration etroite avec les equipes de developpement et d'infrastructure
Garantie de la fiabilite, de la disponibilite et de la scalabilite des plateformes Data
Contribution aux demarches d'amelioration continue et d'optimisation des solutions existantes
Qualifications
Diplome(e) d'un Bac+5 en ecole d'ingenieur ou equivalent universitaire avec une specialisation en informatique, ou justifiant d'une experience significative equivalente
Experience
: Minimum 7 ans en Apache Kafka.
Une experience en grande distribution est un plus.
Competences requises :
Google Cloud Platform (GCP) :
+ Google Kubernetes Engine (GKE)
+ Cloud Storage
+ Cloud SQL
+ Cloud Monitoring Apache Kafka (expertise avancee) :
+ Partitionnement, replication, compaction
+ Tuning des performances
+ Gestion des topics et offsets
+ Securite : TLS, SASL, ACL
+ Supervision via Prometheus et Grafana Kubernetes :
+ Creation et gestion de clusters
+ Deploiement applicatif
+ Supervision et optimisation des performances DevOps : CI/CD, automatisation des deploiements
Scripting : Bash, Python
Bases de donnees relationnelles (concepts fondamentaux)
Securite : bonnes pratiques et politiques d'acces
Competences comportementales :
Forte capacite d'analyse et d'amelioration continue
Autonomie et excellente gestion du temps
Capacite de prise de recul et force de proposition
Excellente communication ecrite et orale (livrables & reporting)
Esprit d'equipe et collaboration transverse
Maitrise des methodologies Agiles (Scrum, Sprint Planning, Backlog
Informations supplementaires
Vous etes rigoureux, creatif, curieux et vous aimez travailler en equipe et monter en competence dans un environnement dynamique, les metiers du service vous animent et vous souhaitez evoluer dans un environnement convivial, rejoignez-nous !
Au plaisir de vous lire!
Beware of fraud agents! do not pay money to get a job
MNCJobsGulf.com will not be responsible for any payment made to a third-party. All Terms of Use are applicable.