Data Engineer
Description du poste
Data Engineer - casablanca
Informatique / Electronique - Secteur Informatique
Confirmé (5 à 10 ans)
1 poste(s) sur Casablanca et région - Maroc
Bac +4 Minimum
- Master
Recherche de nouveauté
Besoin de réflexion
Besoin d'autonomie
Implication au travail
Ambition
Télétravail : Hybride
Postulez avant le 23/05/2026
J'aime
Entreprise :
Acteur majeur du conseil technologique en France et à l’international, recrute pour ses équipes,nous accompagnons les grandes entreprises et les institutions dans leur transformation digitale, avec une approche alliant expertise métier et innovation technologique.
Poste :
Rejoignez notre équipe dynamique dans le secteur des Autres services en tant que Data Engineer. Basé(e) à Casablanca, vous jouerez un rôle clé dans la transformation et l'optimisation de nos flux de données.
En tant que profil senior, vos missions seront :
Concevoir, développer et optimiser des pipelines de données scalables sur Databricks
Définir et mettre en œuvre les bonnes pratiques Data Engineering et DataOps
Gérer des tables Delta Lake avancées (ACID transactions, optimisation, time-travel)
Orchestrer des workflows complexes via Databricks Jobs ou Delta Live Tables
Structurer et documenter l’architecture Data (Lakehouse, ingestion, transformation, exposition)
Collaborer étroitement avec les équipes Data Science, BI, Sécurité et Architecture
Garantir la qualité, la sécurité et la fiabilité des données
Mentorer les Data Engineers juniors et intermédiaires
Participer aux décisions d’architecture cloud (Azure/AWS)
Optimiser les coûts et les performances des clusters Spark
Automatiser les flux via CI/CD (Git, Azure DevOps, GitHub Actions)
Profil recherché :
Profil recherché
Bac+5 en informatique, Big Data, Data Engineering ou équivalent
5 à 10 ans d’expérience en Data Engineering
Expérience significative sur Databricks (obligatoire)
Avoir déjà participé à des projets data de grande envergure
Expérience dans des environnements cloud (Azure ou AWS)
Compétences techniques indispensables
Expertise Databricks (clusters, notebooks, jobs, Delta Lake, optimisation Spark)
PySpark avancé
Python avancé
SQL expert
Architectures Lakehouse & Big Data
Cloud : Azure (ADF, ADLS, Synapse) ou AWS (Glue, S3, Redshift)
Maîtrise des environnements CI/CD
Expérience en optimisation Spark (partitions, cache, broadcast, shuffle)
Très bonnes connaissances en gouvernance de données
Traits de personnalité souhaités :
Recherche de nouveauté
Besoin de réflexion
Besoin d'autonomie
Implication au travail
Ambition
Matching global
FineTunePro
COMPÉTENCES
Kapacity Revealer
PERSONNALITÉ
Feel Good
CULTURE
ReKrute vous offre ce nouveau test de personnalité pour mieux vous connaitre et valoriser vos candidatures. Passez-le dès maintenant, cela ne prend que 5 minutes maximum.