Senior Data Engineer (H/F)

Résumé du poste
CDI
Paris
Salaire : Non spécifié
Télétravail non autorisé
Expérience : > 3 ans
Compétences & expertises
Grpc
Json
Azure
Kafka
Pyspark
+4
Postuler

Publicis France
Publicis France

Cette offre vous tente ?

Postuler
Questions et réponses sur l'offre

Le poste

Descriptif du poste

Capability

L'équipe Data est composée d'une quinzaine de collaborateurs regroupant Data Scientists, Data Engineers, Data Analysts et Data Strategists, travaillant sur la co-construction d'outils générant de la valeur à partir de la donnée de nos clients.

Si vous aussi, vous partagez cette vision et souhaitez profiter et contribuer à notre communauté internationale sur le sujet, rejoignez-nous !

Vous interviendrez chez nos clients et serez en charge des missions suivantes : 

  • Travailler étroitement avec les parties prenantes à la compréhension fonctionnelle de leurs projets au travers d’ateliers de spécification et de modélisation 

  • Construire des pipelines d’ingestion, de transformation et de valorisation de leurs données au service de la réalisation de produits décisionnels (BI), de data science/machine learning ou d’analytique opérationnelle 

  • S’assurer de la qualité du code réalisé en adéquation avec les normes et standards du projet et mettre en place les tests de validation  

  • Documenter ces projets jusqu’à leur industrialisation opérationnelle et le support nécessaire à la vie du produit. 

Vous contribuerez également à la veille collective et à l’émulation commune lors de nos journées de partage au sein de la craft Data engineer, à la rédaction d’articles ou à la participation de projets internes.


Profil recherché

Vous disposez de plus de 3 ans d’expérience dans la réalisation de pipelines de données, dans des contextes de construction de la plateforme data à l’échelle, dont notamment dans l’usage des technologies suivantes : 

  • Python 3 : programmation de traitement de la donnée sous la forme de Notebook, utilisant des librairies orientées data et analytique tels que PySpark et/ou Panda, en mode batch ou streaming 

  • SQL pour manipuler les données stockées et réaliser des traitements de transformation avancées et à l’échelle 

  • Collecte et publication utilisant les protocoles de brokers de messages en streaming tels que Kafka, API REST, GRPC, fichiers avec SFTP ou Objet (S3, GCS, ADLS) 

  • Formatage de la donnée JSON, Avro ou Parquet et SQL Apache Iceberg, Delta Lake 

  • Cloud native platform AWS (S3, Glue, Athena, RDS, Kinesis, ...), GCP (Cloud Storage, Big Query, Pub/Sub, Data Flow), Azure (ADLS, Synapse, Stream Analytics) 

  • Principes d’automatisation et de gestion de release, usage d’outillage de gestion de configuration et de pipeline de CI/CD. 

Enfin, vous êtes force de proposition, vous travaillez avec exigence de qualité, ouverture et bienveillance. 

D’autres offres vous correspondent !

Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.

Voir toutes les offres
Postuler