Intégré à l’équipe Data, tu seras responsable de la création des connecteurs de données et de la collecte de données sur BigQuery en utilisant des outils tels que GitHub Actions, Google Cloud Platform (Artifact Registry, Cloud Run, Cloud Scheduler).
Tu travailleras en étroite collaboration avec l’équipe de développement et les autres membres de l’équipe pour développer, tester et déployer des solutions de collecte de données efficaces et fiables
Ce rôle t’offrira une opportunité unique de contribuer à des projets de données d’envergure et de développer des compétences en ingénierie de données et en développement Python dans un environnement professionnel.
Concrètement, tes missions seront les suivantes :
Créer et maintenir les connecteurs de données nécessaires pour collecter les données à partir de différentes sources vers BigQuery.
Collaborer avec l’équipe de développement pour concevoir, développer, tester et déployer des solutions de collecte de données basées sur Python et les meilleures pratiques d’ingénierie de données.
Utiliser les outils de Google Cloud Platform (GCP) tels que Artifact Registry, Cloud Run et Cloud Scheduler pour déployer et automatiser les flux de travail de collecte de données.
Collaborer avec les autres membres de l’équipe pour comprendre les besoins en données et garantir la qualité, la fiabilité et la sécurité des données collectées.
Résoudre les problèmes et les défis techniques liés à la collecte de données et aux connecteurs de données, en proposant des solutions et en effectuant des tests pour valider les performances et la qualité des données collectées.
Documenter les processus de collecte de données, les connecteurs de données et les flux de travail automatisés pour faciliter la maintenance et la compréhension des solutions de collecte de données.
Expérience préalable dans le développement de connecteurs de données ou de flux ETL.
Connaissance des meilleures pratiques de développement Python, des bibliothèques de traitement de données telles que Pandas, et des outils de développement comme PyCharm ou Visual studio code.
Expérience avec l’utilisation des services de Google Cloud
Type de contrat : contrat d’alternance
Rémunération : 1200 à 1800 euros selon profil
Avantages : carte Swile pour les repas, remboursement des frais de transports à hauteur de 50%, télétravail partiel possible
Date de démarrage : septembre 2024
Tu travailleras dans une ambiance bienveillante avec de l’autonomie
Tu rejoindras une entreprise en forte croissance qui ambitionne de devenir un leader européen
Tu travailleras dans un environnement multiculturel
Tu bénéficieras de supers avantages : set up pour travailler dans les meilleures conditions, afterworks/teams buildings réguliers, corbeille de fruits et snacks hebdomadaires, cantine Frichti
Étudiant(e) en informatique, en génie logiciel, en génie des données ou dans un domaine connexe.
Bonne connaissance de la programmation en Python.
Familiarité avec les outils de gestion de code tels que Git et les plateformes de collaboration de code comme GitHub.
Connaissance des concepts d’ingénierie de données tels que l’extraction, la transformation et le chargement (ETL) des données.
Familiarité avec les services de Google Cloud Platform (GCP) tels que BigQuery, Artifact Registry, Cloud Run et Cloud Scheduler, ou la capacité d’apprendre rapidement ces technologies.
Capacité à travailler de manière autonome et à s’adapter à un environnement en évolution rapide.
Excellentes compétences en résolution de problèmes et en communication.
Anglais professionnel (à l’oral et à l’écrit).
Premier échange téléphonique avec notre HR Manager (~20 min)
Entretien à l’agence avec notre Team Lead Data (~1 heure)
Restitution d’un cas pratique + test logique (~45 min)
Rencontre avec notre Head of Data (30min)
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.
Voir toutes les offres