Média de référence, Le Temps est le seul quotidien francophone de dimension nationale en Suisse. Fondé en 1998, Le Temps décrypte la Suisse et le monde au quotidien depuis plus de 25 ans. Le groupe Le Temps rassemble Le Temps, Heidi.news et Geneva Solutions, et emploie près de 160 collaborateurs.
Afin de compléter nos équipes, nous recherchons un(e) :
Vos responsabilités :
● Collaborer avec les équipes métier et la direction pour comprendre leurs besoins en
matière de données et définir les spécifications des flux de données et des outils pour
automatiser leur collecte ;
● Concevoir, construire et maintenir les flux de données provenant des différentes sources
et mettre en place l’infrastructure de stockage de ces données ;
● S’assurer de la qualité et de la cohérence des données tout au long du processus
ELT/ETL ;
● Faire évoluer l’architecture et le design du système de gestion des données en fonction des demandes ;
● Optimiser les performances des pipelines de données pour garantir une récupération efficace des données à des coûts maîtrisés ;
● Mettre à disposition les données pour les collaborateurs ;
● Assurer la sécurité des données en mettant en place des mesures de contrôle d’accès et de conformité ;
● Collaborer avec d’autres équipes techniques pour intégrer les données dans des applications et des outils analytiques ;
● Assurer une veille technologique pour rester à jour concernant les dernières avancées dans le domaine de l’ingénierie des données.
Votre profil :
● Au moins 5 années d’expérience dans des rôles d’ingénierie de données ;
● Expérience confirmée sur des projets décisionnels : conception de pipelines de données ETL/ELT, modélisation, optimisation ;
● Maîtrise de la gestion des ressources, performance et coûts ;
● Connaissance d’outils de visualisation de données, machine learning ;
● Maîtrise des outils de gestion des pipelines et des flux de travail de données tels que Talend, Azure Data factory, Glue (AWS), Airflow.
● Expérience avec les bases de données relationnelles, SQL, PostgreSQL et les technologies big data (ex. Hadoop, Spark, Hive, Pig …) ;
● Solides connaissances des langages SQL et Python ;
● Familiarité avec les plateformes cloud telles qu’AWS ou Azure ;
● Aisance avec les environnements Agile ;
● Connaissance des outils Business Intelligence : ex. Tableau, Power BI, Superset, Grafana ;
● Compétences DataOps/DevOps : intégration/livraison continue, mesure de la performance des pipelines, gestion de la qualité, gouvernance des données ;
● Infrastructure as code : ex. Terraform, AWS Cloudstack ;
● Compétences système : Linux, Docker ;
● Un plus : connaissance Jupyter, Pandas ;
● Un plus : connaissance en Ruby on Rails.
Nous vous offrons :
L’opportunité de rejoindre une équipe dynamique et collaborative.
Des activités variées et intéressantes.
Un lieu de travail proche des transports en commun dans des locaux lumineux.
Lieu de travail : Genève
Entrée en fonction : 1er janvier 2025
Type de contrat : Contrat à durée indéterminée
Taux d’activité : 100%
Nous nous réjouissons de recevoir votre candidature d’ici au 6 novembre 2024.
Merci de nous envoyer votre dossier complet (CV, lettre de motivation, diplômes, certificats de travail).