
Data Engineer (h/f)
Posted 22 days ago
Company Description
View moreFondé en 2007, Expert Français du Conseil en IA et data, AVISIA est le partenaire de référence de la transformation des entreprises, à l’heure d’une accélération technologique sans précédent. Fort d’un collectif de 300 experts maîtrisant les sujets data les plus pointus, le cabinet conçoit et déploie des projets sur-mesure, créateurs de ROI pour ses clients. Cabinet intégré couvrant l’ensemble de la chaîne de valeur, AVISIA relie la vision stratégique des Directions et des COMEX au déploiement opérationnel et IT, pour faire de l’IA et de la donnée de véritables leviers de performance.
Job Description
Nos missions :
Nous intervenons chez nos clients sur des missions 100% data qui allient des dimensions techniques et stratégiques, où la donnée est le moteur de la performance opérationnelle. En tant que Data Engineer, vous êtes l'architecte qui rend la donnée exploitable. Selon votre profil, vous interviendrez sur la construction de plateformes data robustes (Data Lakehouse) ou sur l'industrialisation de flux complexes destinés à l'IA.
Nos clients (Luxe, Retail, Télécom, Banque...) font face à une explosion des volumes et des sources de données. Votre rôle sera de garantir la fluidité, la qualité et la sécurité de ces flux.
Quelques exemples de sujets du moment :
Migration d'un legacy on-premise vers une architecture Cloud Lakehouse (Snowflake/Databricks). #CloudMigration
Industrialisation de pipelines complexes sur GCP (BigQuery, Dataform) avec une forte culture de l'observabilité (Dynatrace) et du CI/CD. #Orchestration
Déploiement d'applications, d’API et de services IA (Algorithmes de prédictions ML, agents conversationnels, etc.) #MLOps
Audit et refonte de pipelines d’ingestion pour réduire les coûts de calcul et de stockage sur GCP ou AWS. #Performance
Développement de composants Kafka, exposition via API et garantie de la performance des flux temps réel à l'échelle internationale. #Streaming
L'humain :
Nous recherchons des talents :
Ayant un excellent relationnel pour faire le pont entre les besoins métiers et les contraintes IT,
Avec la volonté de bâtir des infrastructures scalables et robustes,
Dotés d’un esprit d’analyse rigoureux,
Qui accordent une importance capitale à la qualité du code (CI/CD, tests unitaires) et à la documentation technique (Confluence/Jira),
Curieux des nouvelles tendances (DataOps, IA générative appliquée au code),
Sensibles aux enjeux RSE pour intégrer des pratiques numériques durables,
Avec l’envie de transmettre et d’apprendre au sein d’une communauté technique active,
Maîtrisant l'anglais professionnel pour intervenir dans des contextes internationaux,
Disposant de quatre années d'expérience minimum sur des sujets d'ingénierie de données.
Les compétences techniques :
Vous êtes diplômé(e) d’une formation data à l’université ou en grande école et :
Maîtrisez parfaitement Python et SQL (analytique et procédural),
Avez une solide expérience sur un orchestrateur de workflow (Airflow, Prefect ou Dagster),
Connaissez les outils de transformation moderne comme dbt (Data Build Tool),
Maîtrisez au moins une solution Cloud (GCP, AWS, Azure ou Snowflake) et ses services managés (BigQuery, Redshift, S3...),
Maîtrisez le cycle de vie logicielle (GitLab/GitHub, CI/CD, Terraform, Docker),
En bonus : vous avez déjà manipulé des flux de streaming (Kafka, Pub/Sub), des frameworks d’IA générative (Langchain) ou des outils de Dataviz (Power BI).
