SCALIAN

Data Engineer (h/f)

Posted 11 days ago

Experience
3-5 years
Offer salary
Not specified
Location
Neuilly Sur Seine, France
Contract type
CDI, Freelance
Work arrangement
Sur Site
Starting Date
ASAP
Stack required
Python
Sql
Aws
Azure
Gcp
Databricks
Spark

Company Description

View more
Créé en 1989, le groupe Scalian compte plus de 6000 personnes en France et à l’international. Il est organisé en 3 pôles métiers spécialisés dans l'OT, l'IT, et le conseil. Scalian mène des activités dans 12 pays : France, Espagne, Portugal, Allemagne, Italie, Royaume-Uni, Belgique, Suisse, Inde, Maroc, Canada, et États-Unis. Established in 1989, the Scalian Group has nearly 6,000 employees in France and abroad. It is organized into 3 business lines specializing in OT, IT and consulting. Scalian has activities in France, Germany, Spain, Portugal, Italy, the United Kingdom, Belgium, Switzerland, India, Morocco, Canada and the United States.

Job Description

Description Du Poste

Vous rejoindrez notre équipe Services publics, Protection sociale & Santé, qui accompagne les administrations et établissements publics pour mettre l’intérêt général au cœur des transformations numériques. Vous participerez à concevoir, fiabiliser et industrialiser les pipelines de données nécessaires aux usages métiers, tout en facilitant la collaboration avec les équipes et en contribuant à la diffusion d’une culture data.

MISSIONS :

Vous serez amené à :

Concevoir, développer et optimiser des pipelines de données :

  • Construire des pipelines d’ingestion automatisés (API, batch, fichiers, etc.) dans une logique d’évolutivité.

  • Développer des transformations robustes et scalables en Python, orchestrées avec un outil de gestion de workflows.

  • Mettre en place des tests unitaires, des contrôles de qualité automatisés et des mécanismes d’alerte.

Modéliser, charger et industrialiser dans une démarche CI/CD :

  • Concevoir des modèles de données adaptés aux usages et les implémenter dans l’outil adapté.

  • Industrialiser les chargements via des workflows et assurer la cohérence des flux entre les environnements.

  • Surveiller en temps réel les exécutions, diagnostiquer les causes d’échec et proposer des corrections durables.

  • Collaborer avec les équipes techniques pour la résolution des incidents et l’amélioration continue des traitements.

Appuyer le support et accompagner les utilisateurs :

  • Assurer un appui de niveau 2/3 (analyse de logs, relance de jobs, correctifs rapides).

  • Documenter les anomalies, tracer les écarts et veiller à la qualité et la disponibilité des données.

  • Recueillir les besoins métiers liés aux données et contribuer à la fiabilité des chaînes de traitement.

Qualifications

Formation et expérience

  • Vous êtes diplômé(e) d’un Bac+5 (école d’ingénieurs, master universitaire ou école spécialisée en data).

  • Vous justifiez d’au moins 3 ans d’expérience sur des missions liées aux pipelines de données, l’ingestion ou le traitement de data.

Savoir-être

  • Vous disposez d’excellentes qualités de communication, tant à l’écrit qu’à l’oral.

  • Vous savez écouter, analyser et reformuler les besoins métiers ou techniques afin de proposer des solutions pertinentes et techniques.

  • Vous êtes autonome, rigoureux et structuré dans vos démarches d’investigation et de résolution de problèmes.

Compétences techniques

  • Vous maîtrisez Python ainsi que l’orchestration de workflow tels qu’Airflow ou équivalent.

  • Vous savez mener des investigations approfondies (analyse de logs et de métadonnées, reproduction d’erreurs, validation de la documentation).

  • Vous disposez d’une bonne connaissance des bases de données SQL.

  • Une expérience cloud (AWS, Azure, GCP) ou Big Data (Spark, Databricks, etc.) est un plus

https://careers.scalian.com/jobs/