IT Data Integration Engineer GCP – Programme Supply Chain (H/F) - Freelance
Freelance Paris (Paris)
Description de l'offre
Taux journalier (TJM): 750
IT Data Integration Engineer GCP – Programme Supply Chain (H/F)
Localisation : Paris (14e)
Télétravail : 2 jours / semaine
Démarrage : ASAP
Durée : Mission longue
Contexte
Dans le cadre du déploiement d’une solution de planification Supply Chain (type IBP), notre client recherche un profil IT orienté data et intégration pour intervenir sur un programme stratégique en phase de finalisation.
L’architecture cible est déjà définie et en cours de stabilisation. L’enjeu principal porte désormais sur la mise en place, la fiabilisation et l’exploitation des flux de données entre les différents systèmes.
Environnement technique et fonctionnel
Plateforme data : GCP (BigQuery)
Systèmes : SAP ECC, Anaplan, Kinaxis
Middleware : gestion des transformations au niveau middleware
Flux : API, batch, intégration multi-systèmes
Outils projet : Jira, environnement Agile
Vos missions
Vous interviendrez au cœur des flux de données et des interfaces entre systèmes, dans un rôle clé de mise en œuvre opérationnelle.
Mise en place et gestion des flux data
Implémenter les flux de données entre les systèmes (SAP, Anaplan…) et la plateforme GCP
Assurer l’alimentation des données vers la solution de planification (Kinaxis)
Participer à la gestion des interfaces et des échanges de données
Data & intégration
Rédiger les spécifications de mapping (source → cible)
Définir les règles de transformation des données (implémentées côté middleware)
Garantir la qualité, la cohérence et la fiabilité des données
Exploitation & run
Participer au passage du projet au RUN
Mettre en place le monitoring des flux et la gestion des incidents
Assurer le suivi des performances et la stabilité des interfaces
Collaboration transverse
Travailler en lien étroit avec :
les équipes IT
les équipes métiers
les experts architecture déjà en place
Participer à l’amélioration continue des flux et des processus
Profil recherché
Compétences techniques indispensables
Solide expérience sur GCP, notamment BigQuery
Maîtrise des pipelines data (ETL / ELT, ingestion, transformation)
Expérience en intégration de données (API, batch, flux)
Bonne compréhension des architectures data
Compétences complémentaires appréciées
Expérience avec SAP ECC
Connaissance d’outils de planification type Kinaxis ou Anaplan
Expérience sur des environnements complexes multi-systèmes
Soft skills
Autonomie et capacité à intervenir dans une architecture existante
Rigueur dans la gestion des données et des flux
Capacité à collaborer avec des équipes techniques et métiers
Pourquoi rejoindre cette mission
Programme stratégique à fort impact business
Environnement technique moderne (GCP)
Rôle clé sur les flux data et l’intégration
Mission longue avec visibilité
Profil recherché
Localisation : Paris (14e)
Télétravail : 2 jours / semaine
Démarrage : ASAP
Durée : Mission longue
Contexte
Dans le cadre du déploiement d’une solution de planification Supply Chain (type IBP), notre client recherche un profil IT orienté data et intégration pour intervenir sur un programme stratégique en phase de finalisation.
L’architecture cible est déjà définie et en cours de stabilisation. L’enjeu principal porte désormais sur la mise en place, la fiabilisation et l’exploitation des flux de données entre les différents systèmes.
Environnement technique et fonctionnel
Plateforme data : GCP (BigQuery)
Systèmes : SAP ECC, Anaplan, Kinaxis
Middleware : gestion des transformations au niveau middleware
Flux : API, batch, intégration multi-systèmes
Outils projet : Jira, environnement Agile
Vos missions
Vous interviendrez au cœur des flux de données et des interfaces entre systèmes, dans un rôle clé de mise en œuvre opérationnelle.
Mise en place et gestion des flux data
Implémenter les flux de données entre les systèmes (SAP, Anaplan…) et la plateforme GCP
Assurer l’alimentation des données vers la solution de planification (Kinaxis)
Participer à la gestion des interfaces et des échanges de données
Data & intégration
Rédiger les spécifications de mapping (source → cible)
Définir les règles de transformation des données (implémentées côté middleware)
Garantir la qualité, la cohérence et la fiabilité des données
Exploitation & run
Participer au passage du projet au RUN
Mettre en place le monitoring des flux et la gestion des incidents
Assurer le suivi des performances et la stabilité des interfaces
Collaboration transverse
Travailler en lien étroit avec :
les équipes IT
les équipes métiers
les experts architecture déjà en place
Participer à l’amélioration continue des flux et des processus
À propos de Collective.work
Collective.work est la plateforme de recrutement nouvelle génération pour trouver votre prochain emploi.
Fort d'une grande expertise dans l'IA, Collective.work permet de mieux cibler les offres et leurs candidats correspondants, créant ainsi un système beaucoup plus fluide que les acteurs traditionnels.
Plus de 10,000 recruteurs utilisent Collective, permettant à des dizaines de milliers de candidats de trouver leur futur emploi chaque jours