Data Engineer Senior
Hybrid
Paris, France
Full Time
04-02-2025
Job Specifications
SoyHuCe - Le centre d’excellence opérationnel en Data / IA et Web de JAKALA
Nos équipes combinent les expertises nécessaires à la création de solution data clé-en-main : collecte, traitement, analyse, algorithmie, exploitation, intégration et UX/UI.
Elles répondent ainsi à des cas d’usage variés, dans de multiples secteurs : retail, énergie, loisirs, industrie, assurance, secteur publique, santé….
En pratique elles sont principalement basées à Paris et Caen et s’organisent en 3 tribus :
Le Data Lab : expertise en Algorithmie, Data Science & IA avec capacité d’industrialisation ; en lead sur les projets R&D
La Digital Factory : intégration des innovations dans des solutions web / app et mise à l’échelle auprès des utilisateurs
Le Customer Success : accompagnement fonctionnel et gestion de projets
En interne, toutes les initiatives sont valorisées : les idées, les avancées techniques et la montée en compétences, le tout dans une ambiance challengeante et bienveillante.
Opportunités de carrière stimulantes
Rejoindre JAKALA en France, c’est bénéficier du meilleur des deux mondes : l’agilité et l’impact d’une scale-up, tout en s’appuyant sur la solidité d’un leader européen. Vous aurez l’opportunité de travailler sur des projets ambitieux et innovants, aux côtés d’experts reconnus, avec l’appui de partenariats technologiques de premier plan.
Les valeurs qui guident les #Jakalers
Embrace Data – Make it count – Grow Together – Deliver our best – Be Purpose Driven
Nous sommes engagés ! Pour le bien-être de chacun, pour construire des relations durables avec nos écosystèmes, pour enrichir et partager nos expertises.
Engagés dans l'inclusion des personnes en situation de handicap, en garantissant des conditions de travail adaptées et accessibles à tous.
Engagés pour le bien-être au travail, nous sommes convaincus que des équipes épanouies, dans un environnement respectueux et équilibré, sont la clé de la réussite.
Descriptif du poste
Au sein de notre Data Lab, tu travailles conjointement avec les Data Scientists, Data Engineers, MLE/MLOps engineer déjà en poste et tu es impliqué.e dans la prise de décisions liée aux solutions Data et à leur évolution.
A cet effet, tu es en charge de :
Contribuer au développement de notre offre Data et à l’industrialisation de plateformes data pour nos clients
Comprendre, analyser et proposer des solutions techniques répondant aux besoins des Plateformes digitales et des projets internes
Définir l’architecture logiciel ETL / ELT en collaboration avec tes pairs
Travailler la donnée sous toutes ses formes (stockage, élaboration de modèles, structuration, nettoyage)
Rédiger de la documentation technique (diagrammes UML, documentation d’API, …),
Partager ton savoir-faire avec les différents membres de l’équipe
Concevoir et développer des connecteurs entre les sources de données (internes et/ou externes) et la plateforme
Concevoir et développer des pipelines de traitements de données (batch et/ou temps réel) dans un environnement Big Data
Assurer une veille technologique et savoir mener à bien un projet de R&D
Tu assures en autonomie les missions suivantes en interne ou auprès de nos clients grands comptes :
Cartographier des données et des flux de données
Implémenter des algorithmes d’analyse de données pour l’industrialisation
Collecter, consolider et modéliser de gros volumes de données (Big Data, Data Warehouses, Data Lakes)
Développer et automatiser des flux de données et leurs visualisations en dashboards, reporting
S’assurer de la scalabilité, sécurité, stabilité et disponibilité des données de la plateforme
Analyser les données web pour répondre aux questions métiers et participer à la construction de l’architecture Big Data
Mettre en place du séquencement et de la supervision des flux précitées en gérant les cas limites
Compétences attendues
Bon niveau en développement :
De script ETL : Python (Pandas, API Rest, FaaS), Java (ex Kafka Connect, SOAP), Spark (PySpark, Databricks, Delta Lake)
De script ELT : DBT (ex. Snowflake, PostgreSQL)
Connaissance conception et administration d’entrepôt de données : Snowflake, Big Query, PostgreSQL
LakeHouse : Delta Lake
Connaissance message broker : RabbitMQ, Kafka
Compétences cloud : Kubernetes, Conteneurisation, Fournisseur cloud (AWS, GCP ou Azure), Infrastructure As Code (Terraform)
Expérience d’architecture et de dimensionnement d’une architecture cloud via des services managés
Cartographie des données
Profil recherché
Diplômé·e d’études supérieures dans le système d’information, computer sciences, big data (école d’ingénieurs, école spécialisée ou équivalent universitaire), tu justifies d’au moins 5 ans d'expérience en Data engineering.
Tu as une expertise reconnue sur la mise en place de pipelines complets de valorisation de données massives, de la collecte à la mise à disposition d’applications en passant par le traitement.
La maîtrise de l’anglais est appréciée.
Certification·s indispensable·s : GCP Professionnal Data Engineer OU Azure Data Engineer Associate OU AWS Solution Architect.
Tu es passionné·e par votre métier et tu aimes le partager.
Les avantages
Entreprise en plein développement, véritable tremplin et accélérateur de progression
Projets et missions sur des champs techniques très variés
Mise en situation de responsabilité rapidement
Bureau en plein centre de Paris et de Caen
Télétravail possible jusqu’à 3 jours par semaine
Mutuelle d’entreprise
50% de frais de participation pour les transports
Ticket restaurant d’une valeur de 10,83€ (60% prise en charge par l’employeur)
Contrat
Poste à pourvoir en CDI
Rémunération selon profil et expérience
Poste ouvert aux personnes en situation de handicap
Process de recrutement
Une pré-qualification avec notre Talent Acquisition
Un entretien avec un Référent Technique Métier
Un challenge technique au travers d’un cas d'usage personnalisé
Un dernier entretien avec notre CEO
About the Company
SoyHuCe is the CoE (Center of Excellence) of JAKALA in France dedicated to data, AI and app development enabling users to leverage the power of algorithms. The teams are organized in 3 tribes : - Data Lab : expertise in Algorithm, Data Science & AI - Digital Factory : transforming innovations and algorithms into web apps for users to leverage and scale - Customer Success : advising customers, designing use cases and managing projects JAKALA is a data, AI, and experiences company that creates meaningful and lasting impact g... Know more
Related Jobs
- Company Name
- SoyHuCea JAKALA company
- Job Title
- Data Product Owner
- Job Description
- SoyHuCe - Le centre d’excellence opérationnel en Data / IA et Web de JAKALA Nos équipes combinent les expertises nécessaires à la création de solution data clé-en-main : collecte, traitement, analyse, algorithmie, exploitation, intégration et UX/UI. Elles répondent ainsi à des cas d’usage variés, dans de multiples secteurs : retail, énergie, loisirs, industrie, assurance, secteur publique, santé…. En pratique elles sont principalement basées à Paris et Caen et s’organisent en 3 tribus : Le Data Lab : expertise en Algorithmie, Data Science & IA avec capacité d’industrialisation ; en lead sur les projets R&D La Digital Factory : intégration des innovations dans des solutions web / app et mise à l’échelle auprès des utilisateurs Le Customer Success : accompagnement fonctionnel et gestion de projets En interne, toutes les initiatives sont valorisées : les idées, les avancées techniques et la montée en compétences, le tout dans une ambiance challengeante et bienveillante. Opportunités de carrière stimulantes Rejoindre JAKALA en France, c’est bénéficier du meilleur des deux mondes : l’agilité et l’impact d’une scale-up, tout en s’appuyant sur la solidité d’un leader européen. Vous aurez l’opportunité de travailler sur des projets ambitieux et innovants, aux côtés d’experts reconnus, avec l’appui de partenariats technologiques de premier plan. Les valeurs qui guident les #Jakalers Embrace Data – Make it count – Grow Together – Deliver our best – Be Purpose Driven Nous sommes engagés ! Pour le bien-être de chacun, pour construire des relations durables avec nos écosystèmes, pour enrichir et partager nos expertises. Engagés dans l'inclusion des personnes en situation de handicap, en garantissant des conditions de travail adaptées et accessibles à tous. Engagés pour le bien-être au travail, nous sommes convaincus que des équipes épanouies, dans un environnement respectueux et équilibré, sont la clé de la réussite. Descriptif du poste Rattaché·e à notre pôle Projet, en tant que Data Product Owner tu es en charge de différentes missions : Mission principale PO Data pour un de nos grands comptes, tu assures le pilotage et la coordination des contributeurs : Surveillance de produits de ton portefeuille Evolution des produits existants Définition des produits futurs A cet effet tes missions sont les suivantes : Owner de la roadmap : Prioriser les demandes de Business Owner (backlog) Construire la roadmap avec l’équipe Communiquer en dehors de l’équipe Identifier les adhérences et dépendances Mettre en place un processus d’amélioration continue avec les features team et les Business Owner en construisant et en alimentant des KPIs clairs pour permettre des analyses de performance Assurer le rôle de Chef de Projet (avec l’aide d’un Scrum Master) : Mettre en place technique des demandes Construire et tenir un planning détaillé Alerting Communiquer sur l’avancée des projets Porter et pratiquer les valeurs de l’agilité au sein de la feature team, notamment le respect des cérémonies agiles : weekly, refinement, rétrospective...) Collaborer avec les PO et les BO pour assurer un alignement global et un partage des best practices Mission secondaire Au sein de notre Data Lab, tu exerces tes compétences de Data Product Owner pour les projets clients de secteurs variés (retail, cosmétique, industrie, etc.) : Consolider et spécifier les besoins métiers Coordonner les différents acteurs d’un cas d’usage du produit client : Métier/MOA, équipe d’intégration, MOE des différents systèmes concernés, archis, équipe de RUN/exploitation Conseiller les métiers, utilisateurs dans l’utilisation et le paramétrage des produits clients et être force de proposition Identifier des fonctionnalités à intégrer au produit Suivre la roadmap des produits du client Stack technique : Pipeline : AWS Lambda, AWS Glue, AWS Batch, UC4, Snowflake, Tableau Software, Data Quality : AWS SNS, SodaSQL, Grafana, Slack Alerting Ticketing Management : ServiceNow Project Management : Jira, Miro Un plus : Connaissance des environnements GCP et Azure Maîtrise d’un langage SQL Profil recherché Idéalement issu d'une école d'Ingénieur en informatique ou formation universitaire équivalente (Bac +5), tu justifies d’au moins 5 ans d'expérience en encadrement d’équipe et en gestion de projet dans le champ de la Data ou à minima en BI. Une expérience significative dans le domaine Data et Décision avec l’intégration de produits est fortement appréciée Tu as une bonne connaissance des aspects Data intégrant une forte logique de temps réel et de recherche multicritère Tu sais évoluer dans un milieu à caractère stratégique, impliquant une grande variété de métier Souci de la visibilité, efficacité, autonomie, esprit d’initiative et rigueur sont de tes atouts Bon·ne communicant·e, tu sais piloter les équipes et animer les comités avec les Métiers La maîtrise de l’anglais est indispensable Les avantages Entreprise en plein développement, véritable tremplin et accélérateur de progression Projets et missions sur des champs techniques très variés Mise en situation de responsabilité rapidement Bureau en plein centre de Paris Télétravail possible jusqu’à 3 jours par semaine Mutuelle d’entreprise 50% de frais de participation pour les transports Ticket restaurant d’une valeur de 10,83€ (60% prise en charge par l’employeur) Contrat Poste à pourvoir en CDI Rémunération selon profil et expérience Poste ouvert aux personnes en situation de handicap Process de recrutement Une pré-qualification avec notre Talent Acquisition Un entretien avec un Référent Technique Métier Un challenge technique au travers d’un cas d'usage personnalisé Un dernier entretien avec notre CEO
- Company Name
- CGI
- Job Title
- Data Engineer Splunk F/H
- Job Description
- Description de poste Big Data, Data Science, Data analyse, Data architecture, ... Ça n’a pas de secret pour vous ? Que vous commenciez votre carrière professionnelle ou que vous soyez spécialiste de l’une de ces disciplines, intégrer notre communauté Data, c’est l’assurance de progresser, innover, partager, vous certifier et rendre service à nos clients. A Toulouse, nos équipes accompagnent nos clients grands comptes dans la mise en œuvre de leurs projets stratégiques. Nos collaborateurs interviennent dans le cadre de mission de conseil et d’intégration, de développement web ou en assistance technique dans des secteurs variés notamment aéronautique, spatial, santé, énergie, transport, et secteur public. Fonctions et responsabilités En tant que Data Engineer Observabilité, vous apportez une expertise approfondie dans les solutions de supervision temps réel, principalement sur Splunk (de préférence), mais aussi avec des outils tels que ELK et Dynatrace. Vous avez déjà utilisé un ou plusieurs outils de déploiement automatisés et DevOps (DOCKER, ANSIBLE, KUBERNETES…). Vous maîtrisez l’administration des collectes et êtes capable de vous connecter aux serveurs Linux pour assurer la continuité et l’efficacité des systèmes de monitoring. Vous savez développer et manipuler des données grâce aux langages Python et/ou Java et Javascript. En tant que Data Engineer Splunk, vous intègrerez un pôle de consultants spécialistes du Real Time Monitoring d’une quarantaine de consultants basés sur les sites de CGI Montpellier et CGI Toulouse. Vos missions seront les suivantes : - Mener des ateliers fonctionnels, analyser et comprendre le besoin, synthétiser les aspects techniques et fonctionnels afin de mieux définir la trajectoire de mise en œuvre de la solution Splunk chez nos clients - Travailler en collaboration avec les ingénieurs techniques et autres experts afin de rechercher et fournir des réponses aux problématiques techniques - Réaliser les travaux d’implémentation de la solution SPLUNK : paramétrage de la collecte de données, structuration et normalisation, développement de dashboards, définition de la stratégie de migration, configuration des algorithmes, notamment en vue de les adapter au Machine Learning, Deep Learning, etc., préparation des données, bonnes pratiques de développement et respect de conventions de nommage, conception et mise en œuvre de nouveaux scénarios de détection, optimisation des requêtes Splunk - Produire les projets en mode agile avec des processus et outils de développement de dernière génération - Participer à l'élaboration et la révision de normes / documentation technique - Animer des formations internes. Accompagner la montée en compétences des équipes - Assurer un support technique Splunk aux équipes et aux clients au quotidien En rejoignant CGI, vous bénéficiez également d’une offre complète de formations (techniques, métiers, développement personnel,…), de flexibilité grâce à notre accord télétravail (jusqu’à 3 jours de télétravail par semaine), d’une politique de congés avantageuse (27 jours de congés payés, RTT, congés ancienneté et enfant malade,…) et d’un package d’avantages intéressant (régime d’achats d’actions, participation, CSE,...). Qualités requises pour réussir dans ce rôle Vous justifiez de 3 à 5 ans d'expérience professionnelle au sein d’une entreprise de services numériques ou d’un cabinet de conseil dans le domaine du Data Monitoring. Vous êtes ou avez : - Esprit d'équipe - Esprit audacieux et ambitieux - Force de proposition - Maitrise au moins d'une technologie Real Time Monitoring, de préférence Splunk CGI est un employeur inclusif et attentif aux candidatures des personnes en situation de handicap, à l’évolution de carrières des hommes et des femmes et au bien-être de nos salariés LGBT+. Dans un souci d’accessibilité et de clarté, le point médian n’est pas utilisé dans cette annonce. Tous les termes employés se réfèrent aussi bien au genre féminin que masculin.
- Company Name
- POC Talents
- Job Title
- Manager Data Management | Cabinet de conseil international | jusque 100K€ package
- Job Description
- Quelques mots sur la société Notre client est un cabinet de conseil international qui souhaite développer son offre data management sur le marché français et en collaboration avec les entités du groupe à l'international. Pourquoi rejoindre l'aventure ? Vous êtes la pierre angulaire pour développer l'offre data management en France et porter son rayonnement auprès des clients du cabinet. Le cabinet offre également des perspectives de projets à l'international, avec l'opportunité de partager votre expertise et travailler à des pitches et RFP avec les autres antennes du groupe. Ce que tu feras Définir et piloter des stratégies data management pour répondre aux enjeux métiers des clients, en identifiant et priorisant des cas d’usage à fort impact. Mise en œuvre de la gouvernance des données : identification des acteurs clés, mise en place de principes et processus de gouvernance des données et coordination des comités data management. Déploiement d’outils data management (Collibra ou Informatica): réalisation de benchmarks, de la phase de cadrage et de déploiement à l'échelle. Définir des offres du cabinet autour du data management adaptées aux secteurs des clients du cabinet. Réaliser des présentations clients et mener les réponses aux appels d’offre sur les sujets de Data Management. Former les consultants sur les sujets de Data Management au moins une fois par trimestre. Ce que tu apportes Diplôme d’une école de commerce, d’ingénieurs ou d’une université de premier plan. Au moins 5 ans d'expérience en conseil, avec une expérience significative sur les projets data management. Expertise des outils de gestion des données, en particulier Collibra et Informatica. Capacité à gérer des projets complexes, impliquant des équipes multidisciplinaires. Vous parlez un anglais parfait. Les plus Une connaissance du secteur FS est apprécié. Une maitrise des processus liés à la gouvernance des données, des reportings réglementaires (type COREP, FINREP, Pilier 3) et de l’ESG est un plus. Let's talk benefits Salaire compétitif à partir de 72K€. Bonus annuel : 20 % de votre salaire fixe. Charte télétravail : 2 jours/semaine. Plan d’épargne entreprise avec un abondement attractif. Environnement collaboratif certifié "Great Place to Work". Environ 7 semaines de congés payés par an.
- Company Name
- neuco
- Job Title
- Sales Director, Data Centre
- Job Description
- About the Role: We are seeking a highly motivated and experienced Sales Director to drive business development in the enterprise data centre IT space. You will focus on expanding our presence in France, leveraging your network to open new business opportunities and exceed sales targets. The role covers the full sales cycle, from prospecting to closing deals, with a focus on selling optical networking and data centre solutions. The Company are a dynamic and growing telco solutions provider specialising in optical networking for data centres and enterprises. They offer a supportive environment where you’ll be empowered to learn, grow, and make a real impact. No corporate pressure, just results-driven success. Benefits & Opportunities: Broad exposure across the value chain Opportunity for personal and professional growth Collaborative and supportive culture Private company stability with less pressure for last-minute contracts To be successful you’ll need to have: Proven track record in enterprise IT sales, particularly in networking and data centre solutions French and English speaking Strong relationships within the enterprise IT and data centre sectors Technical understanding of optical networking solutions Experience in managing full sales cycles and achieving aggressive targets A proactive, adaptable, and self-motivated mindset Interested to know more? Interested? Contact me abbie@neuco-group.com for an initial discussion. Key words…if all these are resonating, this could be the job for you!! Data centre, IT, Enterprise, telco, fibre optics, telecommunications, mid-market, sales, business development