Senior Data Engineer
Hybrid
Paris, France
Freelance
08-01-2025
Job Specifications
Senior Data Platform Engineer
Location: Paris
About the client
pioneering global advancements in autonomous food production through cutting-edge robotics and transformative AI technology. Headquartered in London with offices in Berlin and Munich, we are redefining the food industry by integrating AI-driven robotics into every aspect of food creation, production, and operation.
We’re seeking a Senior Data Platform Engineer to help build a modern data platform that powers our AI-driven food solutions. Join a team of top-tier professionals in robotics, AI, and data engineering to revolutionize how food is produced and delivered.
Your Responsibilities
1. Data Platform Development
Design, build, and maintain scalable data pipelines for ingestion, transformation, and storage.
Implement a modern data warehouse using AWS and Snowflake.
Develop backend services to process and transform internal and external data streams.
2. Collaboration & Leadership
Collaborate with Data Scientists, Engineers, and AI specialists on data platform initiatives.
Lead efforts to modernize and decentralize the data platform with state-of-the-art technologies.
3. Infrastructure & Automation
Build CI/CD pipelines to ensure seamless data management and deployment.
Implement best practices for data lifecycle management, ensuring secure and scalable infrastructure.
4. Data Quality & Governance
Establish processes for data observability, quality assurance, and governance.
Develop tools, templates, and processes to optimize data platform operations.
What We’re Looking For
Experience: 5+ years of experience in data engineering, with a proven track record of building data warehouses and data lakes from scratch.
Cloud Expertise: In-depth knowledge of AWS services, including networking, security, and identity management.
Data Technologies: Expertise in Snowflake, SQL/NoSQL databases, and modern data tools.
Programming Skills: Advanced proficiency in Python, with experience in Docker, Kubernetes, and CI/CD tools.
AI/ML Familiarity: Exposure to Data Science or Machine Learning frameworks is a plus.
Mindset: Solutions-oriented, collaborative, and passionate about scaling and optimizing data platforms.
About the Company
Extraordinary technological changes continue to drive the next chapter in human development. The Fourth Industrial Revolution is fundamentally disrupting how we live, work and relate to one another; fusing the physical, digital and biological worlds. There has never been a more significant time to work in technology. At Glocomms, we are proud to be a leading specialist talent partner in this thriving sector. Founded in 2013, we help clients solve the number one challenge: talent. Today, we provide permanent, contract and ... Know more
Related Jobs
- Company Name
- LCA Consulting Services
- Job Title
- ORACLE CLOUD DATA MIGRATION LEAD
- Job Description
- Oracle CLOUD DATA MIGRATION LEAD My Client Has a requirement form an Experienced Oracle Data Migration Lead to join their project DMI Lead Role Strong operational contribution (validation of the ERP Integrator's Functional Specifications, pre-validation of the functional frameworks of the data transfer flows) Follow-up of the delivery of an ERP Integrator team (in charge of building the data recovery tool) Follow-up of the delivery of the accounting firm source of the data Coordination of all operational stakeholders (ERP Integrator, Source Accounting Firm, LHG IT Team, LHG Functional Experts: alignment of functional and technical rules) Reporting to the SILK Programme Good level of expertise on Oracle Cloud, Several experiences on DMI sites with an approach to industrialization of takeover processes (extraction, transformation & mapping, loading, controls & reconciliation), Good expertise in the manipulation of Data for reconciliation purposes, Good functional level of GL, AP, AR & Master Data accounting to contribute to functional controls at the different stages of the migration Ability to make DMI arbitrations with Program management as appropriate. This is a French Speaking role
- Company Name
- Qiu
- Job Title
- Data Engineer
- Job Description
- Type de contrat : Mission à durée indéterminée Localisation : Télétravail (avec possibilité de présentiel à l'avenir) Description du poste Dans le cadre du lancement d’une nouvelle activité, nous recherchons un expert autonome, expérimenté et créatif, capable de concevoir et de mettre en œuvre des solutions avancées pour collecter, structurer et enrichir des données. Vos missions principales Développer et déployer des scripts et outils de scraping robustes pour collecter des données issues de diverses sources publiques. Garantir la qualité des données collectées : nettoyage, structuration, enrichissement et formatage selon les besoins. Gérer et organiser des bases de données volumineuses en optimisant leur accessibilité et leur utilisation. Proposer des solutions innovantes pour contourner les limites techniques (captchas, restrictions IP, etc.) et maximiser l’efficacité des processus. Collaborer avec l’équipe pour identifier les opportunités d’amélioration et intégrer des outils d’automatisation performants. Compétences techniques et qualités requises Maîtrise de Python et des outils de scraping (ex. : BeautifulSoup, Scrapy, Selenium ou équivalents). Compétences en gestion de bases de données (SQL, MongoDB ou autres). Expérience avec des API publiques et privées pour l’extraction et l’intégration de données. Solides compétences en analyse et structuration de données (Excel, CSV, JSON). Expertise en automatisation des processus liés à la collecte et au traitement de données. Capacité à travailler en totale autonomie, avec un sens aigu de l’organisation et une gestion proactive des priorités. Créativité et adaptabilité pour proposer des solutions innovantes face aux contraintes techniques. Ce que nous recherchons Une expérience solide dans la collecte et la gestion de données (minimum 3 ans préférable, mais la compétence primera). Une personnalité autonome, ambitieuse et orientée résultats. Une capacité à s’approprier pleinement une mission et à la mener de bout en bout avec un minimum de supervision. Rémunération et modalités Rémunération : à négocier en fonction de l’expérience et des compétences. Télétravail flexible, avec une disponibilité immédiate souhaitée. Comment postuler ? Envoyez-nous votre CV, accompagné d’un bref message expliquant pourquoi ce poste vous correspond, ainsi que des exemples de projets ou réalisations liés à la collecte et à la gestion de données. Postulez dès maintenant et devenez un acteur clé du développement de notre projet innovant !
- Company Name
- DATAROCKSTARS
- Job Title
- Data Scientist / Analyst - Formateur
- Job Description
- Chez DATAROCKSTARS, nous formons les futurs experts en Data Science et Intelligence Artificielle. Nos programmes pratiques et interactifs permettent à nos apprenants de se démarquer sur un marché en constante évolution. Nous recherchons un Formateur Data Scientist / Analyst Freelance pour accompagner nos apprenants dans leur montée en compétences, notamment sur des sujets innovants comme l’IA générative. Votre mission : Animer des sessions de formations en ligne pour transmettre votre expertise. Partager vos connaissances sur des sujets avancés, notamment l’IA générative et ses applications. Accompagner les apprenants dans la réalisation de leurs projets et répondre à leurs questions. Fournir des feedbacks personnalisés pour maximiser leur progression. Niveau des apprenants : de débutant à avancé Profil recherché : Expérience professionnelle significative en Data Science, avec une bonne connaissance de l’IA générative. Aptitudes pédagogiques, capable de vulgariser des concepts complexes. Expérience dans le développement de contenus pédagogiques. Aisance avec les outils de formation à distance (Zoom, Google Meet, etc.) Ce que nous offrons : Travail 100% à distance, flexible Supports pédagogiques fournis, avec possibilité de les enrichir. TJM : Selon profil et expérience. Démarrage : Dès que possible
- Company Name
- Smartedge Solutions
- Job Title
- Data Engineer.
- Job Description
- Job Description : Hands-on experience writing Production quality code in Scala (Must) and Spark Hands-on experience on big data technologies, including the mapr filesystem, Apache Spark, Hadoop, Kafka & Impala. Proven experience with the Apache Spark Architecture and components. Hands-on experience on scripting languages including Bash scripting and Python. Knowing different kinds of database technologies, including of course SQL. Previous work with no-SQL databases, like MongoDB will be a plus. Solid knowledge of build tools and in particular Maven and SBT. Experience on building and maintaining DevOps pipelines will be a plus. Cloud: Hands-on experience on Azure cloud technologies. Hands-on experience on Azure Databricks and Databricks SQL. Qualifications Education: University degree in computer science or related field or relevant experience Professional experience of 4 – 9 Yrs • Knowledge of Software Design under Agile frameworks (Scrum, Kanban, SAFe, …). Proven experience on design and maintaining applications using Scala, (Py)Spark, MAPR distribution, Hadoop ecosystem, Kafka, Impala. Hands-on experience on Microsoft Azure, Databricks Other: Good English verbal and written communication skills Strong team player with collaborative mindset Excellent problem-solving and analytical skills. Fast, thorough, and autonomous learner who also understands prioritization Innovative thinker Ability to maintain a proactive and positive attitude in a fast paced, changing environment Thrives in a multi-cultural, global organization Open-minded, should be able to adapt to working in a multi-cultural team atmosphere Flexible to adapt to changing project needs driven by the customers Ability to think out of the box, develop tools to enhance productivity