
IoT/Data Platform Engineer
Remote
Grenoble, France
Full Time
20-03-2025
Job Specifications
This is an exciting opportunity for an experienced software engineer passionate about open source software, Linux, and Web Services at scale. Come build a rewarding, meaningful career working with the best and brightest people in technology at Canonical, a growing pre-IPO international software company.
Canonical's engineering team is at the forefront of the IoT revolution and aims to strengthen this position by developing cutting-edge telemetry and connectivity solutions. By integrating reliable, secure, and robust data streaming capabilities into the Snappy ecosystem, we are setting new standards in the industry for ease of development, implementation, management and security.
We are seeking talented individuals to help us enhance our global SaaS services, providing customers with the essential data services needed to build the next generation of IoT devices effortlessly. Our commitment to data governance, ownership, and confidentiality is unparalleled, ensuring our customers can innovate with confidence on top of the globally trusted Ubuntu platform.
Location: This role will be based remotely in the EMEA region.
What your day will look like
Collaborate remotely with a globally distributed team.
Architect scalable service APIs to provide streaming data services to other teams and products using Python and Golang.
Develop data governance, management and auditing systems within our telemetry platform.
Work with our infrastructure team to develop both a cloud-based SaaS offering as well as a containerised on-prem solution.
Design and implement new features and enhancements from spec to production and ongoing operations at scale.
Review code and technical designs produced by other engineers.
Discuss ideas and collaborate on finding optimal solutions.
Work remotely with global travel 2 to 4 weeks for internal and external events.
What we are looking for in you
You love technology and working with a diverse set of talented people.
You are curious, flexible, articulate, and accountable.
You value soft skills and are passionate, enterprising, thoughtful, and self-motivated.
You have a broad technology base but favour backend code and infrastructure.
You have a good understanding of cybersecurity and the challenges of the IoT environment when it comes to connectivity and data streaming.
You have knowledge and experience of telemetry and connectivity systems and platforms including data streaming technologies (MQTT, Kafka, RabbitMQ, etc) observability (OpenTelemetry), industrial/engineering data exchange protocols (OPC-UA, ModBus), and the application of data governance/IAM models to such systems.
You have proficiency in the design and implementation of back-end web services, messaging/data pipelines, and REST APIs using Python and/or Golang.
You are familiar with Ubuntu as a development and deployment platform.
You have a Bachelor's or equivalent in Computer Science, STEM or similar degree.
Willingness to travel up to 4 times a year for internal events
About Canonical
Canonical is a growing international software company that works with the open-source community to deliver Ubuntu, the world's best free software platform. Our services help businesses worldwide reduce costs, improve efficiency and enhance security with Ubuntu. Canonical is a unique tech company - global, remote-first, open source, with 1000+ professionals across 70+ countries. We want to be the world's best, not biggest, global software company. With almost every team remote by default, Canonical sets the pace on the 21st-century digital workplace.
What Canonical offers:
Work from home
Learning and development allowances
Competitive Salary
Annual compensation review
Recognition rewards
Generous annual leave
Paid maternity, paternity and sick leave
Priority Pass for travel
Exposure to international business and technology
We are proud to foster a workplace free from discrimination. Diversity of experience, perspectives, and background create a better work environment and better products. Whatever your identity we will give your application fair consideration.
About the Company
We deliver open source to the world faster, more securely and more cost effectively than any other company. We're also the publishers of Ubuntu, the world’s most popular enterprise Linux from cloud to edge, together with a passionate global community of 200,000+ contributors. Ubuntu means 'humanity to others'. We chose it because it embodies the generosity at the heart of open source, the new normal for platforms and innovation. Together with a community of 200,000, we publish an operating system that runs from the tiny... Know more
Related Jobs


- Company Name
- Thales
- Job Title
- ALTERNANCE Data Science sur des données d'entrainement F/H
- Job Description
- Lieu : Cergy, France Construisons ensemble un avenir de confiance Thales est un leader mondial des hautes technologies spécialisé dans trois secteurs d’activité : Défense & Sécurité, Aéronautique & Spatial, et Cyber & Digital. Il développe des produits et solutions qui contribuent à un monde plus sûr, plus respectueux de l’environnement et plus inclusif. Le Groupe investit près de 4 milliards d’euros par an en Recherche & Développement, notamment dans des domaines clés de l’innovation tels que l’IA, la cybersécurité, le quantique, les technologies du cloud et la 6G. Thales compte près de 81 000 collaborateurs dans 68 pays. Nos engagements, vos avantages Notre savoir-faire technologique Notre attention portée à l’équilibre des collaborateurs Un environnement inclusif et bienveillant Un engagement sociétal et environnemental reconnu (Thales Solidarity, indice CAC 40 ESG…) Votre quotidien A Cergy, vous contribuez aux systèmes d’entraînement et de simulation parmi les plus sophistiqués au monde. Vous rêvez de piloter hélicoptères, avions de chasse ou véhicules blindés ? Rejoignez-nous et relevez les défis des domaines aérien, terrestre, et naval ! Les sessions d’entrainement sur nos simulateurs (Live, Virtuel ou Constructif) offrent la possibilité de collecter d’important volume de données. Une analyse plus fine de ces sorties, au sein d’une équipe de data analysts, permettra de restituer un compte rendu d’entrainement plus efficace et d’améliorer la préparation des sessions suivantes (scénario spécifique avec un niveau de difficulté adapté, …). Vos missions : Définir avec les opérationnels des domaines d’entrainement concernés (terre, air, collectifs) les indicateurs (Key Performance Indicators) pertinents ainsi que les méthodes d’analyse adaptés à ces données. Instrumenter les simulateurs afin d’enregistrer ces données. Développer les algorithmes d’analyse de ces données. Mettre en place la visualisation adaptée de ces indicateurs afin de les présenter efficacement aux instructeurs et aux entrainés. Déployer ces outils d’analyse sur les simulateurs en place. Mon profil Vous êtes issus d'une école ingénieur et vous recherchez une alternance pour votre M1 et M2 ? Vous maitrisez le langage de programmation Python, en particulier les librairies (numpy, pandas) et de visualisation des données (matplotlib, seaborn) Vous maitrisez la base du traitement du signal (filtrage, transformation et traitement des données) Vous maitrisez l’anglais Vous possédez des capacités en recherches bibliographiques (identification et implémentation des méthodes de l’état de l’art) Vous avez les compétences suivantes : Base mathématiques en traitement du signal, statistiques et optimisations Apprentissage automatique et librairies python associées (scikit-learn) Apprentissage profond (PyTorch/Tensor Flow) Méthode de fouille des données (pattern matching/mining, association rules discovery, …) On vous reconnait pour votre : Esprit critique Capacité à résoudre des problèmes Autonomie Communication et esprit d’équipe Mot de l'équipe Vous évoluerez au sein de la direction technique dans une équipe d’innovation à la fois compétente et passionnée et sur le domaine de la simulation d’entrainement qui est en pleine expansion. Thales, entreprise Handi-Engagée, reconnait tous les talents. La diversité est notre meilleur atout. Postulez et rejoignez nous !


- Company Name
- Enova
- Job Title
- Data Analyst H/F
- Job Description
- Missions Dans le cadre du développement de ses activités, notre client recherche un(e) Data Analyst pour concevoir, maintenir et optimiser des outils de pilotage et d'analyse des performances commerciales. Missions Principales Analyse des besoins Recueillir et formaliser les besoins des équipes métiers (commercial, marketing, animation, risque, etc.). Qualifier les données nécessaires et s'assurer de leur fiabilité. Gestion et exploitation des données Modéliser, alimenter et exploiter des bases de données (SQL Server). Gérer les processus d'intégration ETL (Alteryx, Talend ou autre). Développement d'outils décisionnels Concevoir et développer des tableaux de bord et reporting sous Power BI. Mettre en place des solutions de visualisation et d'analyse de données pour améliorer la prise de décision. Mise en production et maintenance Assurer les tests et la validation des solutions avant leur déploiement. Assurer la maintenance et les évolutions des outils analytiques. Documentation et accompagnement Rédiger la documentation fonctionnelle et technique. Former et accompagner les utilisateurs dans l'exploitation des outils mis à disposition. Profil Compétences techniques requises Maîtrise de SAS ou Alter WPS. => OBLIGATOIRE Expertise en Alteryx => (OBLIGATOIRE ou au moins une formation) Solides compétences en SQL Server et manipulation de bases de données. Expérience en intégration ETL (Talend ou autre). Connaissance approfondie de Power BI pour la création de tableaux de bord dynamiques. Expérience Expérience de 2 à 5 ans (inclut alternance) en tant que Data Analyst, idéalement dans un contexte commercial ou bancaire. Conditions Contrat : CDI Description Entreprise Fondé à Genève en 2018, Enova Group offre des services informatiques en Suisse, au Luxembourg, en France et prochainement à Monaco. Spécialisé en conseil stratégique numérique, performance opérationnelle et technologies de l'information. Nous nous concentrons sur les compétences IT les plus recherchées et la gestion complète de projets. Notre expertise holistique nous permet d'accompagner efficacement nos clients dans leurs projets, en cultivant des partenariats solides et en visant l'excellence avec nos experts qualifiés.


- Company Name
- SFEIR
- Job Title
- Data Engineer Confirmé(e)
- Job Description
- Qui sommes-nous ? SFEIR, c’est avant tout une communauté de 900 techs, en France, en Belgique et au Luxembourg, unis par la passion, dont 100 à Lille. Nous aidons nos clients à : - Donner de la valeur à leurs données, innover avec l’IA ; - Être compatible avec le futur en développant leurs architectures SI, Cloud et Data ; - Créer de la valeur grâce aux API & microservices ; - Développer des applications web et mobiles pour améliorer leur expérience client et se connecter partout. Et Lille dans tout ça ? SFEIR Lille c'est : - Une agence créée en 2014 par Nicolas Leroy ; - Cent consultant(e)s qui se connaissent toutes et tous ; - Des managers techniques qui comprennent ton métier ; - Une dizaine de clients actifs en local et une centaine au niveau du groupe ; - Des événements en interne et organisés chaque mois (afterworks, Meetup, formations) ; - Une communauté active : une cinquantaine de conférences externes données en 2022 (Devfest, Devoxx, Meetup…) ; - Des locaux dans le centre de Lille, à 5 minutes des gares !. Ce qui fait notre force ? 1. Notre culture est Digital Native. L’agilité est au cœur de notre fonctionnement. On s’est inspiré des pratiques des entreprises Digital Natives pour construire notre succès : agilité, rapidité dans les prises de décision, organisation décentralisée, promotion et utilisation de l’Open Source, etc. 2. Notre stratégie est co-construite par les Techs pour les Techs. La direction générale et la direction de chaque entité sont co-leadées par un directeur Engineering et un directeur Business. Individuellement, chaque sfeirian reporte à un(e) Engineering Manager, lui(elle)-même consultant(e) et a du temps dédié pour manager. Il(Elle) travaille étroitement avec le Business pour proposer les missions les plus adaptées à chacun(e). 3. Notre communauté est apprenante et dans le partage. Nous sommes partenaires officiels des trois principaux Cloud Provider (Google Cloud, AWS et Azure), de solutions de gestion de données (Databricks, dbt ou Snowflake) mais aussi de solutions infra (Linux Foundation, …). Nous avons nos propres dispositifs de formation (SFEIR Institute, SFEIR School, …). Ça nous permet de former officiellement nos clients, et tout au long de l’année, les sfeirians. Nous sommes présents à de nombreux évènements Techs tant au niveau national que régional : tu as sûrement croisé des sfeirians si tu vas aux Meetup, aux DevFest,… Qui sont les sfeirians ? 100% des consultant(e)s sont des techs passionné(e)s par leur métier. Ce qui nous rassemble aussi, c’est notre envie de contribuer à la communauté et à l’entreprise. On a une hiérarchie plate : on croit que l’entreprise est plus performante quand elle favorise l’autonomie et l’intelligence collective. Tu t’attendais à ce qu’on te parle d’études, de diplômes ou d’expérience, dans cette section ? Chez SFEIR, on n’a qu’un seul critère : c’est ton niveau technique et ta culture tech. On en reparle un peu plus bas ! Ce que tu feras, en tant que Data Engineer confirmé(e) chez SFEIR ? Dans un contexte retail, Thomas accompagne les équipes data dans la construction d’applications de pilotage d’activité, de performance commerciale et d’aide à la décision. Utilisés par les magasins ou les équipes marketplace, ces outils ont un véritable impact sur la performance des domaines. Dans cette mission, Thomas apporte son expertise sur les technologies suivantes : Google Cloud (BigQuery, Firestore, Cloud Run), Looker Studio, Terraform, Github Actions. Jonathan accompagne un grand compte dans la migration d’un stack data Hadoop vers Google Cloud. L’approche Lift and Shift permet de migrer l’ensemble des traitements Spark vers Dataproc. Les technologies suivantes sont au cœur de sa mission : Google Cloud (Dataproc, BigQuery, Cloud Storage), Apache Spark, Python, SQL. La mission de Florian est orientée domaine supply. Le projet a pour but l'optimisation du contrôle de marchandise lors de la livraison fournisseur. La solution mise en place est un algorithme de Machine Learning qui prend la décision de contrôle, en temps réel à partir du contenu de la commande. Il travaille avec les technologies suivantes : Google Cloud (Composer/Airflow, Dataflow/Apache Beam, Firestore, BigQuery, Cloud Monitoring, Vertex AI), Docker, Kafka, GKE, Datadog, FastApi, Github Actions. Comment on va t’aider à progresser : - Des points mensuels avec ton(a) manager, qui est un(e) tech comme toi ; - Des formations et des certifications selon tes besoins ; - L’opportunité de travailler au plus près de l’IA avec entre autres l’utilisation de RAISE, notre propre plateforme d’IA générative ; - La possibilité de choisir ta mission et d’en changer lorsque tu en auras fait le tour ; - … Bref, on sera là pour t’accompagner dans toutes les situations. Et si tu souhaites évoluer ? Nous proposons des possibilités d'évolution verticales et horizontales. Nous pourrons t'accompagner pour te certifier ou évaluer sur une autre spécialité, ou encore devenir Data Architect. Tu auras également la possibilité de prendre des rôles en interne si tu le souhaites : - Évaluateur(trice) dans le processus de recrutement ; - Formateur(trice) SFEIR School ou SFEIR Institute ; - Speaker(euse) lors de conférences, Meetup, talks internes, auprès des écoles ; - Engineering Manager si tu veux manager une équipe tout en restant dans la technique ; - Staff Engineer si tu veux devenir contributeur(trice) individuel(lle), en apportant ton expertise à tous les métiers de SFEIR et à nos clients. Et si tu as d'autres envies, on en discute, chacun(e) est différent(e) et on fait au cas par cas. Combien tu vas gagner chez SFEIR ? A l’issue des PlayOffs, nos tests techniques, on sera en mesure de déterminer tes compétences, et surtout ton potentiel afin de te proposer une rémunération adaptée. Pour te donner une idée, la rémunération moyenne au sein de SFEIR Lille pour un(e) Data Engineer confirmé(e) avec ton expérience démarre à 44 000€ brut par an. Ton salaire sera ensuite revalorisé chaque année. Tes compétences, rien que tes compétences ! Présentiel ou télé-travail ? Les deux, capitaine ! La plupart de nos clients sont en mode hybride. Le classique, c’est 3 jours / 2 jours. La suite des événements : 1. Si tu réponds à cette annonce, un mail arrivera chez Agathe RITOUET, Lisa TOTI, Gaëlle SPREUX et Khadija YANOURI, les recruteuses de l’agence de Lille ; 2. L’une de nous te recontactera sous 2 jours pour un échange téléphonique d’une quinzaine de minutes ; 3. Parce que chacun(e) est unique, un entretien RH te sera proposé pour comprendre ton parcours et tes envies ; 4. Si tout est ok, on te proposera de passer les PlayOffs. Ce sont nos tests de sélection. Tu vas échanger et faire du pair programming avec 3 sfeirians en : - Algorithmique - Langage Python ou SQL - Connaissances des outils, et architectures Data. Les évaluateurs(trices) pourront aussi te donner un aperçu de la culture d’entreprise et de la vie chez nous ! Tu pourras aussi discuter avec...


- Company Name
- Free-Work
- Job Title
- Data analyst junior
- Job Description
- Spécialisé dans le secteur bancaire, l'entreprise recherche un Data Analyst junior pour rejoindre ses équipes et intervenir sur le projet de facturation électronique TESSI, en lien avec la réglementation en vigueur. Vous travaillerez sur un périmètre Workplace et Finance d’Entreprise, avec une forte composante data pour optimiser les processus et assurer la conformité des données. Missions principales : Analyser et exploiter les données liées au projet de facturation électronique. Concevoir et mettre en place des tableaux de bord pour assurer le suivi et le reporting des données. Assurer la qualité et la fiabilité des données dans le cadre des réglementations en vigueur. Collaborer avec les équipes métiers et techniques pour comprendre les besoins et fournir des analyses pertinentes. Participer aux tests et à la validation des flux de données. Utiliser SQL pour extraire, manipuler et analyser les données. Suivre l’avancement des tâches et des projets via JIRA. Profil candidat: Profil recherché : Expérience confirmée en tant que Data Analyst. Connaissance du périmètre Workplace et Finance d’Entreprise appréciée. Maîtrise de SQL pour l’analyse et le traitement des données. Expérience avec JIRA pour la gestion des tâches et du suivi projet. Capacité à travailler sur des projets réglementaires liés à la facturation électronique. Bon esprit analytique, rigueur et capacité à travailler en équipe.