
Data Scientist Senior - MLOps & Transformation (F/H)
Hybrid
Boulogne-Billancourt, France
Full Time
17-04-2025
Job Specifications
Le groupe RENAULT s'engage résolument dans une nouvelle ère, propulsée par sa stratégie RENAULution, qui place la Data et l'Intelligence Artificielle au cœur de sa transformation.
Renault Digital, acteur clé de cette révolution depuis 2017, contribue activement à relever les défis de la mobilité de demain et à façonner l'industrie 4.0.
Rejoignez notre Centre d'Excellence IA (AI CoE), une équipe agile de 30 Data Scientists et Data Analysts, et participez à la conception, au développement et au déploiement à grande échelle de solutions Data et IA innovantes qui impacteront l'ensemble de nos activités.
Votre mission :
En tant que Data Scientist Senior, vous serez un acteur clé de la transformation des processus métier de Renault grâce à la puissance de la Data et de l'IA. Votre rôle consistera à :
Comprendre les enjeux métiers : Collaborer étroitement avec les équipes métier pour identifier les défis, les opportunités et les besoins en matière de Data et d'IA.
Concevoir et développer des solutions : Traduire les besoins métiers en problèmes de Data Science et concevoir des solutions innovantes et performantes, allant de la modélisation prédictive à l'optimisation des processus.
Déployer et industrialiser les modèles : Participer activement au déploiement des modèles en production en utilisant les enablers IA implémenté au sein du CoE, en mettant en œuvre les bonnes pratiques MLOps (automatisation, monitoring, gestion des versions...) pour garantir leur fiabilité, leur performance et leur scalabilité.
Contribuer à la création d’enablers techniques : Dans le cadre de nos activités de déploiement, collaborer à la création des outils techniques pour accélérer les processus de mise en production des solutions IA.
Communiquer et vulgariser : Présenter les résultats des analyses et des modèles de manière claire et concise aux équipes métier, en adaptant le discours au public cible et en mettant en évidence la valeur ajoutée des solutions.
Innover et partager les best practices : Se tenir informé des dernières avancées en Data Science / IA et en software engineering afin de contribuer à l'amélioration continue des pratiques et des outils au sein de l'équipe et du groupe Renault en général.
Être un ambassadeur de la Data : Promouvoir la culture Data et l'adoption de l'IA au sein de l'entreprise.
Profil recherché :
Diplôme d'ingénieur ou Master en Data Science, Statistiques, Mathématiques, Informatique ou domaine connexe.
Minimum 5 ans d'expérience en tant que Data Scientist, avec une expérience significative dans la conception, le développement et le déploiement de solutions Data et IA en environnement industriel ou sur le cloud.
Solide connaissance des algorithmes de Machine Learning et des techniques statistiques.
Maîtrise de Python et des principales librairies de Data Science (Scikit-learn, Pandas, NumPy, TensorFlow, PyTorch...).
Bonne connaissance des outils et des pratiques MLOps (CI/CD, conteneurs, Git, Kubernetes, Airflow...).
Familiarité avec les plateformes Cloud (GCP de préférence).
Excellentes compétences en communication et en vulgarisation.
Capacité à travailler en équipe et à collaborer avec des interlocuteurs de différents horizons.
Forte orientation business et capacité à comprendre les enjeux de l'entreprise.
Maîtrise de l'anglais (écrit et oral).
Les plus qui feront la différence :
Profil ayant travaillé sur de multiples sujets dans des environnements variés.
Expérience dans le secteur automobile ou dans un environnement industriel similaire.
Connaissance des enjeux de la mobilité de demain.
Certifications GCP et Dataiku.
Participation à des conférences ou des événements Data Science.
Informations complémentaires :
Poste basé à Boulogne-Billancourt (France) en CDI (temps plein)
Accord télétravail
Vous êtes prêt(e)s à relever avec nous les défis de la data, n’hésitez pas à postuler !!
About the Company
Welcome to Renault Digital ! Our aim ? Digitalizing Renault core business for its employees, partners and clients worldwide ! Innovation is in the Renault DNA. We're working to build tomorrow’s digital abilities and scope. We're new ! We just started our operations on January 1st, 2017. How are we working ? We have based our approach on an inspiring start-up ecosystem. We will work with multidisciplinary teams to support strategic digital projects, aimed at digitalizing all the automotive core business. These teams ... Know more
Related Jobs


- Company Name
- Sia
- Job Title
- Data Engineer - H/F
- Job Description
- Sia Partners réinvente le métier du conseil et apporte un regard innovant et des résultats concrets à ses clients. Nous avons développé des solutions basées sur l’Intelligence Artificielle et le design pour augmenter l’impact de nos missions de conseil. Notre présence globale et notre expertise dans plus de 30 secteurs et services nous permettent d’accompagner nos clients dans le monde entier. A travers notre démarche "Consulting for Good", nous mettons notre expertise au service des objectifs RSE de nos clients et faisons du développement durable un levier de performance pour nos clients. Heka.ai est la marque indépendante de Sia Partners dédiée aux solutions d'IA. Nous hébergeons de nombreuses solutions SaaS alimentées par l'IA qui, associées à des services de conseil ou utilisées indépendamment, fournissent à nos clients des solutions à l'échelle. Description du poste Sia Partners recrute un(e) Data Engineer pour accompagner le développement des activités de la Business Unit Data Science. Vous serez amené(e) à participer aux missions Data Science de Sia Partners chez nos clients, ainsi qu’au développement de nos produits Software-as-a-Service Heka.ai. Vous accompagnerez des Data Scientists, Software Engineers et DevOps Engineers dans des projets à forte composante Data, dans le but de répondre à des challenges techniques autour du stockage, flux et traitement de données. Vous contribuerez activement aux choix technologiques, architecturaux et de gouvernance pour faire face aux enjeux de la mise à l’échelle de projets Data. Les travaux couvriront les thèmes suivants : Pipelines de données : développement de scripts d’ETL dans des écosystèmes Big Data Infrastructures & Services adaptés au Machine Learning : veille technologique et mise en place de solutions utiles aux Data Scientists dans l’entraînement et la mise à disposition de leurs modèles de Machine Learning Programmation en python : développement d'outils exécutés côté serveur (traitement de données en masse, exposition des données via des APIs, ...) Services Cloud: choix d'architecture, utilisation de services de stockage & calcul Qualifications Diplômé(e) d'une formation en École d'Ingénieur ou d'une formation de haut niveau dans le domaine des technologies de l’information, vous justifiez d'une première expérience d'au moins 2 ans en Data, DevOps, Cloud ou Software Engineering. Vous disposez d'un bon niveau en Python, vous permettant de qualifier, enrichir, et traiter de la donnée. C’est un plus si vous maîtrisez un autre langage de programmation Vous maîtrisez les bases de données relationnelles (PostgreSQL, SQLServer, …) C’est un plus si vous maîtrisez un autre paradigme de base de données (Wide-column, Key-value, …) Vous avez de l’expérience avec des outils de calcul distribué, tels que Hadoop ou Spark ou vous avez de l’expérience avec des outils de Machine Learning, tels que Tensorflow ou Torch C’est un plus si vous avez de l'expérience avec les services d’au moins une plateforme de services Cloud (GCP, AWS, Azure) Pour vous, il est essentiel… d’aller au fond des choses : Il est important pour vous de comprendre toutes les nuances de votre dataset d’avoir un état d’esprit “Do it yourself” : Monter en compétence sur une technologie en autonomie pour répondre à une problématique ne vous fait pas peur d’être curieux(se) : Le monde de la data avance vite, mais vos capacités de veille vous permettent de rester à jour Vous êtes curieux(se) et aimez travailler en équipe ? Vous êtes reconnu(e) pour votre sens de l’analyse et du service client ? Vous souhaitez rejoindre un environnement professionnel dynamique et motivant ? Vous partagez nos valeurs que sont l'excellence, l'entrepreneuriat, l'innovation, le partage, la bienveillance et l'équilibre vie personnelle/vie professionnelle ? Vous parlez français et anglais couramment dans un contexte professionnel ? Alors rejoignez-nous ! Informations supplémentaires Poste basé en plein cœur de Paris (métro George V). Pour plus d'information sur notre practice Data Science, consultez notre site https://heka.ai/ Sia est un employeur qui souscrit au principe de l’égalité d’accès à l’emploi. Tous les aspects de l’emploi, tels que le recrutement, les promotions, la rémunération, ou les sanctions sont basés uniquement sur les performances, les compétences, et le comportement des employés ou les besoins de l’entreprise.


- Company Name
- Stakha
- Job Title
- Founding Software Engineer - AI Startup
- Job Description
- Stakha recrute un(e) Founding Software Engineer (50-90k€ fixe brut annuel) pour rejoindre une startup qui met l’IA au service de la médecine. Déjà 500k€ d’ARR en 1 an, autant dire que sa solution a trouvé son marché ! Peut-être avez-vous, vous même, déjà eu du mal à prendre un RDV médical ? standard injoignable, médecins sous l’eau, RDV dans 4 mois… Cette startup travaille justement sur ce pain point pour : offrir un service personnalisé et 24/7 aux patients décharger les cabinets médicaux des tâches chronophages et répétitives et leur permettre de se concentrer sur l’essentiel : le soin ! Voici quelques détails: Project: des agents IA vocaux pour décharger les cabinets médicaux et simplifier la prise de RDV côté patients Staff: 7 people (2 pers in tech) Open Role: Founding Engineer Stack: Python, React, Docker, Kubernetes, AWS Location: Paris, St Lazare Remote policy: 2 days remote per week Salary policy: 50-90k€ gross + BSPCE (depending on seniority, 50k= junior / 90k= senior) Key competencies: 2-10yo XP en développement Fullstack, idéalement sur Python & React mais OK si vous êtes plutôt experimenté sur un autre langage moderne (Typescript, Golang...) Avoir déjà travaillé sur des projets software greenfield / from scratch / ou au sein de startups parler Français couramment Responsibilities : Développement : Améliorer le produit, développer de nouvelles features, et produire de nouveaux agents IA Infra / Monitoring : Améliorer le monitoring de la solution = assurer un service zéro downtime, optimiser les coûts d’infra Déploiement : Déployer la solution dans de nouveaux cabinets / améliorer la vitesse de déploiement Why join them? Avoir de l’autonomie, de la conception au delivery Avoir de l’impact sur la Tech et le Produit Rejoindre un projet proposant une application concrète de l'IA dans le secteur médical Rejoindre un projet qui a déjà trouvé son PMF: déjà 500k€ ARR en 1 an & 5M€ levés cette année ! If you're interested in this opportunity and meet the most essential requirements, don't hesitate to apply! lise For more jobs, please visit https://www.stakha.io/jobs

- Company Name
- Lumenalta
- Job Title
- DataOps Engineer
- Job Description
- About the Role We're looking for a Data DevOps Engineer with deep expertise across both data engineering and DevOps disciplines to join our growing team. This role is critical to our mission of building scalable, secure, and high-performing data infrastructure on AWS. You’ll work with cutting-edge tools and a modern cloud stack, ensuring data flows seamlessly from raw ingestion to business-ready insights. What You’ll Do Data Transformation & Delivery Build and maintain Spark jobs running on EKS/EMR to cleanse and transform raw data into current, consumable layers Leverage DBT for data modeling and transformation pipelines (DBT experience is a plus—not a must) Manage and optimize consumption layers using Trino Implement data quality checks and performance tuning across pipelines DevOps & DataOps Manage infrastructure as code and deploy using CI/CD best practices Set up and maintain monitoring and alerting (CloudWatch, etc.) Secure infrastructure using AWS Secrets Manager and Cognito Handle access and security management in Snowflake Maintain and enhance scheduling and orchestration using Airflow What You Bring Strong experience with AWS cloud services (especially EKS, EMR, CloudWatch, Secrets Manager, Cognito) Proficient in Apache Spark and distributed data processing Experience with Trino (or Presto) and building efficient consumption layers Familiarity with DBT, or an interest in learning it Hands-on with infrastructure-as-code (e.g., Terraform or CloudFormation) Deep understanding of CI/CD pipelines, monitoring, and alerting systems Proven experience managing secure and compliant data systems Proficiency with Airflow or similar workflow orchestration tools Strong ownership mindset and ability to operate across the stack Bonus Points Experience with Snowflake security/access controls DBT experience Previous experience in high-scale, data-intensive environments Why Join Us? Work with a modern data stack and a team that values full ownership and cross-functional skillsets Remote-first team with flexible work culture Opportunity to shape and scale critical infrastructure from the ground up What's it like to work at Lumenalta?


- Company Name
- CELESTAL
- Job Title
- Data Architecture Manager
- Job Description
- Job Overview : As a Data Architecture Lead, you will design, develop, and manage scalable data solutions aligned with business goals. Leading a global team, you’ll oversee data pipelining, transformation, and ensure data quality and security across cloud and hybrid environments. Responsibilities : Data Architecture: Design and implement scalable, reliable data architectures (AWS, Azure, Google Cloud) with modern tech stacks (Spark, Kafka, Scala). Focus on database designs, ETL processes, and data models for growth and efficiency. Data Quality & Security: Ensure high data quality, compliance, and security by working with governance, master data management, and cybersecurity teams. Data Pipelines: Lead the design and maintenance of efficient data pipelines, supporting both batch and streaming data. Strategic Reporting: Simplify and automate reporting processes across product lifecycle management. Collaboration: Partner with IT and business units to ensure data solutions align with reporting and lifecycle management. Team Leadership: Mentor and guide a global team, promoting innovation, performance, and growth. Data Product Management: Oversee end-to-end lifecycle data management and ensure success of data products. Innovation: Stay updated on trends and technologies to drive scalable, cutting-edge data solutions. Requirements : Education: Bachelor’s or Master’s in Computer Science or related field. Experience: 10+ years in data architecture, engineering, database design, and data modeling with expertise in SQL/NoSQL, big data technologies, and cloud platforms. Skills: Proficiency in cloud platforms (AWS, Azure, Google Cloud), big data tools (Spark, Kafka), and data integration tools. Leadership: Proven experience in leading and mentoring distributed teams and driving large-scale data initiatives. Data Governance: Strong knowledge in data security, privacy regulations (GDPR, CCPA), and lifecycle management. Tools: Experience with data visualization tools (Power BI, Tableau) and familiarity with AI/ML technologies is a plus. Industry Experience: Experience in the maritime, shipping, or oil and gas industries is a plus. Language : Fluency in English required.