
Chargé(e) d'études et de statistiques / Data scientist F/H en apprentissage
On site
Lyon, France
Full Time
25-04-2025
Job Specifications
CNAF
Tu souhaites donner du sens à ton parcours professionnel en intégrant un organisme au service de la Solidarité nationale, qui se réinvente chaque jour pour rendre un service plus simple et accessible ?
Et si tu venais développer tes compétences avec nous ?
Qui sommes-nous ?
Tête de réseau des 101 Caf, la Cnaf (1200 salariés) représente la branche famille de la Sécurité Sociale et a pour mission de piloter la politique familiale et l'aide aux populations en situation de précarité ainsi que la politique d'action sociale.
Ton futur service ?
Tu Seras Intégré(e) Au Département Analyse Et Optimisation De La Production De La Direction Du Réseau Qui a Pour Missions De
Développer des requêtes en Python et/ou SQL sous Databricks en lien avec les besoins métier.
Connaître les bases de données du décisionnel et savoir les analyser afin d'être force de proposition.
Concevoir des tableaux de bord sous Power BI pour assister les organismes dans leurs prises de décision.
Suivre régulièrement les indicateurs clés de performance afin d'identifier les axes de progrès.
Description du poste
Concrètement, quel sera ton quotidien ?
Voici un avant-goût des principales missions qui te seront confiées :
Travailler en transversalité avec les différents acteurs de l'organisation pour identifier les opportunités afin d'exploiter les données et de mettre en œuvre des solutions métiers,
Participer l'adaptation et à l'optimisation des programmes / tableaux de bord dans les nouveaux langages de programmation (Python, SQL, Databricks, Power BI),
Valoriser et enrichir les données en travaillant avec des outils de Business Intelligence (Power BI),
Automatiser le traitement des informations et la restitution de résultats à des fins d'analyse et de pilotage,
Accompagner les collaborateurs dans leur montée en compétence sur les nouveaux outils.
Cette Alternance Sera L'opportunité De
collaborer au quotidien avec les équipes performance et production de la Cnaf ;
développer tes compétences en Python, SQL, DataBricks et Power BI ;
prendre part au projet de création d'un tableaux de bord de suivi de la performance du réseau et aux travaux sur le suivi de la qualité !
Mettre en œuvre des méthodes statistiques pour analyser le comportement de nos allocataires et identifier des leviers d'optimisation dans notre stratégie de pilotage.
Profil recherché
Vos compétences
Quel est le profil idéal ?
Etudiant(e) En Master 1 Ou 2 En Statistiques, Modélisation Et Science Des Données (SMSD), Informatique Décisionnel/ Big DATA, Data Sciences, Tu Disposes Des Qualités Suivantes
Appétence pour le domaine de la donnée,
Connaissance des langages et outils informatiques suivants : Python, SQL, Azure, Databricks et Power BI,
Maîtrise des outils bureautiques,
Rigueur, autonomie et persévérance,
Capacité d'analyse et de synthèse,
Aisance relationnelle et rédactionnelle.
Et enfin, tu es enthousiaste à l'idée de rejoindre une structure qui est au cœur du système de protection sociale en France !
Informations complémentaires
Que pouvons-nous t'offrir ?
Un contrat d'apprentissage (uniquement) pour une durée d'un ou deux ans.
Une rémunération attractive (plus avantageuse que le barème légal)
Un lieu de travail sur notre site de Lyon
Des avantages tels que des tickets-restaurant (pris en charge à 60% par la Cnaf), une participation aux frais de transport (75%), un CSE avec des œuvres sociales avantageuses (sport, loisirs, voyages, …), une prime d'intéressement…
L'opportunité d'intégrer l'important réseau professionnel de la Sécurité Sociale et pourquoi pas, d'y poursuivre ta carrière en fonction de tes envies et des possibilités
Si ce challenge t'intéresse, n'hésite plus et postule !
Dans le cadre de sa politique de diversité, la CNAF ouvre ses offres d'emploi à toutes les candidatures.
Les avantages liés au poste
Couverture santé, épargne et prévoyance, télétravail, congés, horaires, formation... Découvrez tout ce que propose la Sécurité sociale à ses salariés !
Découvrez nos avantages
1 offre similaire à ce poste
Légende des icônes des offres
Type de contrat
Localisation
Rémunération
Niveau
Publié depuis
Limite de candidature
Référence
ALTERNANCE - Assistant(e) Statistiques
URSSAF D'AUVERGNE
Type de contrat Contrat d'apprentissage (alternance)
Localisation Clermont-Ferrand (63)
Niveau NIVEAU 3
Publié depuis 1 mois
Limite de candidature le 27/04/2025
Référence NVHADD106655
About the Company
Créée en 1945, la branche Famille est l’une des composantes du régime général de la Sécurité sociale, avec la Maladie, les Accidents du travail – Maladies professionnelles, la Retraite, la Vieillesse et le Recouvrement. Les Caisses d’allocations familiales ont deux missions principales : - aider les familles dans leur vie quotidienne - développer la solidarité envers les personnes vulnérables La Caf de Maine-et-Loire propose aux familles des aides sous forme de prestations, d’équipements, de suivis et de conseils. En Main... Know more
Related Jobs


- Company Name
- Tenth Revolution Group
- Job Title
- Data Engineer GCP
- Job Description
- Tenth Revolution recrute un Data Engineer GCP H/F pour une entreprise en pleine croissance basée à Paris Dans le cadre d'un recrutement en CDI directement chez l'un de mes clients finaux, je recherche un(e) Data Engineer GCP souhaitant s'engager durablement dans un projet stratégique de migration cloud. Vous êtes passionné(e) par la data, l’architecture cloud et souhaitez contribuer activement à la transformation d'une entreprise ambitieuse ? Rejoignez une équipe dynamique de 6 personnes au sein de la DSI et participez à un projet majeur de migration vers GCP ! Pourquoi ce poste est fait pour vous ? Nous recrutons un Data Engineer GCP expérimenté, capable d'accompagner, de challenger des partenaires externes et de s’impliquer dans la construction d'une architecture moderne et scalable. Vous serez un acteur clé dans la migration de l'environnement on-premise (SQL Server 2019) vers GCP et la refonte de la Data Platform. Vos missions principales : Data Platform OPS Gestion, maintenance et amélioration continue de la plateforme de données sur GCP. Garantir la performance, la sécurité et l’opérabilité de la Data Platform. Architecture Contribuer à la définition et à l’évolution de l’architecture cloud de la plateforme. Assurer la scalabilité et l'efficacité des solutions développées. Engineering Développer et optimiser des pipelines de données sur GCP (BigQuery, Dataproc, Dataflow…). Intégrer des flux entrants et sortants robustes et performants (ETL / ELT). ML Ops & Delivery Accompagner les projets Agile et les Data Scientists pour le déploiement de modèles IA/ML. Mettre en œuvre les bonnes pratiques de CI/CD, sécurité et excellence technique. Collaboration Travailler étroitement avec les équipes métiers (finance, marketing, commercial...) pour comprendre et traduire les besoins business en solutions data performantes. Challenger les équipes externes et garantir la qualité des livrables. Profil recherché : Minimum 5 ans d'expérience en Data Engineering, avec 2 à 3 ans d'expérience concrète sur GCP. Maîtrise des principaux services GCP : BigQuery, Dataproc, Dataflow, Composer, Terraform, Databricks, Looker... Solide expérience en Python et SQL. Compétences en CI/CD, GitLab, bonnes pratiques DevOps et Terraform. Forte capacité d’analyse, sens de l'organisation et autonomie. Compétences clés : Savoir-faire : Python, SQL GCP (BigQuery, Dataflow, Composer, Dataproc…) Databricks Intégration de données ETL/ELT Terraform, GitLab CI/CD Culture MLOps Savoir-être : Organisé(e) et structuré(e) Proactif(ve) et force de proposition Bon(ne) communicant(e) Dynamique Esprit d'équipe et culture de l’excellence Ce que nous offrons : Un CDI en interne chez un client final solide et ambitieux Un projet de migration vers GCP structurant et stimulant Une équipe experte et bienveillante Un environnement moderne tourné vers l’innovation et l’amélioration continue De réelles perspectives d’évolution au sein de la DSI KPI de succès : Robustesse et qualité du code livré Vélocité et fiabilité des livrables Qualité de la documentation technique Contribution active à la réussite du projet de migration GCP Intéressé(e) ? N’hésitez pas à postuler ou à me contacter directement pour en savoir plus sur cette belle opportunité en CDI !


- Company Name
- Yuma AI (YC W23)
- Job Title
- Senior Full-stack / Rails Engineer, AI & Product Focused, France
- Job Description
- About Yuma: Yuma is building Autonomous AI Agents dedicated to customer support and e-commerce. We have a fairly advanced platform supporting more than a hundred paying customers. Our agents are powered by knowledge and processes. They take actions and fetch external information from internal apps as needed. Our top merchants are automating up to 60% of their support tickets through Yuma. Yuma was founded by Guillaume Luccisano, a 3rd time YC founder. Role Overview We are still a small team of 6 engineers, but we are moving quickly! Iteration speed is key. We have built a lot over the past year, but there is still so much to do! We do a mix of iterations, A/B testing, LLM research projects, new feature development, performance work, and more. We are heavily focused on delivering value to our users and are very product-focused. This is the only thing that matters. Our backend is a standard Ruby on Rails API powered by PostgreSQL, Redis, and Sidekiq jobs. We already have a fair amount of load ingesting and processing millions of support tickets monthly. About You: You have led and built multiple large Rails applications, and you always strive for excellence. You are pragmatic, making the right trade-offs that favor speed of iteration while maintaining high product quality. You are driven by delivering the best experience and value to your users. You might have a preference for working on backend projects, but you aren't afraid of frontend work. Rails has no secrets for you. Recent experience playing with LLMs is a huge plus, and pretty much getting mandatory in 2024 now :) Building with LLM and a non-deterministic output is a very different kind of engineering too! If you are relentless and looking to join an early, hard-working team, we want you. We are seeking someone who is looking to embrace a new challenge and commit to it 100%. Your diploma don't matter to us; we only care about your skills. OUR CULTURE Please, if you are considering applying, first read our culture page: https://www.notion.so/yuma-ai/Yuma-s-Culture-5b0e15f1334242ce8a62daab9f2038a1?pvs=4


- Company Name
- SUEZ
- Job Title
- Head of Data Governance interne H/F
- Job Description
- Type de contrat CDI QUI SOMMES-NOUS Avec 40 000 collaborateurs présents sur les cinq continents, SUEZ est un leader mondial dans la gestion intelligente et durable des ressources. Le Groupe fournit des solutions de gestion de l'eau et des déchets qui permettent aux villes et aux industries d’optimiser la gestion de leurs ressources et d’améliorer leurs performances environnementale et économique. VOTRE MISSION Pour atteindre l'objectif stratégique de Suez de transformer ses données en un véritable actif, SUEZ réorganise ses services en créant une Direction DATA et FLUX rattachée au DSI du Groupe. Au sein de cette nouvelle direction, le / la Head of Data Gouvernance est le responsable de la mise en œuvre de la stratégie de gouvernance des données dans l’entreprise. Il anime une équipe de 6 à 10 personnes, en charge de diriger et gérer toutes les activités de gouvernance à l’échelle de l’organisation. L’équipe est également responsable de l’amélioration de la qualité des données et de la protection des actifs de données. Très proche des équipes BI de la direction et des Data Engineers, le Head Of Data Governance a les moyens d’agir de manière pratique et pragmatique pour mettre en place des quick wins de mise en qualité des données. Missions Le/la Head of Data Gouvernance pilote le département Data Gouvernance, il sera amené à travailler avec les différentes équipes métier situées en France (Eau France et R&V) et à l’international, avec les fonctions supports du Groupe et les autres équipes de la DSI. Il aura comme missions avec son équipe : Le déploiement d’une gouvernance des données : Piloter la road map data relative à la mise en œuvre de la gouvernance des données d’entreprise, y compris l’établissement des priorités stratégiques liées aux données. En déployant un cadre de gouvernance des données à l’échelle de l’entreprise, axé sur l’amélioration de leur qualité , de leur partage et leur protection. Contribuer à la définition de la feuille de route des uses cases à mettre en place avec les autres départements de la Direction et les métiers et fonctions supports du Groupe. Définir et mettre à jour des processus de gestion des données, des normes et bonnes pratiques dans le cadre des projets (data by design) et des demandes d’exposition des données sur la plateforme data. Piloter le travail sur les master data avec l’aide du Master Data architecte de l’équipe.. Animer le data gouvernance Council Mensuel avec les Data Domain Owner et les Data Managers nommés dans le Business.. Mettre en place les indicateurs de la road map data ainsi que des indicateurs sur la qualité des données. La formalisation des besoins Métier et le suivi de la mise en œuvre des solutions Data : En travaillant en étroite collaboration avec les responsables des différents départements de Suez, comprendre, recueillir et analyser les besoins des équipes métiers sur les données référentielles et leurs utilisations dans les différents systèmes SI Cadrer et consolider les expressions des besoins et leur structuration par domaines (Commerce/ Relation client/ Exploitation/ Facturation) Apporter la vision DATA lors de la construction de projets applicatifs en s’intégrant aux équipes projets. Contribuer à la définition de l’architecture SI et à la modélisation de la solution cible, en lien avec le responsable architecture platform de la Direction, Assurer un niveau d’exigence pour la qualité des données collectées, en améliorant la protection réglementaire et en soutenant une stratégie de gouvernance adaptée. L’acculturation / sensibilisation à la DATA Adapter et déployer le programme d’acculturation : plans de sensibilisation, de formation et d'amélioration des compétences en matière de données en collaboration avec les métiers Être un agent du changement en travaillant en étroite collaboration avec les propriétaires de données et domaines d'activité pour s'assurer de la compréhension de l'importance des données Mettre VOTRE PROFIL Votre Profil Et Compétences Compétences de compréhension des métiers et des processus et capacité à traduire les besoins en spécification data Capacité à décomposer des problèmes et des projets complexes en objectifs gérables. Maitrise d’outils d’analyse et reporting ( Power BI; Code Python un plus; Techno GCP et connaissance d'un Master Data Management et d'un data catalog) 10 ans d'expérience dans la conception et la mise en œuvre de stratégies de données, initiatives big data/IA ou de gouvernance des données Compréhension approfondie de la stratégie d'entreprise Expérience dans la direction de projets de grande envergure et la gestion d’équipes data Appétence pour les technologies autour de la data (Business intelligence, Data Science, API management, analytics, big data,..) Qualités Et Capacités Pédagogue Leadership et capacité à fédérer État d'esprit agile, innovant et collaboratif Capacité d’analyse et de synthèse Animation transversale Qualité relationnelle Capacité à travailler en équipe Capacité d’écoute Suez préserve l’équilibre entre vie professionnelle et privée, ce poste est ouvert au télétravail. BU: Business Partners - HQ & Fonctions Mutualisées CATEGORY: Cadres


- Company Name
- Tenth Revolution Group
- Job Title
- DataOps AWS
- Job Description
- Nous recherchons un Expert DevOps orienté Data Engineer pour accompagner un client majeur dans le cadre d’un projet stratégique de migration cloud, en partenariat étroit avec les équipes AWS (consulting). Vous jouerez un rôle central dans la modernisation d’environnements complexes et critiques, tout en contribuant à des projets de transformation d’envergure. Votre mission Piloter et participer activement à des projets de migration cloud à grande échelle, en environnement AWS. Concevoir et mettre en œuvre des stratégies de migration robustes : analyse du legacy, définition des roadmaps, gestion des risques. Travailler dans des environnements containerisés (EKS) et assurer la gestion de l’infrastructure via Terraform ou AWS CDK. Exploiter les services AWS clés pour la migration et la synchronisation de données : AWS Application Migration Service AWS Database Migration Service (DMS) AWS DataSync Garantir la haute disponibilité, la sécurité et la conformité des environnements migrés. Automatiser les déploiements et l’infrastructure grâce aux outils Infrastructure as Code (IaC) et CI/CD. Collaborer efficacement avec des équipes techniques et métiers, en français et en anglais. Profil recherché 5 ans d’expérience minimum sur le cloud AWS, dans des contextes de transformation ou de migration. Maîtrise des principes DevOps, avec un fort ADN orienté Data Engineering. Expérience avérée en migration de systèmes legacy vers AWS, incluant l’évaluation des infrastructures existantes. Solide expertise sur l’écosystème AWS, notamment : Services de migration Conteneurisation (EKS) Sécurité, réseau, conformité Bonne connaissance des pratiques DevSecOps et de l’automatisation via IaC. Certifications AWS (Solutions Architect Professional, Migration Competency) appréciées. Bilingue français / anglais, à l’aise dans des contextes multiculturels. Pourquoi rejoindre ce projet ? Mission à fort impact, en relation directe avec les experts AWS Cadre technique stimulant, autonomie et responsabilités Environnement technologique avancé, dans un contexte international Contribution à des projets de transformation structurants pour le client