Data Engineer / GCP F/H
On site
Levallois-Perret, France
€ 75,000 / year
Full Time
15-11-2024
Job Specifications
En résumé :
Poste : Data Engineer / GCP
Localité : Levallois-Perret
Type de contrat : CDI
Niveau d’expérience : au moins 3 ans
Vous êtes passionné(e)s par la data ? Vous êtes convaincus que l’optimisation du patrimoine data des entreprises est la clé de leur performance ? Vous voulez rendre les entreprises data intelligentes et les aider à se transformer pour préparer dès à présent leur futur ? Vous êtes au fait des dernières tendances et prêt à explorer de nouveaux territoires ?
Vous souhaitez rejoindre un groupe pionnier des grandes innovations data et digitale ?
Si vous avez répondu « Oui » à chacune de ces questions alors devenez Data Engineer pour nos clients grands-comptes dans les secteurs du luxe/retail, banque/assurance et industrie/ services.
Alors, prêt à rejoindre l’aventure Micropole ? N’attendez plus !
Au sein de notre agence basée à levallois-Perret, vous rejoindrez nos experts Cloud. En tant que Data Engineer GCP (F/H) , vous accompagnerez les directions métiers dans l'évaluation de l'efficacité de leur processus et dans leur stratégie pour optimiser leur performance.
Dans vos missions quotidiennes, vous serez amené(e) à :
Développer et maintenir des cas d’usages clients avec les outils et les infrastructures Big Data / Cloud GCP. Modéliser et analyser des données dans le Cloud. Garantir la sécurité / compliance des données ;
Apporter votre réflexion sur des problématiques métiers à travers l’exploitation et la compréhension des données. Identifier les sources de données les plus pertinentes et restituer des résultats de façon concise et visuelle ;
Réaliser une veille technologique pour être à la pointe sur les solutions cloud & Data ;
Participer au développement de notre centre d’excellence GCP.
Profil recherché
Vos compétences techniques :
Vous avez un minimum de 3 années d’expérience sur des projets Data dont au moins une sur des projets Cloud GCP (Compute, Stockage), ou à défaut une certification GCP avec l’ambition de vous préparer à d’autres.
Vous maîtrisez au minimum un langage de programmation (Spark, Scala, Python, Java ou R) ;
Vous avez une maitrise des théories et outils de modélisation de données,
Vous maitrisez des outils et framework d’industrialisation, IaC, CI/CD et/ou gestion de version,
Vos atouts:
Vous êtes passionné(e), rigoureux(se), curieux(se) et à l’écoute ;
Vous avez un bon niveau d’anglais qui vous permet d’intervenir sur des projets à dimension internationale ;
Vous développerez votre créativité et votre curiosité grâce à une veille technologique accrue qui vous permettra de challenger les besoins de vos clients.
Vous souhaitez vous impliquer dans le développement d’équipes et de communautés techniques autour du Cloud GCP et des solutions Data.
Devenir #INNOVATIVE PEOPLE C’est :
Intégrer une communauté de 1200 experts passionnés répartis entre la France, la Belgique, le Luxembourg, la Suisse, l’Espagne et la Chine.
Construire ensemble les solutions stratégiques et innovantes de demain pour accompagner nos clients dans leur transformation data et digitale.
Participer au développement de nos 4 centres d’excellences cloud : AWS, Microsoft, Salesforce, GCP.
Evoluer continuellement au travers de formations et de certifications sur les plus grandes technologies grâce à Micropole Campus.
S’assurer d’une innovation continue grâce à : notre écosystème de partenaires technologiques ; notre accélérateur de start’up databoost’R ; nos lieux d’innovations « innovativeSpaces » et de co-construction avec les clients ; notre management par les talents naturels.
Processus de recrutement :
Chez Micropole, le processus de recrutement est réactif et transparent.
Etape 1 – si votre profil correspond à nos besoins, vous êtes recontactés dans les 72 heures qui suivent votre candidature par Dimitri notre Talent Specialist. Une qualification téléphonique ou physique est organisée rapidement avec Dimitri ;
Etape 2 - Un premier entretien est programmé avec Dimitri en physique ou visio
Etape 3 – Vous rencontrez un manager technique avec l’un de nos experts.
En fonction du poste, vous pouvez passer des étapes supplémentaires (entretien supplémentaire ou test technique)
LA VIE CHEZ MICROPOLE, C’est :
Une vie interne rythmée pour se familiariser à la culture d’entreprise et aux valeurs de Micropole ;
Des évènements internes réguliers pour partager les connaissances aussi bien techniques que fonctionnelles ;
Une politique de formation attractive et éclectique (certifications prises en charge) ;
Un travail en équipe valorisé pour une meilleure cohésion ;
Participation à des projets internes sur la base du volontariat.
#LI-LL3
About the Company
Groupe international de conseil spécialisé dans la transformation des entreprises par la Data, MICROPOLE accompagne ses clients par une approche globale : stratégie « data driven », Cloud Acceleration, Digital Business. Depuis les 14 agences, en Europe et en Chine, les 1200 #INNOVATIVE PEOPLE du Groupe apportent leurs expertises du conseil à la mise en œuvre, pour aider leurs clients à garder un temps d’avance et avoir un impact business positif par l’innovation Data. MICROPOLE réalise 40% de son chiffre d’affaires à l’int... Know more
Related Jobs
- Company Name
- Tata Consultancy Services
- Job Title
- Data Engineer (H/F)
- Job Description
- Tata Consultancy Services (TCS) est une société de services informatiques et de conseil qui s'associe depuis 55 ans à de nombreuses entreprises parmi les plus importantes au monde dans leurs parcours de transformation. En tant que membre du groupe Tata, le plus grand groupe multinational de l'Inde, TCS compte plus de 614 000 consultants parmi les mieux formés au monde dans 55 pays. TCS France est au service de plus de 80 clients (marques réputées et faisant partie du CAC40) en France depuis plus de 28 ans avec 1 500 employés et des investissements couvrant toutes les régions. Avec son centre d'innovation et plusieurs centres de service, TCS France délivre une croissance à deux chiffres depuis plus de 5 ans en accompagnant ses clients dans leur transformation digitale et leurs problématiques Data et cloud. Missions : Contributeur lors de la mise en place d’entrepôts de données, des stratégies d’extraction et de récupération des données Interagir avec les analystes fonctionnels, développeurs et architectes Développer et assurer l’évolution de l’infrastructure Compétences techniques : 4 ans et plus d'expérience professionnelle en Data Engineering Must-have : AWS Services for Data integration, Big Data, SQL, Spark, Python, Agile SCRUM Certification AWS Good-to-have: Informatica Power BI Autres compétences : Culture centrée sur la donnée Bonne communication Anglais : le niveau B2 est le minimum requis Les + chez TCS : · Rémunération attractive Fixe + Variable · Prime de vacances · Participation · CSE · Rejoindre un groupe international présent dans 50 pays · Travailler sur des projets ambitieux et innovants · Participer aux événements de notre communauté : meetups suivi d’afterworks, Tech Week, … · Et parce que nous voulons vous aider à vous épanouir et à vous perfectionner nous vous proposons des formations régulières et la participation à des conférences. Et le télétravail dans tout ça ? Sauf en de rares exceptions, tout le monde bénéficie de 2 à 3 jours par semaine !
- Company Name
- axYus
- Job Title
- Ingénieur DevOps Cloud F/H
- Job Description
- Pour accompagner notre forte croissance et l’évolution de l’architecture de nos applications, nous recherchons un(e) Ingénieur DevOps pour notre agence d'Issy-les-Moulineaux. Vous créez des applications et vous êtes en charge de leur déploiement et exploitation. Rattaché(e) à l’équipe infrastructure, vous interviendrez aux côtés des équipes de développement en charge de nos différents projets pour industrialiser la construction, le déploiement et l’exploitation de nos applications. Responsabilités L’administration, le maintien et l’évolution de nos systèmes et outils CI/CD, La définition des pipelines CI/CD sur nos projets, L’accompagnement de nos équipes de développement sur le CI/CD, La définition de l’architecture d’exploitation de nos applications, Le suivi du déploiement de nos applications, Veille technologique. Profil recherché Vous disposez d’une expérience de 5 ans minimum sur un poste similaire. Au delà de vos compétences techniques, vous devez être à l’écoute des clients et des équipes internes axYus pour comprendre le besoin, le formuler dans un langage technique pour les uns ou le vulgariser pour les autres. Compétences requises Environnement Linux : scripting shell (Bash), supervision système Construction et utilisation d’applications conteneurisées (Docker, containerd) Plateforme de gestion de conteneurs Kubernetes et outillage associé (Helm, flux, argocd) Outils de déploiement automatisé (Ansible) Infrastructure as code (Terraform) Outils de développement collaboratif et d’intégration continue (Git, GitLab) Outils d’observabilité : collecte et visualisation centralisée de logs applicatifs et de métriques, alerting (Prometheus, Grafana) Service cloud Sécurité des systèmes (cloisonnement réseau et authentification type SSO) Méthodologies agiles et DevSecOps Aisance relationnelle, sens du service Les technologies principalement utilisées chez nous : Architecture applicative : Backend Java 17 / Spring Boot 3, un frontend Angular 17, une base de données PostgreSQL 16, et Flyway pour le versionnage de la base. Intégration continue : GitLab CI, Harbor, Sonarqube, Dependency Check, Helm et ArgoCD. Cloud au sein d'un cluster Kubernetes.
- Company Name
- TOMORROW JOBS
- Job Title
- Senior Data Analyst F/H
- Job Description
- Vous serez chargé.e de mettre en place des analyses stratégiques et donner des insights pertinents pour orienter les décisions métiers. Vos missions seront les suivantes : Etre responsable de la collecte, de la transformation et de la gestion des données ; Réaliser des analyses exploratoires pour identifier des tendances, anomalies et insights pertinents ; Développer, suivre et optimiser les KPIs pour donner une vision précise de l’activité et des leviers de croissance ; Concevoir des visualisations de données claires et percutantes ; Collaborer avec les équipes métiers pour comprendre leurs besoins et traduire les données en recommandations opérationnelles ; Assurer la documentation des processus analytiques, des modèles de données et des insights. Stack technique en interne : Ingestion : Airbyte Data warehouse : PostgreSQL Transformation : Airflow / dbt Data visualization : Tableau Analytics : Python & SQL Profil recherché Vous disposez au minimum de 4 ans d'expérience en analyse de données. Maîtrise de Python, des requêtes SQL et noSQL avancées, des outils de visualisation de données ; Vous êtes capable de créer des représentations claires et impactantes ; Solides compétences en statistiques et probabilités ; Vous êtes à l'écoute des équipes internes et êtes capable de vulgariser des sujets techniques ; Vous avez un bon niveau d'anglais à l'écrit et à l'oral.
- Company Name
- ObjectWare
- Job Title
- DATA INGINEER H/F (H/F)
- Job Description
- Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de Data Engineer sur Paris à partir de mi-décembre pour renforcer la SQUAD GOBI (Gouvernance et Outils BI). Raison d'être de la SQUAD : La plateforme BI met à disposition des solutions BI pour l'ensemble des domaines du client en garantissant une gouvernance de bout en bout et en accompagnant les IT et les métiers pour une utilisation des services en toute autonomie. Contexte : Un programme a été lancé sur le périmètre Outre-Mer actuellement sous responsabilité d'EM (Europe Méditerranée). Très schématiquement, ceci va se faire en plusieurs étapes s'apparentant à ce qu'on voit souvent lors des phases de réversibilité (particulièrement sur l'étape 2) - Etape 1 : Désimbrication du SI EM en deux (une partie restera EM et une partie à reprendre par le client) => Action réalisée par EM - Etape 2 : Montée en compétences des Data Engineer (passage de Co) - Etape 3 : Récupération du SI OM désimbriqué par le client Les taches sont : 1ère étape : Monter en compétences avec les équipes Europe Méditerranée Une fois cette montée en compétence réalisée - Déploiement des évolutions sur Vertica et Alteryx avec les Ops - Certaines activités de type DBA sur Vertica (Optimisation de requête .) - Traitement des incidents sur Vertica et Alteryx - Maintien, évolutions et utilisations des tools box Alteryx dans le cadre du run et des incidents - Monitoring des outils et des traitements. - Support N1/N2 auprès des métiers - Gestion des demandes d'évolutions, notamment pour des nouvelles données du DataLake utilisable sur la DataFactory - Gestion des assets avec les Ops sur l'angle migration et gestion de l'obsolescence (pas forcément en 2024 mais par la suite) - En fonction du modèle opérationnel retenu : gestion des chaines Autosys, modifié par l'IT avec la gestion des dépendances dans le jobs Alteryx. L'IT traîte la partie Autosys via des traitements à la main de l'IT. Compétences / connaissances souhaitées : - ALTERYX Maîtrise - VERTICA Maîtrise - les connaissances de TABLEAU / DATAIKU et TERADATA seraient un plus - Agile - Esprit d'équipe, rigueur, motivation, autonomie