cover image
Micropole

DATA ENGINEER AWS F/H

Hybrid

Levallois-Perret, France

€ 50,000 / year

Full Time

27-11-2024

Share this job:

Score my CV

Job Specifications


Prêt(e) à rejoindre l’aventure  Micropole ? N’attendez plus !
Dans le cadre du développement de notre entité Cloud4Data, nous recherchons nos futurs collaborateurs souhaitant developper leur carrière professionnelle dans les enjeux de la Data. Cloud4Data est spécialisée dans la transformation des entreprises par la Data en utilisant toute la puissance des solutions Cloud.
Nous accompagnons nos clients par du conseil (stratégie de transformation par la Data) et par de l'expertise (projet de Data Platform) sur leurs principaux enjeux BI, décisionnelles, analytiques, Big Data, AI/ML/GenAI. Nos expertises sont principalement sur AWS, GCP, Microsoft Azure, Snowflake et Databricks. Nos équipes sont principalement constituées d'architecte Data/Cloud, Data ingénieur, Data analyste, Data scientiste et DevOps/SRE.
En tant que Consultant Confirmé :
Au sein de notre agence basée à Levallois-Perret, vous rejoindrez nos experts Cloud4Data . En tant que Data Engineer Confirmé AWS, vous accompagnerez les directions métiers dans l'évaluation de l'efficacité de leur processus et dans leur stratégie pour optimiser leur performance.
Dans vos missions quotidiennes, vous serez amené(e) à :
· 40% : développer et maintenir des cas d’usages clients avec les outils et les infrastructures Big Data / Cloud AWS. Modéliser et analyser des données dans le Cloud. Garantir la sécurité / compliance des données ;
· 40% : apporter votre réflexion sur des problématiques métiers à travers l’exploitation et la compréhension des données. Identifier les sources de données les plus pertinentes et restituer des résultats de façon concise et visuelle ;
· 10% : réaliser une veille technologique pour être à la pointe sur les solutions cloud & Data ;
· 10% : participer au développement de notre entité Cloud4Data.

Profil recherché
Vos compétences techniques : ·
Vous avez un minimum de 2 années d’expérience sur des projets Data et idéalement au moins une première expérience sur des projets Cloud AWS (EC2, RDS, Lambda, Kinesis, Redshift, EMR, Connect, SageMaker etc),
· Vous maîtrisez au minimum un langage de programmation (Spark, Scala, Python, Java, R) ;
· Vous avez une maitrise des théories et outils de modélisation de données,
· Vous maitrisez des outils et framework d’industrialisation, IaC, CI/CD et/ou gestion de version,
· Vous avez passé au moins une certification AWS technique, et vous avez l’ambition de vous préparer à d’autres.
Vos atouts :
· Vous êtes passionné(e), rigoureux(se), curieux(se) et à l’écoute ;
· Vous avez un bon niveau d’anglais qui vous permet d’intervenir sur des projets à dimension internationale ;
· Vous développerez votre créativité et votre curiosité grâce à une veille technologique accrue qui vous permettra de challenger les besoins de vos clients.
· Vous souhaitez vous impliquer dans le développement d’équipes et de communautés techniques autour du Cloud AWS et des solutions Data.
Devenir #INNOVATIVEPEOPLE, c’est :
Intégrer une communauté de 1100 experts passionnés répartis entre la France, la Belgique, le Luxembourg, la Suisse, l’Espagne et la Chine ;
Construire ensemble les solutions stratégiques et innovantes de demain pour accompagner nos clients dans leur transformation data et digitale ;
Participer au développement de notre entité Cloud4Data qui regroupe les 3 clouds : AWS, Microsoft Azure, GCP ;
Evoluer continuellement au travers de formations et de certifications sur les plus grandes technologies grâce à Micropole Campus.
S’assurer d’une innovation continue grâce à : notre écosystème de partenaires technologiques ; notre accélérateur de start’up databoost’R ; nos lieux d’innovations « innovativeSpaces » et de co-construction avec les clients ; notre management par les talents naturels.
La vie chez Micropole, c'est :
Une vie interne rythmée pour se familiariser à la culture d’entreprise et aux valeurs de Micropole ;
Des évènements internes réguliers pour partager les connaissances aussi bien techniques que fonctionnelles ;
Une politique de formation attractive et éclectique ;
Un travail en équipe valorisé pour une meilleure cohésion ;
La participation à des projets internes sur la base du volontariat.

About the Company

Groupe international de conseil spécialisé dans la transformation des entreprises par la Data, MICROPOLE accompagne ses clients par une approche globale : stratégie « data driven », Cloud Acceleration, Digital Business. Depuis les 14 agences, en Europe et en Chine, les 1200 #INNOVATIVE PEOPLE du Groupe apportent leurs expertises du conseil à la mise en œuvre, pour aider leurs clients à garder un temps d’avance et avoir un impact business positif par l’innovation Data. MICROPOLE réalise 40% de son chiffre d’affaires à l’int... Know more

Related Jobs

Company background Company brand
Company Name
Tata Consultancy Services
Job Title
Data Engineer (H/F)
Job Description
Tata Consultancy Services (TCS) est une société de services informatiques et de conseil qui s'associe depuis 55 ans à de nombreuses entreprises parmi les plus importantes au monde dans leurs parcours de transformation. En tant que membre du groupe Tata, le plus grand groupe multinational de l'Inde, TCS compte plus de 614 000 consultants parmi les mieux formés au monde dans 55 pays. TCS France est au service de plus de 80 clients (marques réputées et faisant partie du CAC40) en France depuis plus de 28 ans avec 1 500 employés et des investissements couvrant toutes les régions. Avec son centre d'innovation et plusieurs centres de service, TCS France délivre une croissance à deux chiffres depuis plus de 5 ans en accompagnant ses clients dans leur transformation digitale et leurs problématiques Data et cloud. Missions : Contributeur lors de la mise en place d’entrepôts de données, des stratégies d’extraction et de récupération des données Interagir avec les analystes fonctionnels, développeurs et architectes Développer et assurer l’évolution de l’infrastructure Compétences techniques : 4 ans et plus d'expérience professionnelle en Data Engineering Must-have : AWS Services for Data integration, Big Data, SQL, Spark, Python, Agile SCRUM Certification AWS Good-to-have: Informatica Power BI Autres compétences : Culture centrée sur la donnée Bonne communication Anglais : le niveau B2 est le minimum requis Les + chez TCS : · Rémunération attractive Fixe + Variable · Prime de vacances · Participation · CSE · Rejoindre un groupe international présent dans 50 pays · Travailler sur des projets ambitieux et innovants · Participer aux événements de notre communauté : meetups suivi d’afterworks, Tech Week, … · Et parce que nous voulons vous aider à vous épanouir et à vous perfectionner nous vous proposons des formations régulières et la participation à des conférences. Et le télétravail dans tout ça ? Sauf en de rares exceptions, tout le monde bénéficie de 2 à 3 jours par semaine !
Paris, France
Hybrid
Full Time
27-11-2024
Company background Company brand
Company Name
axYus
Job Title
Ingénieur DevOps Cloud F/H
Job Description
Pour accompagner notre forte croissance et l’évolution de l’architecture de nos applications, nous recherchons un(e) Ingénieur DevOps pour notre agence d'Issy-les-Moulineaux. Vous créez des applications et vous êtes en charge de leur déploiement et exploitation. Rattaché(e) à l’équipe infrastructure, vous interviendrez aux côtés des équipes de développement en charge de nos différents projets pour industrialiser la construction, le déploiement et l’exploitation de nos applications. Responsabilités L’administration, le maintien et l’évolution de nos systèmes et outils CI/CD, La définition des pipelines CI/CD sur nos projets, L’accompagnement de nos équipes de développement sur le CI/CD, La définition de l’architecture d’exploitation de nos applications, Le suivi du déploiement de nos applications, Veille technologique. Profil recherché Vous disposez d’une expérience de 5 ans minimum sur un poste similaire. Au delà de vos compétences techniques, vous devez être à l’écoute des clients et des équipes internes axYus pour comprendre le besoin, le formuler dans un langage technique pour les uns ou le vulgariser pour les autres. Compétences requises Environnement Linux : scripting shell (Bash), supervision système Construction et utilisation d’applications conteneurisées (Docker, containerd) Plateforme de gestion de conteneurs Kubernetes et outillage associé (Helm, flux, argocd) Outils de déploiement automatisé (Ansible) Infrastructure as code (Terraform) Outils de développement collaboratif et d’intégration continue (Git, GitLab) Outils d’observabilité : collecte et visualisation centralisée de logs applicatifs et de métriques, alerting (Prometheus, Grafana) Service cloud Sécurité des systèmes (cloisonnement réseau et authentification type SSO) Méthodologies agiles et DevSecOps Aisance relationnelle, sens du service Les technologies principalement utilisées chez nous : Architecture applicative : Backend Java 17 / Spring Boot 3, un frontend Angular 17, une base de données PostgreSQL 16, et Flyway pour le versionnage de la base. Intégration continue : GitLab CI, Harbor, Sonarqube, Dependency Check, Helm et ArgoCD. Cloud au sein d'un cluster Kubernetes.
Issy-Les-Moulineaux, France
Hybrid
Full Time
27-11-2024
Company background Company brand
Company Name
TOMORROW JOBS
Job Title
Senior Data Analyst F/H
Job Description
Vous serez chargé.e de mettre en place des analyses stratégiques et donner des insights pertinents pour orienter les décisions métiers. Vos missions seront les suivantes : Etre responsable de la collecte, de la transformation et de la gestion des données ; Réaliser des analyses exploratoires pour identifier des tendances, anomalies et insights pertinents ; Développer, suivre et optimiser les KPIs pour donner une vision précise de l’activité et des leviers de croissance ; Concevoir des visualisations de données claires et percutantes ; Collaborer avec les équipes métiers pour comprendre leurs besoins et traduire les données en recommandations opérationnelles ; Assurer la documentation des processus analytiques, des modèles de données et des insights. Stack technique en interne : Ingestion : Airbyte Data warehouse : PostgreSQL Transformation : Airflow / dbt Data visualization : Tableau Analytics : Python & SQL Profil recherché Vous disposez au minimum de 4 ans d'expérience en analyse de données. Maîtrise de Python, des requêtes SQL et noSQL avancées, des outils de visualisation de données ; Vous êtes capable de créer des représentations claires et impactantes ; Solides compétences en statistiques et probabilités ; Vous êtes à l'écoute des équipes internes et êtes capable de vulgariser des sujets techniques ; Vous avez un bon niveau d'anglais à l'écrit et à l'oral.
Lille, France
Hybrid
Full Time
27-11-2024
Company background Company brand
Company Name
ObjectWare
Job Title
DATA INGINEER H/F (H/F)
Job Description
Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de Data Engineer sur Paris à partir de mi-décembre pour renforcer la SQUAD GOBI (Gouvernance et Outils BI). Raison d'être de la SQUAD : La plateforme BI met à disposition des solutions BI pour l'ensemble des domaines du client en garantissant une gouvernance de bout en bout et en accompagnant les IT et les métiers pour une utilisation des services en toute autonomie. Contexte : Un programme a été lancé sur le périmètre Outre-Mer actuellement sous responsabilité d'EM (Europe Méditerranée). Très schématiquement, ceci va se faire en plusieurs étapes s'apparentant à ce qu'on voit souvent lors des phases de réversibilité (particulièrement sur l'étape 2) - Etape 1 : Désimbrication du SI EM en deux (une partie restera EM et une partie à reprendre par le client) => Action réalisée par EM - Etape 2 : Montée en compétences des Data Engineer (passage de Co) - Etape 3 : Récupération du SI OM désimbriqué par le client Les taches sont : 1ère étape : Monter en compétences avec les équipes Europe Méditerranée Une fois cette montée en compétence réalisée - Déploiement des évolutions sur Vertica et Alteryx avec les Ops - Certaines activités de type DBA sur Vertica (Optimisation de requête .) - Traitement des incidents sur Vertica et Alteryx - Maintien, évolutions et utilisations des tools box Alteryx dans le cadre du run et des incidents - Monitoring des outils et des traitements. - Support N1/N2 auprès des métiers - Gestion des demandes d'évolutions, notamment pour des nouvelles données du DataLake utilisable sur la DataFactory - Gestion des assets avec les Ops sur l'angle migration et gestion de l'obsolescence (pas forcément en 2024 mais par la suite) - En fonction du modèle opérationnel retenu : gestion des chaines Autosys, modifié par l'IT avec la gestion des dépendances dans le jobs Alteryx. L'IT traîte la partie Autosys via des traitements à la main de l'IT. Compétences / connaissances souhaitées : - ALTERYX Maîtrise - VERTICA Maîtrise - les connaissances de TABLEAU / DATAIKU et TERADATA seraient un plus - Agile - Esprit d'équipe, rigueur, motivation, autonomie
Paris, France
On site
Full Time
27-11-2024