Votre navigateur est obsolète !

Pour une expériencenet et une sécurité optimale, mettez à jour votre navigateur. Mettre à jour maintenant

×

Nazim Chakik

Architecte Solutions | Cloud | Data | GCP|AWS|Azure #DataOps #DataMesh #NoOps #GitOps #MLOps #FinOps

Nazim Chakik
Driving License
France
Professional Status
Freelancer
Available
Resume created on DoYouBuzz
  • Collaboration étroite avec les métiers, les équipes IT et les squads du Data office
  • Accompagner les projets sur les phases de cadrage, design, build et deploiement
  • Animer les ateliers et définir les differents scenarios d'architectures sur les projets
  • Fournir une expertise technique approfondie aux équipes projets
  • Participation à la conception du Veolia Secure GPT
  • Challenger et guider l’orientation des solutions dans le respect des guidelines d’architecture
  • Challenger et defendre les solutions auprés du Design authority (comité hebdomadaire)
  • Prototyper les solutions techniques préconisées
  • Réaliser des analyses d’impact transverse
  • Se tenir informé des innovations et nouveautés.
  • Azure, GCP, AWS, PowerBI, BigQuery, Fivetran, Collibra, Cloud Run, OpenAI, AWS Bedrock, Gemini, Langchain, Chainlit, Identity Federation, Python, Archimate
  • Conception et mise en place de la Data plate-forme
  • Supporter la stratégie Data centric construite auprès des équipes métier
  • Fournir une expertise technique approfondie aux équipes projets
  • Participation à la modélisation et la mise en place du Datahub de la maison, il est composé de différents domaines (Product, Price, Store, Customer...) construit à partir de différentes sources (Centirc8, JDE, Salesforce, Akeneo, Anaplan...)
  • Définir/Maintenir/Faire évoluer le cadre de cohérence technique data : principes d’architecture, patterns, normes, bonnes pratiques
  • Soutenir les équipes des domaines fonctionnels dans la construction de leurs produits data.
  • Accompagner sur les phases de cadrage à la définition des modèles de données
  • Accompagner les équipes techniques du Delivery en tant qu’expert projet
  • Journalisation des differentes prises de decisions (architectural/technique) sous forme d'ADR.
  • Optimisation de la plateforme en terme de coût (Finops)
  • Etude pour uniformiser toute l'ingestion des données avec Fivetran (actuellement avec SSIS, Talend)
  • Faire de la veille afin d'établir la feuille de route technologique
  • GCP, Bigquery, Cloud Functions, Dataform, Cloud run, Analytics Hub, Datadog, ControlM, Terraform, Azure Devops, Salesforce, Anaplan, Centric8, Akeneo, Fivetran, Powerbi, Mule, Talend
  • Conception de l'architecture du Datahub et mise en place du MVP (projet réglementaire)
    , feeding, ingestion, transformation et exposition.
  • Définir et mettre en place des patterns et templates prêt à l’emploi pour accélérer le déploiement des Pipelines de traitements de données et des applications dans les Data Cloud Platforms
  • Porter l'expertise d'architecture Cloud auprès des équipes
  • Travailler avec les Features teams applicatives pour industrialiser des solutions adaptées aux besoins métiers (plateforme de données, dataviz, data catalog / data quality, etc.)
  • Accompagner les équipes dans la la résolution des problématiques d'architecture technique
  • Guider/coacher les développeurs, Data Engineers
  • Cadrer les besoins des clients et décliner les solutions techniques correspondantes
  • Mise en place d'un comité d'architecture
  • Assurer et veiller l'amélioration continue de le plateforme Data
  • Suivre les services actifs dans la plateforme d’un point de vue performance, usages, et SLA ; proposer des évolutions de la plateforme pour garantir son évolutivité et sa pérennité
  • Optimiser la consommation des services Cloud des produits déployés (Finops)
  • Définir et faire évoluer les outils et les méthodes d'intégration continue et de déploiement continu des Data Cloud Platforms
  • Réaliser les études de faisabilité technique, des PoC
  • Participer aux rituels agiles du projet pour rester en soutien de l’équipe et intervenir en cas de nécessité
  • Veille permanente sur les meilleures pratiques Data
  • [Azure, Hdinsight, ADLS, EventHub, Azure Functions, Spark, Hive, Azure K8S service, Azure Keyvault, Nifi, CDC, Informatica, CosmosDB, Kafka, Avro, Parquet, Azure for PostgresSQL, Spring boot, Jenkins, ArgoCD, Github, Terraform]
  • Re-Conception complète de l'architecture d'un projet de maintenance prédictive
  • Benchmark des services des 3 cloud provider GCP, AWS, Azure
  • Adoption de l'approche Serverless first
  • Décomposition d'un monolithe Matlab en plusieurs microservices Python (AWS Lambda) et communication asynchrone via Kinesis
  • Sensibilisation des Datascientists sur l'approche Machine learning vs System Expert
  • Accompagnement de l’équipe sur les services Cloud
  • Mise en place de pratique :Infrastructure As Code
  • Veille technologique permanente
  • [Kinesis, AWS Lambda, S3, Firehose, Redshift, SageMaker, API Gateway, DynamoDB, Nifi, Athena, AWS Glue, Cloudwatch, Spark, PubSub, Dataiku, Parquet, Avro, Terraform, Gitlab]
Learn more
  • Participation à la définition de l’architecture du PaaS Docker EE
  • Accompagnement dans la mise en place de l'ensemble des briques : Service layer, Data layer ainsi que la Stream layer
  • Coordination entre Dev et Ops.
  • Préconisation pour rendre les applicatifs plus résilient/disponible.
  • Test de résilience MongoDB, RabbitMQ, NIFI, Elastic
  • Veille technologique permanente
  • [Docker EE, Nifi, F5, MongoDB, RabbitMQ, Spring Cloud, Elasticsearch, Gatling, Dynatrace]
Learn more
  • Pilotage technique de projets au sein du Software Digital Center
  • Support sur les solutions Big Data des platformes GCP et AWS
  • Participation à la définition de l’architecture du datalake groupe
  • Promotion de l'approche Serverless First
  • Mise en place de POC
  • Mise en place de bonne pratique d'architecture et de developpement
  • Accompagnement des datascientists dans la mise en place de pipeline de bout en bout
  • Développement des modules transverse
  • Optimiser la consommation des services Cloud des produits déployés (Finops)
  • Revue de code
  • Veille technologique permanente
  • [BigQuery, Dataflow, Google App Engine, Cloud Storage, Datastore, Cloud Datalab, Tensorflow, Cloud Task, Airflow, AWS Lambda, Github, Travis CI/CD]
Learn more
  • Participation à la définition de l’architecture de l’offre BigData pour tous.
  • Participation à la construction d’offres de service
  • Participation à la définition de la stratégie DevOps.
  • Revue de l’architecture microservice et proposition du framework Spring-Boot + introduction des patterns microservices avec Spring-Cloud.
  • Mise en place de notebooks Scala et Python pour les DataLabs
  • Connexion des notebooks au cluster YARN
  • Mise en place de playbooks Ansible pour l’industrialisation.
  • Optimisation de jobs Spark
  • Proposition de différentes librairies de Dataviz.
  • Support aux datascientists sur l’écosystème Hadoop.
  • [Spark, HDFS, Terradata, Docker, Python, Scala, Zepplin, Jupyther, Ansible]
Learn more
  • Proposition de 2 solutions d’architectures globales cibles et transitoires,
    permettant une amélioration continue du SI vers SOA.
  • Mise en place de l’usine logicielle.
  • Mise en place du socle logiciel.
  • Mise en place de l’architecture de l’extranet Liferay klesia.fr sous forme de
    Microservices distribués.
  • Mise en place d’un POC CAS-SSO en haute disponibilité avec Memcached.
  • Audit technique d’applicatif pour intégration dans le portail de l’entreprise.
  • Audit de performance de certaines fonctionnalités du portail.
  • Mise en place d’un pipeline de livraison continue (automatique en intégration
    et en one click sur la production).
  • Etude comparative de solutions de livraison applicative Jenkins avec pipeline-
    plugin, XL Deploy, Rundeck.
  • Accompagnement et intervention sur tous les chantiers du SI (GED, Usine à
    documents, MDM, Extranet…).
  • Support aux différentes équipes.
  • Veille technologique.
  • Audit de code.
  • Faire l’état de l’art de l’écosystème d'industrialisation des développements
    javascript avec AngularJS (node, yeoman, bower, gulp, karma, jasmine...).
  • Passage du mode Actif/Passif vers le mode cluster Actif/Actif avec affinité de
    session.
  • Proposition d'une architecture pour assurer une disponibilité 24/7 du front avec
    mise à jour asynchrone du SI, en utilisant le pattern publish/subsribe via un
    bus de message (JMS ou AMQP par eg).
  • Réflexion sur la mise en place de la stack ELK pour centraliser les logs
    technico/fonctionnel dans le cadre d’une solution portail multi-tenante.
  • Pilotage technique de projets.
  • Encadrement de développeurs.
  • Support technique.
  • Mise en place de POC.
  • Veille technologique.
  • Audit de code
  • Conception et réalisation d’un module de synchronisation de flux au format pivot XFT (eXchange for travel).
  • Interfaçage avec un bus applicatif synchrone/asynchrone
  • Mise en place de tests fonctionnels.
  • Automatisation du packaging.
  • Faire l’état de l’art des différents composants JSF existant.
  • Normalisation de la base de données pour compatibilité ORM.
  • Conception et réalisation des différents cas d’utilisation.
  • Conception du chantier flux économique et financier
  • Développement de service métier transverse réutilisable
  • Réalisation de différents cas d’utilisation
  • Allianz/AGF - Référent technique JEE (12 mois)
  • CNAV - Consultant JEE (2 mois)
  • Telemarket.fr - Développeur JEE (2 mois)
  • Encadrement technique d'une équipe de 5 développeurs
  • Analyse, conception et réalisation de nouvelles fonctionnalités
  • Travail en relation avec la maîtrise d'ouvrage et le comité utilisateurs.

Développeur JAVA

Codetic Services (spin-off de France Telecom)
April 2005 to September 2005
  • Développement d’un Intranet servant d’outil décisionnel

Master

Université François Rabelais de Tours

September 2004 to June 2005
Systèmes d'Information et Analyse Décisionnelle

Maitrise

Institut d'informatique et d'Intelligence artificielle d'Orléans

September 2003 to June 2004
Informatique

DEUG

Université François Rabelais de Tours

September 2000 to June 2002
Mathématiques, Informatique et Applications aux Sciences
Skills

Language

  • Java
    Advanced
  • Python
    Good
  • Scala
    Good
  • Go
    Intermediate

Cloud

  • Google Cloud Platform
    GCE, GAE, GCS, Cloud Functions, Datastore...
    Good
  • AWS
    EC2, Amazon Lambda, DynamoDB, Kinesis *, Redshift, Athena, API Gateway, Sagemaker...
    Good
  • Azure
    Azure VMs, EventHub, Stream Analytics, Databricks, Azure Functions
    Good

Data Engineering

  • BigQuery
    Advanced
  • Spark
    Advanced
  • Hadoop
    Advanced
  • DBT
    Good
  • Dataform
    Advanced
  • Airflow
    Good
  • Presto
    Good
  • Dataflow
    Good
  • Kafka
    Advanced
  • NIFI
    Advanced
  • Snowflake
    Intermediate

DevOps

  • Jenkins
    Advanced
  • Azure Devops
    Advanced
  • Docker
    Advanced
  • Ansible
    Good
  • Terraform
    Advanced
  • Kubernetes
    Good
  • ArgoCD
    Good

Machine learning

  • Spark ML
    Good
  • Tensorflow
    Intermediate
  • Jupyter
    Advanced
  • Zepplin
    Advanced
  • Scikit Learn
    Intermediate
  • Dataïku
    Intermediate
  • Kubeflow
    Intermediate

Web

  • Node JS
    Good
  • Angular
    Good

Agilité

  • Scrum
    Advanced
  • Kanban
    Good

Securité

  • OAuth2
    Advanced
  • OpenID Connect
    Advanced
  • JWT
    Advanced

NoSql

  • MongoDB
    Advanced
  • CosmosDB
    Good
  • Cassandra
    Good
  • Google Firestore
    Good
  • Elasticsearch
    Advanced

APM

  • Dynatrace
    Advanced
  • AWS X-RAY
    Advanced
  • Datadog
    Intermediate

Langues

  • Arabe
    Expert
  • Anglais
    Good
  • Espagnol
    Intermediate
  • Badminton
  • Veille Technologique