Votre navigateur est obsolète !

Pour une expériencenet et une sécurité optimale, mettez à jour votre navigateur. Mettre à jour maintenant

×

Nazim Chakik

Architecte Solutions | Cloud | Data | GCP|AWS|Azure #DataOps #DataMesh #NoOps #GitOps #MLOps #FinOps

Nazim Chakik
Driving License
France
Professional Status
Freelancer
Available
Resume created on DoYouBuzz
  • Collaboration étroite avec les métiers, les équipes IT et les squads du Data office
  • Accompagner les projets sur les phases de cadrage, design, build et deploiement
  • Animer les ateliers et définir les differents scenarios d'architectures sur les projets
  • Fournir une expertise technique approfondie aux équipes projets
  • Participation à la conception du Veolia Secure GPT
  • Challenger et guider l’orientation des solutions dans le respect des guidelines d’architecture
  • Challenger et defendre les solutions auprés du Design authority (comité hebdomadaire)
  • Prototyper les solutions techniques préconisées
  • Réaliser des analyses d’impact transverse
  • Se tenir informé des innovations et nouveautés.
  • Azure, GCP, AWS, PowerBI, BigQuery, Fivetran, Collibra, Cloud Run, OpenAI, AWS Bedrock, Gemini, Langchain, Chainlit, Identity Federation, Python, Archimate
  • Conception et mise en place de la Data plate-forme
  • Supporter la stratégie Data centric construite auprès des équipes métier
  • Fournir une expertise technique approfondie aux équipes projets
  • Participation à la modélisation et la mise en place du Datahub de la maison, il est composé de différents domaines (Product, Price, Store, Customer...) construit à partir de différentes sources (Centirc8, JDE, Salesforce, Akeneo, Anaplan...)
  • Définir/Maintenir/Faire évoluer le cadre de cohérence technique data : principes d’architecture, patterns, normes, bonnes pratiques
  • Soutenir les équipes des domaines fonctionnels dans la construction de leurs produits data.
  • Accompagner sur les phases de cadrage à la définition des modèles de données
  • Accompagner les équipes techniques du Delivery en tant qu’expert projet
  • Journalisation des differentes prises de decisions (architectural/technique) sous forme d'ADR.
  • Optimisation de la plateforme en terme de coût (Finops)
  • Etude pour uniformiser toute l'ingestion des données avec Fivetran (actuellement avec SSIS, Talend)
  • Faire de la veille afin d'établir la feuille de route technologique
  • GCP, Bigquery, Cloud Functions, Dataform, Cloud run, Analytics Hub, Datadog, ControlM, Terraform, Azure Devops, Salesforce, Anaplan, Centric8, Akeneo, Fivetran, Powerbi, Mule, Talend
  • Conception de l'architecture du Datahub et mise en place du MVP (projet réglementaire)
    , feeding, ingestion, transformation et exposition.
  • Définir et mettre en place des patterns et templates prêt à l’emploi pour accélérer le déploiement des Pipelines de traitements de données et des applications dans les Data Cloud Platforms
  • Porter l'expertise d'architecture Cloud auprès des équipes
  • Travailler avec les Features teams applicatives pour industrialiser des solutions adaptées aux besoins métiers (plateforme de données, dataviz, data catalog / data quality, etc.)
  • Accompagner les équipes dans la la résolution des problématiques d'architecture technique
  • Guider/coacher les développeurs, Data Engineers
  • Cadrer les besoins des clients et décliner les solutions techniques correspondantes
  • Mise en place d'un comité d'architecture
  • Assurer et veiller l'amélioration continue de le plateforme Data
  • Suivre les services actifs dans la plateforme d’un point de vue performance, usages, et SLA ; proposer des évolutions de la plateforme pour garantir son évolutivité et sa pérennité
  • Optimiser la consommation des services Cloud des produits déployés (Finops)
  • Définir et faire évoluer les outils et les méthodes d'intégration continue et de déploiement continu des Data Cloud Platforms
  • Réaliser les études de faisabilité technique, des PoC
  • Participer aux rituels agiles du projet pour rester en soutien de l’équipe et intervenir en cas de nécessité
  • Veille permanente sur les meilleures pratiques Data
  • [Azure, Hdinsight, ADLS, EventHub, Azure Functions, Spark, Hive, Azure K8S service, Azure Keyvault, Nifi, CDC, Informatica, CosmosDB, Kafka, Avro, Parquet, Azure for PostgresSQL, Spring boot, Jenkins, ArgoCD, Github, Terraform]
  • Re-Conception complète de l'architecture d'un projet de maintenance prédictive
  • Benchmark des services des 3 cloud provider GCP, AWS, Azure
  • Adoption de l'approche Serverless first
  • Décomposition d'un monolithe Matlab en plusieurs microservices Python (AWS Lambda) et communication asynchrone via Kinesis
  • Sensibilisation des Datascientists sur l'approche Machine learning vs System Expert
  • Accompagnement de l’équipe sur les services Cloud
  • Mise en place de pratique :Infrastructure As Code
  • Veille technologique permanente
  • [Kinesis, AWS Lambda, S3, Firehose, Redshift, SageMaker, API Gateway, DynamoDB, Nifi, Athena, AWS Glue, Cloudwatch, Spark, PubSub, Dataiku, Parquet, Avro, Terraform, Gitlab]
Detailed Description
  • BigQuery, PubSub, Kinesis, AWS Lambda, S3, Firehose, Redshift, SageMaker, API Gateway, DynamoDB, KMS, Nifi, Athena, AWS Glue, Cloudwatch, Spark, Parquet, Avro, Terraform, Gitlab
  • Participation à la définition de l’architecture du PaaS Docker EE
  • Accompagnement dans la mise en place de l'ensemble des briques : Service layer, Data layer ainsi que la Stream layer
  • Coordination entre Dev et Ops.
  • Préconisation pour rendre les applicatifs plus résilient/disponible.
  • Test de résilience MongoDB, RabbitMQ, NIFI, Elastic
  • Veille technologique permanente
  • [Docker EE, Nifi, F5, MongoDB, RabbitMQ, Spring Cloud, Elasticsearch, Gatling, Dynatrace]
Detailed Description
  • Docker EE, Nifi, F5, MongoDB, RabbitMQ, Spring Cloud, Elasticsearch, Gatling
  • Pilotage technique de projets au sein du Software Digital Center
  • Support sur les solutions Big Data des platformes GCP et AWS
  • Participation à la définition de l’architecture du datalake groupe
  • Promotion de l'approche Serverless First
  • Mise en place de POC
  • Mise en place de bonne pratique d'architecture et de developpement
  • Accompagnement des datascientists dans la mise en place de pipeline de bout en bout
  • Développement des modules transverse
  • Optimiser la consommation des services Cloud des produits déployés (Finops)
  • Revue de code
  • Veille technologique permanente
  • [BigQuery, Dataflow, Google App Engine, Cloud Storage, Datastore, Cloud Datalab, Tensorflow, Cloud Task, Airflow, AWS Lambda, Github, Travis CI/CD]
Detailed Description
  • BigQuery, Google App Engine, Cloud Storage, Datastore, Cloud Datalab, Cloud Task, Airflow, AWS Lambda, Github, Travis CI/CD
  • Participation à la définition de l’architecture de l’offre BigData pour tous.
  • Participation à la construction d’offres de service
  • Participation à la définition de la stratégie DevOps.
  • Revue de l’architecture microservice et proposition du framework Spring-Boot + introduction des patterns microservices avec Spring-Cloud.
  • Mise en place de notebooks Scala et Python pour les DataLabs
  • Connexion des notebooks au cluster YARN
  • Mise en place de playbooks Ansible pour l’industrialisation.
  • Optimisation de jobs Spark
  • Proposition de différentes librairies de Dataviz.
  • Support aux datascientists sur l’écosystème Hadoop.
  • [Spark, HDFS, Terradata, Docker, Python, Scala, Zepplin, Jupyther, Ansible]
Detailed Description
  • Spark, HDFS, Terradata, Docker, Python, Scala, Zepplin, Jupyther, Ansible
  • Proposition de 2 solutions d’architectures globales cibles et transitoires,
    permettant une amélioration continue du SI vers SOA.
  • Mise en place de l’usine logicielle.
  • Mise en place du socle logiciel.
  • Mise en place de l’architecture de l’extranet Liferay klesia.fr sous forme de
    Microservices distribués.
  • Mise en place d’un POC CAS-SSO en haute disponibilité avec Memcached.
  • Audit technique d’applicatif pour intégration dans le portail de l’entreprise.
  • Audit de performance de certaines fonctionnalités du portail.
  • Mise en place d’un pipeline de livraison continue (automatique en intégration
    et en one click sur la production).
  • Etude comparative de solutions de livraison applicative Jenkins avec pipeline-
    plugin, XL Deploy, Rundeck.
  • Accompagnement et intervention sur tous les chantiers du SI (GED, Usine à
    documents, MDM, Extranet…).
  • Support aux différentes équipes.
  • Veille technologique.
  • Audit de code.
  • Faire l’état de l’art de l’écosystème d'industrialisation des développements
    javascript avec AngularJS (node, yeoman, bower, gulp, karma, jasmine...).
  • Passage du mode Actif/Passif vers le mode cluster Actif/Actif avec affinité de
    session.
  • Proposition d'une architecture pour assurer une disponibilité 24/7 du front avec
    mise à jour asynchrone du SI, en utilisant le pattern publish/subsribe via un
    bus de message (JMS ou AMQP par eg).
  • Réflexion sur la mise en place de la stack ELK pour centraliser les logs
    technico/fonctionnel dans le cadre d’une solution portail multi-tenante.
  • Pilotage technique de projets.
  • Encadrement de développeurs.
  • Support technique.
  • Mise en place de POC.
  • Veille technologique.
  • Audit de code
  • Conception et réalisation d’un module de synchronisation de flux au format pivot XFT (eXchange for travel).
  • Interfaçage avec un bus applicatif synchrone/asynchrone
  • Mise en place de tests fonctionnels.
  • Automatisation du packaging.
  • Faire l’état de l’art des différents composants JSF existant.
  • Normalisation de la base de données pour compatibilité ORM.
  • Conception et réalisation des différents cas d’utilisation.
  • Conception du chantier flux économique et financier
  • Développement de service métier transverse réutilisable
  • Réalisation de différents cas d’utilisation
  • Allianz/AGF - Référent technique JEE (12 mois)
  • CNAV - Consultant JEE (2 mois)
  • Telemarket.fr - Développeur JEE (2 mois)
  • Encadrement technique d'une équipe de 5 développeurs
  • Analyse, conception et réalisation de nouvelles fonctionnalités
  • Travail en relation avec la maîtrise d'ouvrage et le comité utilisateurs.

Développeur JAVA

Codetic Services (spin-off de France Telecom)
April 2005 to September 2005
  • Développement d’un Intranet servant d’outil décisionnel