Vous êtes victime d’un incident de sécurité ? Contactez notre CERT

10/11/2022

Digital Technology Insights

Retour d’expérience client : couverture de l’ensemble de la chaine de valeur IT et digitale

Digital Technology Insight

Digital Technology : une couverture de l’ensemble de la chaine de valeur IT & Digitale, de la définition à la mise en œuvre.
Interview de Maxime Gardereau, Associé en charge de la Practice Digital Technology, qui nous présente un retour d’expérience sur un use case client.

Notre practice Digital Technology accompagne ses clients, de la définition à la mise en œuvre de leur ambition digitale. Elle les aide à répondre à leurs enjeux et besoins croissants sur l’ensemble de la chaine de valeur IT & Digitale : Cloud, Data, FinOps, Cyber, RPA, etc. Retour d’expérience et interview croisée avec nos équipes sur un cas d’usage client.

Équipe projet

Udaya LEOST, Manager, Digital Technology.

Ayoub MAOUHEB, Senior consultant, Digital Technology.

Notre équipe Cloud multi certifiée : Azure Cloud Solution Architect, Azure Data Engineer, Terraform, etc.

Pouvez-vous nous présenter l’activité de votre client ? Quels étaient ses enjeux ?

Le client est un acteur de la protection sociale complémentaire, un assureur à vocation sociale à but non lucratif.

Dans le cadre de la modernisation de son système d’information, notre client conduit un programme de transformation quant à la refonte de sa solution Data et BI actuellement on-premise.

D’une part, le but est d’agréger la totalité des sources de données actuelles sous une unique application.

D’autre part, afin de répondre au besoin de performance de traitement de données et dans le but de rationaliser les coûts, il a été décidé de migrer la plateforme data on-premise vers le cloud Ms Azure en se basant sur la solution Azure Synapse Analytics. Ce service réunit à la fois le moteur d’intégration de données Azure Data Factory ainsi que les technologies SQL pour l’entreposage de données et Spark pour le big data.

L’objectif de ce projet est de stocker l’intégralité du patrimoine de données dans un référentiel unique situé dans son parc « on-premise », tout en bénéficiant de la puissance de calcul du « cloud », afin d’avoir une seule source de données fiable qui soit exploitée par l’ensemble des métiers pour produire des dashboards facilitant la prise de décision au niveau national.

A quelles étapes du projet êtes-vous intervenus ?

Dans le cadre de la mise en place de cette nouvelle plateforme, nous avons tout d’abord réalisé le cadrage du projet, afin de :

  • Designer l’architecture cible sur Ms Azure ;
  • Identifier les différents prérequis nécessaires à la mise en place du tenant Ms Azure selon les best practices de gestion et de sécurité ;
  • Formaliser une analyse budgétaire des services et consommations cibles avec recommandation de dispositif FinOps à mettre en œuvre pour maitriser les coûts futurs ;
  • Proposer un plan d’actions de mise en place du projet et un calendrier associé.

Nous avons ensuite réalisé l’ensemble de la phase de conception de l’architecture technique Azure, incluant la définition du plan de migration des données.

Enfin, nous avons mis en œuvre un PoC de l’architecture technique préalablement conçue. L’objectif était de challenger les choix techniques du client et de confirmer la faisabilité du projet ainsi que sa pertinence vis-à-vis des besoins exprimés.

Comment étaient répartis les rôles au sein de l’équipe Almond ?

Ayoub était le garant de l’expertise technique et data durant la première phase de cadrage du projet.

Il s’est dans un premier temps concentré sur la conception d’une architecture de Data Warehouse moderne basée sur le service analytique du cloud Microsoft (Azure Synapse Analytics) et l’outil de data visualisation Tableau puis sur la modélisation des scénarios d’ingestion des données on-premise vers la nouvelle plateforme cloud.

Udaya était d’une part le chef de projet garant de l’atteinte des objectifs, et d’autre part, pilote des segments cloud, accompagné des équipes d’ingénieurs cloud, afin de :

  • Concevoir l’architecture cible de la plateforme cloud ;
  • Définir les mesures de sécurisation, protection et continuité des données ;
  • Définir la trajectoire de build des environnements ;
  • Modéliser l’ensemble des scénarios budgétaires en build et en run avec recommandations.

Nos équipes cloud sont intervenues sous plusieurs casquettes :

  • Cloud Architect : notamment en charge d’accompagner le client dans ses choix techniques, tout en veillant à l’optimisation des coûts opérationnels de la plateforme data dès la phase de conception selon les best practices FinOps.
  • Data Architect : en charge de travailler avec les équipes data du client pour mettre en place l’entrepôt de données et développer la logique d’ingestion et de transformation de données sur Azure.
  • DevOps : en charge de l’ensemble de l’automatisation du déploiement de l’infrastructure cloud via Terraform ainsi que de toute la partie automatisation des livraisons de pipelines d’extraction, de transformation et de chargement de données (ELT/ETL) à l’aide d’Azure DevOps.

Comment ont été intégrés les aspects budgétaires lors du projet ?

L’axe budgétaire a été pris en considération pendant toutes les phases de ce projet et cela dès la phase de Build.

Durant la phase de développement du nouveau Datawarehouse, nous avons travaillé sur des instances Azure Synapse Dedicated pool à puissance réduite de 100 DWUs (Data Warehouse Units). La puissance choisie était largement suffisante pour développer et mettre en place le DWH tout en bénéficiant du traitement massif parallèle des données MPP (Massively Parallel Processing).

Enfin, pour valider les performances du nouveau DWH et recetter les développements réalisés, il a fallu tester en préproduction sur des instances plus puissantes et qui étaient ressemblantes à celles déployées en production.

« Grâce à l’adoption d’une réflexion FinOps dès la phase de PoC, le client a pu réduire de 2/3 la consommation de la phase du build du projet. »

Les différents tests réalisés en préproduction ont permis d’affiner le besoin du client et de réfléchir à d’autres optimisations afin de réduire les coûts opérationnels. Nous avons pu constater qu’une durée maximale de 2h/jr était nécessaire pour faire tourner les pipelines ETL du client. Nous avons donc réfléchi à une logique applicative permettant de mettre à disposition les ressources Azure telles que les Dedicated SQL Pool et les Self-hosted integration runtime (permettant de collecter la donnée depuis le réseau On-Premise du client) uniquement durant ces créneaux-là, et d’éviter de payer pour du compute non utilisé durant le reste de la journée. La solution était donc de mettre en place une logique de start & stop à travers des activités de Pipeline qui allument les ressources avant chaque collecte de données (à 6h du matin) et les éteignent à la fin du pipeline ETL.
« Cette approche a permis de réduire les dépenses mensuelles d’environ 35%. »

Quel regard avez-vous porté sur la dimension FinOps du projet ?

Un tel projet vise à faciliter la prise de décision à tous les niveaux de l’entreprise. Ici les optimisations techniques ont permis de réduire les coûts de la nouvelle plateforme data. Ce qui a permis à notre client d’investir ce budget dans l’achat de licences Dataviz : Tableau Software pour l’ensemble des métiers.

Dans les projets cloud, il faut prendre en compte chaque petite action et cela durant toutes les étapes du projet. Par ailleurs, il est très important de comprendre chaque paramètre avant le choix d’une nouvelle ressource. Enfin, il faut veiller à mettre des limites à l’élasticité de son cloud en exploitant les mécanismes mis à disposition par les hyperscalers.

Aujourd’hui, le FinOps est un vecteur indissociable de toute transformation cloud. Tirer profit des leviers que promet le cloud n’est possible qu’en incluant cette approche, notamment pour justifier le ROI des projets engagés au regard de la création de valeur pour le métier.

Les mesures FinOps doivent être prises en amont d’un projet cloud, en suivre sa progression et être maintenues en phase d’exploitation :

  • Depuis la création de la landing zone ;
  • En amont de la migration par une phase d’assessment des ressources ;
  • Pendant la migration, en passant par une phase probatoire d’évaluation du comportement des ressources puis en les dimensionnant au plus juste et en fin en sélectionnant les bonnes instances à réserver ;
  • En phase d’exploitation, en ayant une gouvernance dédiée via une fonction FinOps, en pilotant la consommation des actifs via des outils et dashboards dédiés ainsi qu’en optimisant de manière continue ses infrastructures/architectures au regard des fonctionnements applicatifs.

Maxime GARDEREAU

Partner en charge de la practice Digital Technology

Udaya LEOST

Manager Digital Technology

Ayoub MAHOUEB

Consultant Senior Digital Technology

Voir les derniers Digital Technology Insights

12 septembre 2024
Avec des attaques par phishing en constante augmentation, la chasse au courriels frauduleux est devenue une norme. Découvrez le protocole […]
21 mai 2024
Dans un monde où les données jouent un rôle crucial dans les décisions stratégiques, leur gestion et leur sécurité sont […]
30 avril 2024
Découvrez quelques secrets d'une veille IT efficace, partagés par notre consultante sénior Soukaïna ! Restez à jour avec les dernières […]
22 novembre 2023
Le Digital & Technology Insights de ce jour permet d’appréhender la nécessité de positionner de manière lisible et assumée sa […]
8 novembre 2023
Digital & Technology Insights : Asma nous plonge au cœur du rôle crucial de la donnée en tant qu'élément moteur […]
12 juillet 2023
Luc nous parle des services IXP ​et des nombreux bénéfices qu’il apporte aux entreprises.
22 mars 2023
La tendance du Multi Cloud se confirme. Dans ce contexte, quelle stratégie adopter afin d'assurer une connectivité efficiente et résiliente […]
13 octobre 2022
Pour pouvoir ouvrir la voie à de nouveaux services, de nouveaux acteurs innovants, créer de nouveaux marchés pour de nouveaux […]
13 septembre 2022
Numérique responsable : le FinOps se présente comme une réelle opportunité et un levier indéniable pour maitriser sa consommation énergétique, […]
11 août 2022
La data a une importance cruciale et représente un enjeu majeur pour une entreprise dans l’élaboration de l’ensemble de ses […]

Jour 21 |

  • Réponse 1 :  

  • Réponse 2 :  

  • Réponse 3 :  

  • Réponse 4 : 

Jour 20 |

  • Réponse 1 : 

  • Réponse 2 : 

  • Réponse 3 : 

  • Réponse 4 : 

Jour 19 | L’acronyme PACS désigne  :

A. Un format permettant la visualisation des images dans l’imagerie médicale

B. Un système d’archivage et de communication d’images dans l’imagerie médicale

C. Un prestataire d’audit et de conseil en cybersécurité

D. Un pacte civil de solidarité  

  • Réponse 1 : L’ensemble des réponses
  • Réponse 2 : Réponses C et D
  • Réponse 3 : Réponses B, C et D
  • Réponse 4 : Réponses A, C et D

Jour 18 | En quelle année l'ANSSI prévoit de ne plus recommander l'utilisation de certains algorithmes de chiffrement classiques en raison de l'augmentation de la puissance de calcul des ordinateurs classiques et de la menace posée par les ordinateurs quantiques ?

  • Réponse 1 : 2026
  • Réponse 2 : 2030
  • Réponse 3 : 2035
  • Réponse 4 : 2050

Laïus explicatif : Dans son dernier avis sur la migration vers la cryptographie post quantique, paru en janvier 2024, l’ANSSI encourage tous les éditeurs à mettre en œuvre dès à présent une hybridation entre la cryptographie standard et la cryptographie post-quantique (pour les produits qui doivent protéger des informations après 2030) et recommande d’utiliser en priorité la cryptographie post-quantique à partir de 2030.  

Jour 17 | Quelle est la dernière course à laquelle j’ai participé ?

  • Réponse 1 : Le Vendée Globe
  • Réponse 2 : National Figaro 3 en équipage
  • Réponse 3 : La Solitaire du Figaro Paprec
  • Réponse 4 : Le Havre Allmercup

Laïus explicatif : Le National Figaro 2024 s’est déroulé du 4 au 6 octobre dernier à Lorient. Thomas et son équipe sont arrivés en 2e position ! Cette course clôture ainsi la saison 2024 sur le circuit Figaro. 

  • Réponse 1 : Aetheris

  • Réponse 2 : Venopie

  • Réponse 3 : Lumidus

  • Réponse 4 : Pandama

Laïus explicatif : Au sein de la plateforme d’attaque – défense M&NTIS, le scénario Pandama propose une kill chain dont l’impact, après compromission du contrôleur de domaine, permet de déployer, par GPO, une charge utile effaçant les données présentes sur les systèmes de fichiers du SI simulé.

Pour rappel, basé sur les technologies d’émulation d’adversaire et de Cyber Range, M&NTIS permet d’exécuter des campagnes d’attaques réalistes afin de challenger dans un environnement immersif les procédures et l’expertise des équipes SOC et CERT. M&NTIS répond ainsi aux enjeux d’amélioration continue de la défense.

Jour 15 | Quel type de menace ne fait pas parti de l’insider threat?

  • Réponse 1 : Malicious
  • Réponse 2 : Ransomware group
  • Réponse 3 : Negligent
  • Réponse 4 : Vendors

Laïus explicatif : Almond a proposé une étude sur la menace interne qui décrit chaque type d’insider. Les groupes de ransomware sont externes à l’entreprise mais peuvent recruter des employées pour récupérer des accès valides et compromettre l’entreprise. Retrouvez l’étude ici.

Jour 14 | Selon vous, quelle proportion des cyberattaques réussies sont liées à une erreur humaine ?

  • Réponse 1 : 40%

  • Réponse 2 : 100%

  • Réponse 3 : 70%

  • Réponse 4 : 90%

Laïus explicatif : 90% des cyberattaques trouvent leur origine dans une erreur humaine. L’erreur humaine en cybersécurité englobe toutes les actions, conscientes ou non, qui exposent les systèmes et les données à des menaces. Cela inclut des gestes apparemment innocents, comme le fait de :

  • Cliquer sur les liens malveillants
  • Utiliser des mots de passe faibles ou partagés
  • Partager des informations sensibles
  • Négliger la mise à jour des logiciels et systèmes
  • Commettre une erreur de configuration ou mal administrer les accès
  • Utiliser des clés USB non sécurisées ou prévenant de sources inconnues

Jour 13 | Almond & Amossys sont présents en France et à l’international pour garantir proximité et réactivité grâce à nos services 24/7. Dans quels pays se trouvent nos équipes ?

  • Réponse 1 : FRA – CHE – AUS – JPN

  • Réponse 2 : FRA – CAN – CHE – KOR

  • Réponse 3 : FRA – AUS – CAN – GBR

  • Réponse 4 : FRA – BEL – ITA – USA

Jour 12 | Challenge OSINT

Val Thorens

Laïus explicatif : Depuis plusieurs années consécutives, notre CSE organise des séjours à Val Thorens pour profiter des sports d’hiver. Que l’on aime dévaler les pistes de ski à toute allure, tenter l’aventure en prenant des cours d’initiation ou simplement déguster une raclette après une randonnée raquette et un passage à la piscine et au sauna, ce séjour est l’occasion de partager des moments convivaux avec ses collègues ! TIC, TAC, le prochain séjour ski approche à grands pas !

Jour 11 | Parmi ces propositions, quelle technique Mitre Atta&ck est la plus utilisée par les attaquants ?

  • Réponse 1 : OS Credential Dumping
  • Réponse 2 : Valid Account
  • Réponse 3 : Impair Defenses
  • Réponse 4 : Remote services

Laïus explicatif : L’achat ou la récupération de comptes valides sont de plus en plus commun. Certains cybercriminels appelés Initial Access Broker se spécialisent dans la compromission de victimes dans le but de récupérer des identifiants valides qui seront ensuite vendus à d’autres cybercriminels comme les groupes de ransomware.

Jour 10 | Parmi ces structures de données de la mémoire dans Windows, quelle est celle qui permet de lister les processus en cours d’exécution ?

  • Réponse 1 : EPROCESS
  • Réponse 2 : Kernel Debugger Data Block (KDBG)
  • Réponse 3 : Kernel Processor Control Region (KPCR)
  • Réponse 4 : Process Environment Block (PEB)

Laïus explicatif : La structure EPROCESS (Executive Process) est utilisée par Windows pour gérer chaque processus en cours d’exécution. Elle contient des informations essentielles comme l’identifiant du processus (PID), l’état, les threads associés, et d’autres données nécessaires au système pour suivre les processus actifs. En analysant les structures EPROCESS, on peut lister les processus actuellement en mémoire. Le PEB est lié à chaque processus de manière individuelle. Enfin le KPCR est nécessaire pour trouver l’adresse du KDB qui à son tour permettra de pointer vers le EPROCESS.  

Jour 9 | Quel est le problème si la suite cryptographique TLS_RSA_WITH_AES_256_CBC_SHA256 est utilisée avec l'extension encrypt_then_mac pour la sécurité d'une communication TLS ?

  • Réponse 1 : L’algorithme de chiffrement est trop faible

  • Réponse 2 : L’intégrité de la communication n’est pas assurée

  • Réponse 3 : Il n’y a pas la propriété de confidentialité persistante (Perfect Forward Secrecy)

  • Réponse 4 : Le serveur n’est pas correctement authentifié

Laïus explicatif : La bonne réponse est le manque de confidentialité persistante.

La suite TLS_RSA_WITH_AES_256_CBC_SHA256 utilise la clé publique RSA du serveur pour chiffrer le secret partagé utilisé pour sécuriser les échanges de la session TLS : en cas de compromission de la clé privée du serveur, l’ensemble des échanges des sessions passées peuvent être déchiffrés par un attaquant.
La confidentialité persistante (connue sous le nom de Perfect Forward Secrecy en anglais) consiste en l’utilisation d’un échange Diffie-Hellman éphémère pour négocier le secret partagé, sans utilisation de la clé RSA du serveur.

Jour 8 | Quel est l'avantage d'utiliser un outil de couverture de code lors d'une session de fuzzing ?

  • Réponse 1 : Réduire le temps de fuzzing en optimisant certaines instructions assembleur.

  • Réponse 2 : Utiliser la technique de « pré-chauffage » du harnais (« warming code attack »).

  • Réponse 3 : Pouvoir analyser facilement les sections de code atteintes par le fuzzer.

  • Réponse 4 : Ne pas prendre en compte les vulnérabilités de type use-after-free.

Laïus explicatif : Les outils de couverture de code (“code coverage” en anglais) permettent de savoir avec précision quelles lignes de code d’un programme qui ont réellement été exécutées. Lors d’une session de “fuzzing”, ces outils peuvent aider l’analyste à savoir si les fonctions ciblées ont été atteintes par le fuzzer. Cette technique a notamment été utilisée par un membre de l’équipe Offsec pour trouver une vulnérabilité dans une bibliothèque open-source (voir notre article de blog)

Jour 7 | Quelle est la principale éthique qui doit être prise en compte dans le développement de l’Intelligence Artificielle ?

  • Réponse 1 : L’équité et la non-discrimination

  • Réponse 2 : La transparence des algorithmes utilisés

  • Réponse 3 : La sécurité et la confidentialité des données

  • Réponse 4 : Toutes les réponses

Laïus explicatif : L’équité et la non-discrimination sont des principes fondamentaux dans le développement de l’IA. Les systèmes d’IA doivent être conçus pour éviter les biais et assurer qu’ils ne favorisent pas des groupes spécifiques au détriment d’autres, afin de garantir un traitement juste et égal pour tous les utilisateurs. La transparence des algorithmes est cruciale. Les utilisateurs doivent comprendre comment les décisions sont prises par l’IA, ce qui inclut la possibilité d’expliquer les résultats ou actions générés par un système d’intelligence artificielle, afin d’éviter des décisions opaques ou injustes. La sécurité et la confidentialité des données sont enfin des préoccupations majeures lorsque l’on développe des systèmes d’IA, car ces technologies peuvent collecter et traiter des informations sensibles, ce qui soulève des questions sur la protection des données personnelles et la vie privée.

Jour 6 | Selon vous, en moyenne combien de ransomware ont eu lieu par jour en 2023 dans le monde ?

  • Réponse 1 : 1 par jour

  • Réponse 2 : 100 par jour

  • Réponse 3 : 30 par jour

  • Réponse 4 : 12 par jour

Laïus explicatif : En moyenne 12 attaques ransomware ont été signalées par jour par des victimes dans le monde en 2023 selon les chiffres d’Almond. Pour plus d’informations, n’hésitez pas à consulter notre Threat Landscape.

Jour 5 | Challenge de stéganographie

Réponse : PASSI RGS, PASSI LPM, CESTI, ANJ, Cybersecurity made in Europe, PCI QSA Company et Swift

Etape 1 : Observer l’image, trouver 3 logos cachés (Cybersecurity made in Europe, PCI QSA Company & Swift) et une indication pour chercher dans les métadonnées du fichier. 

Etape 2 : Challenge de stéganographie

En lançant dans son terminal un des outils les plus courants, « binwalk », on trouve une image JPEG dans le PDF. En extrayant les données grâce au même outil et en renommant le fichier en .jpeg, on voit apparaitre une image cachée. Ensuite, en utilisant « steghide », on peut extraire le fichier avec le mot de passe « Almond ». Ce fichier contient une suite de caractère encodée en base64. En la déchiffrant, on obtient les quatre autres certifications : PASSI RGS, PASSI LPM, CESTI et ANJ. 

Jour 4 | Concernant les accompagnements de la nouvelle qualification PACS de l’ANSSI, sur la portée Sécurité des Architectures, quels sont les domaines qui font partie du périmètre possible d’un accompagnement ?

  • Réponse 1 : la sécurité réseau, l’authentification, et l’administration du SI

  • Réponse 2 : la sécurité réseau, la sécurité système, et les mécanismes de chiffrement

  • Réponse 3 : l’administration du SI, le cloisonnement, les sauvegardes, et la stratégie de détection/réponse

  • Réponse 4 : tous ces sujets et plus encore

  • Laïus explicatif : Le référentiel PACS, sur la portée Sécurité des Architectures, porte bien sur tous les sujets liés de près ou de loin aux infrastructures du SI. La liste n’est pas exhaustive et est à adapter à chaque prestation d’accompagnement suivant le périmètre d’intervention. Dans le référentiel, l’ANSSI propose une liste de sujets à adresser dans un rapport PACS page 28 et 29.

    https://cyber.gouv.fr/sites/default/files/document/PACS_referentiel-exigences_v1.0.pdf

Jour 3 | Quel référentiel permet la certification de produits de sécurité ?

  • Réponse 1 : NIS2

  • Réponse 2 : Critères Communs

  • Réponse 3 : PASSI

  • Réponse 4 : ISO27001

Laïus explicatif : Le schéma Critères Communs est un ensemble de normes et méthodologies permettant de cadrer les moyens utilisés pour évaluer, de manière impartiale, la sécurité d’un produit de sécurité (logiciel ou matériel). Ce schéma est reconnu internationalement au travers de plusieurs accords (SOG-IS, CCRA et prochainement EUCC).

Le référentiel PASSI permet la qualification, par l’ANSSI, des prestataires d’audit de la sécurité des SI. ISO27001 est la norme décrivant les bonnes pratiques à suivre dans la mise en place d’un SMSI. Enfin, NIS2 est une directive visant à harmoniser et à renforcer la cybersécurité du marché européen.

Jour 2 | Quel est l’artefact forensique qui permet de prouver une exécution d’un programme sous Windows ?

  • Réponse 1 : JumpList

  • Réponse 2 : ShimCache

  • Réponse 3 : $MFT

  • Réponse 4 : Prefetch

Laïus explicatif : Le Prefetch est un artefact spécifique à Windows qui optimise le chargement des programmes. Lorsqu’un programme est exécuté pour la première fois, Windows crée un fichier dans le dossier C:\Windows\Prefetch, qui contient des informations sur le programme et les ressources qu’il a utilisées. Ces fichiers incluent également des horodatages correspondant à la première et aux dernières exécutions. L’existence d’un fichier Prefetch (.pf) pour un programme est une preuve solide qu’il a été exécuté. C’est l’un des artefacts forensiques les plus fiables pour prouver l’exécution d’un programme.

Jour 1 | Quel texte européen permettra qu’à partir de fin 2027, tous les produits vendus dans l’UE et comprenant des composants numériques seront exempts de vulnérabilités et maintenus pendant tout leur cycle de vie ? #DigitalTrust

  • Réponse 1 : Le Cyber Security Act
  • Réponse 2 : Le Cyber Resilience Act
  • Réponse 3 : La Directive REC
  • Réponse 4 : La Directive NIS2 

Laïus explicatif : Le Cyber Resilience Act, qui a été publié ces derniers jours au Journal Officiel de l’Union Européenne est entré en vigueur le 10 décembre 2024. A compter de cette date, les fabricants et éditeurs doivent adapter leur processus pour pouvoir continuer à vendre des produits au sein de l’UE après le 10/12/2027.

EU Cyber Resilience Act | Shaping Europe’s digital future