Rechercher
Fermer ce champ de recherche.

Vous êtes victime d’un incident de sécurité ? Contactez notre CERT

19/05/2022

Digital Technology Insights

FinOps : l’éclaircie parmi les nuages

Digital Technology Insight

Le marché du cloud est en pleine expansion ; qu’il soit privé, public ou hybride – en IaaS, PaaS ou SaaS – chaque jour, des migrations massives sont conduites par les organisations. Permettant aux entreprises d’accélérer leur transformation digitale, en bénéficiant des dernières innovations technologiques et en facilitant l’accès à un catalogue de services fourni et des ressources illimitées à la demande, le cloud est aujourd’hui un levier incontournable.

Or, tout n’est pas « bleu » dans le nuage. De nouveaux paradigmes sont introduits par la nature du modèle cloud, parmi eux : sécurité en profondeur et multicouches, conformité réglementaire, construction des services et gestion budgétaire. Cette dernière, longtemps un frein à l’innovation et à la souscription de nouveaux services, car « imprédictible », « non maitrisable », fait désormais figure d’alliée, pour driver les investissements créateurs de valeur pour l’entreprise.

Variabilité des coûts, difficulté de forecasting et complexité des factures sont donc les nouvelles menaces à convertir en opportunités pour faire du cloud un accélérateur business.

couts-cloud-on-premise

Figure 1 : répartition des coûts Cloud Vs On-Premise (Source : Microsoft)

Une multitude d’options tarifaires sont proposées par les fournisseurs de services cloud comme Amazon et Microsoft. Le choix des services cloud est devenu très difficile. AWS propose par exemple plus de 200 000 références de produits, dont certaines facturées à la seconde.

Quotidiennement, les clients reçoivent des centaines de millions de lignes de données de facturation de leur fournisseur cloud, sans visibilité entre les ressources consommées et les dépenses associées.

couts-clouds

Figure 2 : Exemple d’une ligne de facturation AWS (Source : Cloud Finops)

Difficile de comprendre les différents attributs mais, en cherchant bien, on peut distinguer certains éléments :

  1. Le moment de l’utilisation de la ressource,
  2. Le tarif de facturation appliqué,
  3. La ressource facturée,
  4. Si une réservation de ressource a été appliquée ainsi que sa nature,
  5. Les attributs de métadonnées qui facilitent la répartition des coûts,
  6. La région géographique et le service utilisé.

Contrairement aux rapports de facturation des ressources On-Premise, les factures cloud ne sont pas exploitables manuellement. D’où l’importance de passer par un système plus performant pour pouvoir les traiter. Heureusement, les fournisseurs de services cloud comme AWS, GCP et AZURE proposent des outils pour analyser les dépenses cloud et avoir plus de visibilité sur les ressources consommées. Mais en l’absence de stratégie financière cloud et de compétences associées, les entreprises n’arriveront ni à appréhender et contrôler leurs dépenses, ni à optimiser leur consommation cloud ; et encore moins à identifier les investissements ROIstes à engager.

Il est donc important de mettre en place un dispositif de gouvernance très pointu pour piloter, suivre et mesurer les coûts engendrés par les ressources « cloud » et leurs impacts business.

L’approche FinOps apporte aux entreprises cette synergie recherchée : IT et financière, garantissant l’adhérence entre le design technique, le comportement de consommation des utilisateurs et la finance.

FinOps n’est pas une recette miracle pour réduire les dépenses cloud… En revanche, elle vise à :

  • Comprendre le comportement de consommation des ressources cloud,
  • Démontrer et suivre la valeur créée par la souscription à des ressources,
  • Responsabiliser les équipes grâce aux mécanismes de « chargeback » ou/et « payback »,
  • Optimiser les dépenses à travers un pilotage des ressources.

Au-delà des axes techniques et financiers, l’approche FinOps impose un cadre organisationnel structuré. La création d’un CCoE (Cloud Center Of Excellence) va garantir sa réussite en identifiant des rôles clés. Des compétences complémentaires vont ainsi pouvoir interagir ensemble : Lead FinOps, Lead Architect, Lead DevOps, Lead R&D… afin de contribuer à la mise en place et au maintien d’une gouvernance unifiée sur l’ensemble de la chaine des environnements cloud.

Le CCoE est évolutif et peut s’adapter à chaque typologie d’entreprise. Par exemple, dans les PME, l’approche FinOps peut être incarnée uniquement par un Lead FinOps (interne ou en temps partagé), chef d’orchestre du modèle et intervenant en étroite collaboration avec les équipes IT, afin de :

  • Définir les objectifs métiers à suivre et la gouvernance à mettre en place,
  • Définir la mise en place d’objectifs liés à la maîtrise des coûts au sein des équipes techniques,
  • Définir la bonne mise en place des mesures pour assurer la transparence de la consommation, l’optimisation continue et le reporting​,
  • Définir le reporting, le modèle de refacturation et la politique d’achat​,
  • Mesurer le ROI des investissements cloud engagés.

Soukaïna DERAOUI

Consultante Digital Technology

Voir les derniers Digital Technology Insights

12 septembre 2024
Avec des attaques par phishing en constante augmentation, la chasse au courriels frauduleux est devenue une norme. Découvrez le protocole […]
21 mai 2024
Dans un monde où les données jouent un rôle crucial dans les décisions stratégiques, leur gestion et leur sécurité sont […]
30 avril 2024
Découvrez quelques secrets d'une veille IT efficace, partagés par notre consultante sénior Soukaïna ! Restez à jour avec les dernières […]
22 novembre 2023
Le Digital & Technology Insights de ce jour permet d’appréhender la nécessité de positionner de manière lisible et assumée sa […]
8 novembre 2023
Digital & Technology Insights : Asma nous plonge au cœur du rôle crucial de la donnée en tant qu'élément moteur […]
12 juillet 2023
Luc nous parle des services IXP ​et des nombreux bénéfices qu’il apporte aux entreprises.
22 mars 2023
La tendance du Multi Cloud se confirme. Dans ce contexte, quelle stratégie adopter afin d'assurer une connectivité efficiente et résiliente […]
10 novembre 2022
Digital & Technology : une couverture de l’ensemble de la chaine de valeur IT & Digitale, de la définition à la […]
13 octobre 2022
Pour pouvoir ouvrir la voie à de nouveaux services, de nouveaux acteurs innovants, créer de nouveaux marchés pour de nouveaux […]
13 septembre 2022
Numérique responsable : le FinOps se présente comme une réelle opportunité et un levier indéniable pour maitriser sa consommation énergétique, […]

Jour 12 | Challenge OSINT

Réponse :

Jour 11 | Parmi ces propositions, quelle technique Mitre Atta&ck est la plus utilisée par les attaquants ?

  • Réponse 1 : OS Credential Dumping
  • Réponse 2 : Valid Account
  • Réponse 3 : Impair Defenses
  • Réponse 4 : Remote services

Laïus explicatif : L’achat ou la récupération de comptes valides sont de plus en plus commun. Certains cybercriminels appelés Initial Access Broker se spécialisent dans la compromission de victimes dans le but de récupérer des identifiants valides qui seront ensuite vendus à d’autres cybercriminels comme les groupes de ransomware.

Jour 10 | Parmi ces structures de données de la mémoire dans Windows, quelle est celle qui permet de lister les processus en cours d’exécution ?

  • Réponse 1 : EPROCESS
  • Réponse 2 : Kernel Debugger Data Block (KDBG)
  • Réponse 3 : Kernel Processor Control Region (KPCR)
  • Réponse 4 : Process Environment Block (PEB)

Laïus explicatif : La structure EPROCESS (Executive Process) est utilisée par Windows pour gérer chaque processus en cours d’exécution. Elle contient des informations essentielles comme l’identifiant du processus (PID), l’état, les threads associés, et d’autres données nécessaires au système pour suivre les processus actifs. En analysant les structures EPROCESS, on peut lister les processus actuellement en mémoire. Le PEB est lié à chaque processus de manière individuelle. Enfin le KPCR est nécessaire pour trouver l’adresse du KDB qui à son tour permettra de pointer vers le EPROCESS.  

Jour 9 | Quel est le problème si la suite cryptographique TLS_RSA_WITH_AES_256_CBC_SHA256 est utilisée avec l'extension encrypt_then_mac pour la sécurité d'une communication TLS ?

  • Réponse 1 : L’algorithme de chiffrement est trop faible

  • Réponse 2 : L’intégrité de la communication n’est pas assurée

  • Réponse 3 : Il n’y a pas la propriété de confidentialité persistante (Perfect Forward Secrecy)

  • Réponse 4 : Le serveur n’est pas correctement authentifié

Laïus explicatif : La bonne réponse est le manque de confidentialité persistante.

La suite TLS_RSA_WITH_AES_256_CBC_SHA256 utilise la clé publique RSA du serveur pour chiffrer le secret partagé utilisé pour sécuriser les échanges de la session TLS : en cas de compromission de la clé privée du serveur, l’ensemble des échanges des sessions passées peuvent être déchiffrés par un attaquant.
La confidentialité persistante (connue sous le nom de Perfect Forward Secrecy en anglais) consiste en l’utilisation d’un échange Diffie-Hellman éphémère pour négocier le secret partagé, sans utilisation de la clé RSA du serveur.

Jour 8 | Quel est l'avantage d'utiliser un outil de couverture de code lors d'une session de fuzzing ?

  • Réponse 1 : Réduire le temps de fuzzing en optimisant certaines instructions assembleur.

  • Réponse 2 : Utiliser la technique de « pré-chauffage » du harnais (« warming code attack »).

  • Réponse 3 : Pouvoir analyser facilement les sections de code atteintes par le fuzzer.

  • Réponse 4 : Ne pas prendre en compte les vulnérabilités de type use-after-free.

Laïus explicatif : Les outils de couverture de code (“code coverage” en anglais) permettent de savoir avec précision quelles lignes de code d’un programme qui ont réellement été exécutées. Lors d’une session de “fuzzing”, ces outils peuvent aider l’analyste à savoir si les fonctions ciblées ont été atteintes par le fuzzer. Cette technique a notamment été utilisée par un membre de l’équipe Offsec pour trouver une vulnérabilité dans une bibliothèque open-source (voir notre article de blog)

Jour 7 | Quelle est la principale éthique qui doit être prise en compte dans le développement de l’Intelligence Artificielle ?

  • Réponse 1 : L’équité et la non-discrimination

  • Réponse 2 : La transparence des algorithmes utilisés

  • Réponse 3 : La sécurité et la confidentialité des données

  • Réponse 4 : Toutes les réponses

Laïus explicatif : L’équité et la non-discrimination sont des principes fondamentaux dans le développement de l’IA. Les systèmes d’IA doivent être conçus pour éviter les biais et assurer qu’ils ne favorisent pas des groupes spécifiques au détriment d’autres, afin de garantir un traitement juste et égal pour tous les utilisateurs. La transparence des algorithmes est cruciale. Les utilisateurs doivent comprendre comment les décisions sont prises par l’IA, ce qui inclut la possibilité d’expliquer les résultats ou actions générés par un système d’intelligence artificielle, afin d’éviter des décisions opaques ou injustes. La sécurité et la confidentialité des données sont enfin des préoccupations majeures lorsque l’on développe des systèmes d’IA, car ces technologies peuvent collecter et traiter des informations sensibles, ce qui soulève des questions sur la protection des données personnelles et la vie privée.

Jour 6 | Selon vous, en moyenne combien de ransomware ont eu lieu par jour en 2023 dans le monde ?

  • Réponse 1 : 1 par jour

  • Réponse 2 : 100 par jour

  • Réponse 3 : 30 par jour

  • Réponse 4 : 12 par jour

Laïus explicatif : En moyenne 12 attaques ransomware ont été signalées par jour par des victimes dans le monde en 2023 selon les chiffres d’Almond. Pour plus d’informations, n’hésitez pas à consulter notre Threat Landscape.

Jour 5 | Challenge de stéganographie

Réponse : PASSI RGS, PASSI LPM, CESTI, ANJ, Cybersecurity made in Europe, PCI QSA Company et Swift

Etape 1 : Observer l’image, trouver 3 logos cachés (Cybersecurity made in Europe, PCI QSA Company & Swift) et une indication pour chercher dans les métadonnées du fichier. 

Etape 2 : Challenge de stéganographie

En lançant dans son terminal un des outils les plus courants, « binwalk », on trouve une image JPEG dans le PDF. En extrayant les données grâce au même outil et en renommant le fichier en .jpeg, on voit apparaitre une image cachée. Ensuite, en utilisant « steghide », on peut extraire le fichier avec le mot de passe « Almond ». Ce fichier contient une suite de caractère encodée en base64. En la déchiffrant, on obtient les quatre autres certifications : PASSI RGS, PASSI LPM, CESTI et ANJ. 

Jour 4 | Concernant les accompagnements de la nouvelle qualification PACS de l’ANSSI, sur la portée Sécurité des Architectures, quels sont les domaines qui font partie du périmètre possible d’un accompagnement ?

  • Réponse 1 : la sécurité réseau, l’authentification, et l’administration du SI

  • Réponse 2 : la sécurité réseau, la sécurité système, et les mécanismes de chiffrement

  • Réponse 3 : l’administration du SI, le cloisonnement, les sauvegardes, et la stratégie de détection/réponse

  • Réponse 4 : tous ces sujets et plus encore

  • Laïus explicatif : Le référentiel PACS, sur la portée Sécurité des Architectures, porte bien sur tous les sujets liés de près ou de loin aux infrastructures du SI. La liste n’est pas exhaustive et est à adapter à chaque prestation d’accompagnement suivant le périmètre d’intervention. Dans le référentiel, l’ANSSI propose une liste de sujets à adresser dans un rapport PACS page 28 et 29.

    https://cyber.gouv.fr/sites/default/files/document/PACS_referentiel-exigences_v1.0.pdf

Jour 3 | Quel référentiel permet la certification de produits de sécurité ?

  • Réponse 1 : NIS2

  • Réponse 2 : Critères Communs

  • Réponse 3 : PASSI

  • Réponse 4 : ISO27001

Laïus explicatif : Le schéma Critères Communs est un ensemble de normes et méthodologies permettant de cadrer les moyens utilisés pour évaluer, de manière impartiale, la sécurité d’un produit de sécurité (logiciel ou matériel). Ce schéma est reconnu internationalement au travers de plusieurs accords (SOG-IS, CCRA et prochainement EUCC).

Le référentiel PASSI permet la qualification, par l’ANSSI, des prestataires d’audit de la sécurité des SI. ISO27001 est la norme décrivant les bonnes pratiques à suivre dans la mise en place d’un SMSI. Enfin, NIS2 est une directive visant à harmoniser et à renforcer la cybersécurité du marché européen.

Jour 2 | Quel est l’artefact forensique qui permet de prouver une exécution d’un programme sous Windows ?

  • Réponse 1 : JumpList

  • Réponse 2 : ShimCache

  • Réponse 3 : $MFT

  • Réponse 4 : Prefetch

Laïus explicatif : Le Prefetch est un artefact spécifique à Windows qui optimise le chargement des programmes. Lorsqu’un programme est exécuté pour la première fois, Windows crée un fichier dans le dossier C:\Windows\Prefetch, qui contient des informations sur le programme et les ressources qu’il a utilisées. Ces fichiers incluent également des horodatages correspondant à la première et aux dernières exécutions. L’existence d’un fichier Prefetch (.pf) pour un programme est une preuve solide qu’il a été exécuté. C’est l’un des artefacts forensiques les plus fiables pour prouver l’exécution d’un programme.

Jour 1 | Quel texte européen permettra qu’à partir de fin 2027, tous les produits vendus dans l’UE et comprenant des composants numériques seront exempts de vulnérabilités et maintenus pendant tout leur cycle de vie ? #DigitalTrust

  • Réponse 1 : Le Cyber Security Act
  • Réponse 2 : Le Cyber Resilience Act
  • Réponse 3 : La Directive REC
  • Réponse 4 : La Directive NIS2 

Laïus explicatif : Le Cyber Resilience Act, qui a été publié ces derniers jours au Journal Officiel de l’Union Européenne est entré en vigueur le 10 décembre 2024. A compter de cette date, les fabricants et éditeurs doivent adapter leur processus pour pouvoir continuer à vendre des produits au sein de l’UE après le 10/12/2027.

EU Cyber Resilience Act | Shaping Europe’s digital future