Vous êtes victime d’un incident de sécurité ? Contactez notre CERT

09/02/2022

Digital Technology Insights

Self-BI : Dat’Iceberg en vue !

Culture, gouvernance et qualité… Voilà les 3 priorités en matière de « Data Strategy » sur lesquelles les entreprises s’accordent cette année encore [1], quels que soient leur secteur d’activité, leur plaque géographique ou leur maturité sur ces sujets.
Et ce depuis plus de 5 années consécutives alors que le monde connait une accélération sans précédent avec dans son sillage son lot d’injonctions (à priori) paradoxales…

Les marqueurs d’une transition

Figure 1: L’injonction paradoxale à l’échelle de l’entreprise

La multiplicité de ces changements tant en fréquence qu’en nature, met à mal l’entreprise et l’ensemble de son écosystème. Alors pour préserver sa « santé » (business model, performance, pérennité…), le besoin de fiabilisation et de valorisation de l’information devient chaque jour plus prononcé.
Avec encore et toujours le même objectif : mieux décider pour mieux agir (cf. notre article « La Gouvernance de Données : votre passeport vers la création de valeur »). Pas étonnant dans ce contexte que la Self-BI trouve une nouvelle fois sa place au top 5 des tendances Data, BI and Analytics de 2022 selon BARC [1].

Figure 2: « Data, BI, and Analytics Top trends » 2022 selon BARC

Car tout l’enjeu est là : bâtir le socle technologique, organisationnel et culturel nécessaire à l’autonomisation des métiers (indépendance ET responsabilité) en matière de consommation du patrimoine informationnel de l’entreprise. De sorte que l’intelligence économique devienne une compétence décentralisée qui concourt au développement de l’intelligence collective.
En clair, c’est donner la capacité aux utilisateurs finaux d’accéder à des sources de données fiables et d’en tirer la valeur attendue en construisant et en déployant leurs propres analyses et reportings (voire modèles de données pour les plus aguerris), et ce sans recourir à l’IT.
Il s’agit donc de créer au sein même de l’entreprise un nouvel écosystème fondé sur la confiance et répondant à de nouvelles règles d’engagement visant à concentrer, orchestrer et associer données, compétences, processus et personnes.

[1] Data, BI and Analytics Trend Monitor 2022, BARC – Business Application Research Center

La transformation en prérequis

Les promesses de la Self-BI sont nombreuses et ont toutes pour objet la valorisation du patrimoine informationnel de l’entreprise :

  • L’amélioration des processus de création de valeur et d’aide à la décision,
  • L’amélioration de la performance et de l’agilité des métiers (time to market),
  • Le développement d’une culture du pilotage et de l’innovation par la Donnée,
  • Le développement de la relation partenariale entre IT et métiers.

Pour autant, ces promesses ne pourront être tenues qu’à cette unique condition : une transition IT réussie vers le Data Enablement. En d’autres termes, la mise en œuvre et le support efficace de l’architecture et des processus qui garantiront que la bonne information soit délivrée à la bonne personne et au bon moment afin qu’elle puisse prendre la meilleure décision possible et agir en conséquence. Et ce en conformité avec les standards éthiques, réglementaires et de sécurité qui s’imposent à la structure.

Sans pousser trop loin la métaphore, le modèle culturel de l’iceberg d’Edward T.Hall s’applique ici parfaitement : les parties immergées (c’est-à-dire la valeur produite) n’étant que l’expression des parties submergées (rassemblant prérequis et fondamentaux).

Figure 3: La Self-BI, le changement de paradigme

La Self-BI n’est donc pas uniquement une affaire d’outils et elle ne peut se limiter aux seuls talents du bricoleur. Bien au contraire ! Elle s’inscrit dans une démarche globale relevant davantage du programme de transformation que du projet de déploiement applicatif.
Sur le plan technologique, on portera une attention particulière à la performance et la scalabilité de la plateforme qui soutiendra la démarche :

  • performance : car la démocratisation des usages au même titre qu’une volumétrie croissante des données viendront malmener les infrastructures. La performance pourrait vite devenir la première victime du succès (de fait éphémère) de cette toute nouvelle autonomie donnée aux utilisateurs ;
  • scalabilité : car les besoins viendront à se multiplier et qu’il deviendra indispensable de pouvoir accueillir ces changements en des temps records, sans remettre en question la qualité, la conformité, la sécurité ou l’exploitabilité du service rendu.

Sur le plan organisationnel, il conviendra de créer et orchestrer de nouveaux rôles dédiés à la valorisation de la donnée comme à sa collecte et à son façonnage amont. In fine, c’est l’animation d’une communauté data rapprochant équipes métiers et IT/BI qui représentera l’un des facteurs de succès de la démarche en relayant notamment :

  • gouvernance : car la définition de politiques, processus, standards (notamment en matière de gestion des privilèges) et la clarification des rôles et responsabilités tout au long du cycle de vie de la donnée devront garantir les niveaux de disponibilité, intégrité, confidentialité et traçabilité de l’information ;
  • changement : car le déploiement et le maintien de guides, de plans de formation et de canaux de communication appropriés (supports, publications, événements) contribueront à l’acculturation nécessaire à la transformation amorcée et favoriseront l’adhésion des différentes parties prenantes aux solutions déployées.

Trouver le bon curseur, la bonne approche, la bonne architecture sont autant de challenges auxquels il faudra se confronter pour mettre en œuvre le plus efficacement une démarche de Self-BI.
En conséquence, une recommandation s’impose : définir une feuille de route adaptée, privilégiant preuves de concepts et autres « quick wins » ou effets démonstrateurs en s’appuyant en premier lieu sur les populations métiers les plus matures tant en termes de compétences que d’usages.

Le cloud : un accélérateur à double tranchant

Et cette logique « des petits pas » s’illustre particulièrement en matière d’architecture. Comment bâtir un socle technologique qui réponde à l’ensemble des usages de la donnée au sein de l’entreprise ? Et par conséquent, comment intégrer les besoins liés au déploiement de la Self-BI ?

Les réponses à ces questions épineuses ne tombent jamais du ciel. Pourtant, nombreuses sont les organisations qui se tournent vers les nuages… D’ici 2025, 50% des entreprises appuieront leur transformation métier sur des architectures cloud distribuées, justifiant une place au top 3 des priorités achat dès 2023[2].

Et les motivations sont claires : plus simple, plus performant, plus agile et moins cher, avec en prime la possibilité souvent alléchante de changer de modèle de coût (du CAPEX vers l’OPEX) et de diminuer le TCO (Total Cost of Ownership) du SI. Un environnement tout désigné pour garantir l’ATAWAD (Any Time, Any Where, Any Data) recherché par l’implémentation d’une démarche Self-BI.
Simplification et valorisation : telles sont les attentes de ces architectures DaaS (Data as a Service) telles que rencontrées dans de nombreuses organisations puisqu’elles facilitent :

  • l’ingestion et le stockage de multiples sources de données, qu’elles soient structurées, semi-structurées ou non structurées,
  • l’accès au temps réel via le déploiement de technologies de CDC (Change data Capture) et le passage au mode ELT (Extraction, Load and Transform) par opposition au traditionnel ETL,
  • l’implémentation de « sources uniques de vérité » permettant l’exposition de données Métier sécurisées, fiabilisées et traçables de bout en bout (data lineage).

Figure 4: xOPS – les clés d’une transition réussie vers le cloud

Et ces tendances à la modernisation des socles data ne rencontreront de succès et de ROI raisonnable (Return On Investment) qu’à condition de porter une attention particulière aux points suivants :

  • l’implémentation puis le maintien en conditions opérationnelles et de sécurité de l’architecture choisie (hybride, multicloud…),
  • le développement et la pérennisation de compétences, rôles et processus spécifiques à même de garantir l’agilité et la flexibilité recherchées,
  • la gestion fine, opérationnelle et en continu des coûts liés à ces plateformes dont la pluralité des modèles et usages peut vite condamner toute tentative de maîtrise des budgets dédiés.

C’est donc en prenant « le virage des Ops » et en rapprochant les métiers du développement, de la sécurité, des opérations et des finances autour de la donnée et dans un cadre collaboratif efficace, que ces architectures donneront pleinement satisfaction.
Des choix forts et des investissements lourds qui figurent parfaitement de l’iceberg présenté plus haut et de l’ampleur de la tâche concernant l’implémentation de la Self-BI comme outil de pilotage de l‘entreprise par la donnée.
Et les différents fournisseurs du domaine en conviennent, car si les principaux acteurs présentent des solutions aux fonctionnalités similaires, c’est bien sûr les points présentés plus haut que la bataille fait rage.

Figure 5: Magic Quadrant pour les plateformes d’analyses et de Business Intelligence

En effet, les principales fonctionnalités qu’il faudra rechercher dans un outil de Self-BI sont les suivantes :

  • la capacité à effectuer des analyses/requêtes sans ou avec peu de support de la part de l’équipe IT. Cette facilité de prise en main représentant le cœur de la Self-BI ;
  • l’accès, la collecte et la manipulation de différentes sources de données. Capacité essentielle à la consolidation de vues 360° d’une problématique donnée ;
  • enfin la multiplicité et la qualité des outils de data visualisation et de création de tableaux de bords permettant d’explorer et de représenter les données de façon précise et largement compréhensible, s’avèrent indispensables à toute solution de Business Intelligence.

Toutefois, il ne s’agit là que d’une base commune aux différents outils d’un marché ultra compétitif, ne permettant plus de les départager.
Il convient alors de se focaliser sur des critères relevant davantage du contexte d’implémentation de ces solutions que de leur valeur intrinsèque :

  • Scalabilité et performance : à mesure que la quantité de données augmente et que les besoins en analyse sont en constante croissance, il est nécessaire de disposer d’un outil scalable, performant avec des capacités de calcul importantes (au même titre que l’ensemble des briques architecturales évoquées plus haut) ;
  • Sécurité et contrôle d’accès : la sécurité des données est un élément critique à surveiller. La mise en place d’une gouvernance claire en définissant les rôles et privilèges d’accès permet de limiter les risques de compromission des données et d’en maitriser les niveaux de confidentialité. Une gestion fine des privilèges et la définition de modèles de delivery (business led et/ou IT managed) adaptés aux profils utilisateurs comme aux usages permettront ainsi de maîtriser les risques et coûts de déploiements ;
  • Collaboration : afin de contribuer à la démocratisation des usages et au développement d’une culture de la donnée au sein de l’entreprise, la solution choisie doit faciliter la communication entre utilisateurs, le partage de données (publication) comme la production collaborative de tableaux de bords. Les capacités multi-devices seront également appréciées, notamment dans une optique de mobilité ;
  • Data management : la Self-BI renvoie à la mise en œuvre d’une chaine complète de traitement de l’information. En conséquence, les solutions « de bout en bout » proposant une couverture exhaustive de cette chaine seront particulièrement appréciées. L’intégration de fonctionnalités de gestion de la qualité des données (Data Stewardship) ou encore de gestion centralisée des métadonnées (Data Catalogue ou Business Glossary) est indispensable au déploiement d’une vision commune et dé-silotée de l’information, facilitant sa compréhension par tous et libérant par là son usage ;
  • Analytique avancée : si la multiplicité des connecteurs facilite l’intégration de nombreuses sources de données, elle permet également d’étendre les performances de la solution en embarquant des méthodologies d’IA de découverte, d’enrichissement, ou d’explication de données (cf. Machine Learning ou Deep Learning). Proche d’intégrer les fonctionnalités de bases citées plus haut, leur facilité d’implémentation et/ou degré d’intégration à la solution constitue un élément particulièrement différenciant.
  • Offre cloud : la capacité d’un outil Self-service BI à s’inscrire dans un environnement cloud est devenue également inévitable. L’outil devra permettre non seulement de réaliser des analyses de données dans le cloud (qu’il soit public ou privé) mais aussi de s’intégrer dans des écosystèmes multiclouds et hybrides.
  • Coût : les coûts d’achat, de mise en œuvre et d’exploitation doivent être pris en compte lors du choix de l’outil. Les fournisseurs mettant en avant des offres plus avantageuses avec une couverture complète arriveront à se démarquer notamment les fournisseurs cloud (tels que Microsoft, AWS, Google…).

[2] 100 data analytics predictions through 2025 – GARTNER

Alors « faire ou ne pas faire ? »

Finalement, la question n’est pas là. Et pour une fois, elle n’est pas non plus dans le « Pourquoi ? », la valeur potentielle pour l’entreprise n’étant plus à démontrer, quel que soit le domaine[3][4]. La question réside bien dans le « Comment ? ».

Figure 6: L’impact de l’analyse de données en temps réel par métier et secteurs d’activité [3][4]

La Self-BI n’est pas une fin en soi mais une composante essentielle d’une stratégie globale de valorisation de la donnée au sein de l’entreprise, visant à renforcer le pilotage de la performance Métier, accélérer et fiabiliser la prise de décision.

Elle représente un palier de maturité dans le rapport de l’entreprise à la donnée, et doit s’inscrire dans une démarche stratégique à moyen/long terme, mobilisant de nombreuses parties prenantes afin d’opérer le changement de culture associé.

Figure 7: La Self-BI, une question de maturité [5]

Selon le référentiel du CMMI, un niveau de maturité « Defini » (3 sur une échelle de 5 niveaux), c’est-à-dire présentant des standards décrits et en application sur chacun des axes du modèle DMMSM, semble représenter une base solide pour l’implémentation efficace et sereine d’une démarche de Self-BI.

En 2023, 30% des organisations collecteront la valeur issue de leurs données via l’intelligence collective déployée au sein de leurs communautés Data, dépassant leurs concurrents ne comptant que sur leur centre d’excellence dédié ou démarche de self-service [2].

L’analyse n’est donc que la partie immergée de l’iceberg « Self-BI » dont la stabilité repose sur les étapes clés suivantes :

  • L’établissement d’une stratégie ambitieuse, claire et pragmatique, alignant métier & SI au regard des enjeux de l’entreprise,
  • La définition et l’animation d’une gouvernance transverse, mobilisatrice, tangible et efficace au quotidien,
  • L’implémentation ou la modernisation d’une architecture performante, scalable, agile et sécurisée par design,
  • Le développement et l’accompagnement d’une communauté dynamique et engagée, car seules ces forces vives donneront corps aux plans, processus et outillages déployés.

Figure 8: La Self-BI, une composante essentielle de votre stratégie Data

[3] Fueling growth through data monetization – MCKINSEY

[4] Faster Insights from Faster Data – best practice report 2020 – TDWI

[5] Why Is Measurement of Data Management Maturity (DMM)SM So Important? – CMMI

ANTARI Imane

Imane ANTARI

Consultante Digital Technology

Alexandre MENICACCI

Consultant senior Digital Technology

Voir les derniers Digital Technology Insights

12 septembre 2024
Avec des attaques par phishing en constante augmentation, la chasse au courriels frauduleux est devenue une norme. Découvrez le protocole […]
21 mai 2024
Dans un monde où les données jouent un rôle crucial dans les décisions stratégiques, leur gestion et leur sécurité sont […]
30 avril 2024
Découvrez quelques secrets d'une veille IT efficace, partagés par notre consultante sénior Soukaïna ! Restez à jour avec les dernières […]
22 novembre 2023
Le Digital & Technology Insights de ce jour permet d’appréhender la nécessité de positionner de manière lisible et assumée sa […]
8 novembre 2023
Digital & Technology Insights : Asma nous plonge au cœur du rôle crucial de la donnée en tant qu'élément moteur […]
12 juillet 2023
Luc nous parle des services IXP ​et des nombreux bénéfices qu’il apporte aux entreprises.
22 mars 2023
La tendance du Multi Cloud se confirme. Dans ce contexte, quelle stratégie adopter afin d'assurer une connectivité efficiente et résiliente […]
10 novembre 2022
Digital & Technology : une couverture de l’ensemble de la chaine de valeur IT & Digitale, de la définition à la […]
13 octobre 2022
Pour pouvoir ouvrir la voie à de nouveaux services, de nouveaux acteurs innovants, créer de nouveaux marchés pour de nouveaux […]
13 septembre 2022
Numérique responsable : le FinOps se présente comme une réelle opportunité et un levier indéniable pour maitriser sa consommation énergétique, […]

Nous vous souhaitons de joyeuses fêtes de fin d’année hautes en couleur et à l’année prochaine pour une année 2025 exaltante ! 🎉

🎁 Merci à tous pour votre participation au quiz de l’avent, nous contacterons le gagnant très prochainement.

🎅 Chez Almond, l’esprit festif des fêtes de fin d’année est arrivé en avance !

Nos collaborateurs ont profité d’une soirée chaleureuse et joyeuse dans l’un des restaurants les plus spectaculaires de Paris, Le Cirque avec un cocktail dinatoire, des surprises et un Secret Santa.

Et un peu plus de magie de Noël ? Almond a également ouvert ses portes aux familles de nos collaborateurs pour une après-midi conviviale autour de l’arbre de Noël. Les enfants ont été captivés par des contes enchantés, de 1001 contes Constance Felix et ont savouré un goûter délicieux avec des chocolats chauds préparés par les Empotés. Le Père Noël a distribué des coloriages géants et des cadeaux pour le plus grand bonheur des enfants 🎁

Jour 23 |

Jour 22 | Laquelle de ces menaces n’est pas un cryptoransomware ?

  • Réponse 1 : Lockbit3
  • Réponse 2 : Phobos
  • Réponse 3 : NotPetya
  • Réponse 4 : WannaCry

Laïus explicatif : Bien que NotPetya ressemble à un ransomware, il s’agit en réalité d’un wiper. Ce malware rend indisponible les fichiers de la victime, mais ne fournit aucun moyen de les déchiffrer, même après le paiement de la rançon. L’objectif principal de NotPetya n’est pas l’extorsion financière, mais la destruction de données.
En cas d’incident, voici les coordonnées de notre CERT : [email protected] +33 (0)1 83 75 36 94

Jour 21 | Vous dialoguez via votre terminal avec un service distant et vous vous rendez compte qu'il contient un stack-based overflow. Vous cherchez à l'exploiter à l'aveugle et trouvez finalement l'offset de l'adresse de retour, après avoir contourné les éventuelles protections. Vous cherchez maintenant un stop gadget pour continuer votre exploitation. Quelle est son utilité :

  • Réponse 1 : interrompre à la demande le flux d’exécution du binaire distant le temps de l’exploitation
  • Réponse 2 : obtenir une exécution fiable et maîtrisée avec un comportement reproductible
  • Réponse 3 : pouvoir mettre en pause le binaire temporairement pendant l’envoi de la payload
  • Réponse 4 : pouvoir stopper proprement le binaire afin d’éviter un éventuel crash à la fin de l’exploitation

Laïus explicatif : L’exploitation se déroulant en aveugle, il est nécessaire de trouver une adresse permettant d’obtenir un comportement particulier et reproductible à chaque exécution, comme l’affichage du texte « Bye ». Si une telle adresse est trouvée, elle correspond au stop gadget. Il permettra donc de continuer l’exploitation et de valider ou invalider nos déductions lors de l’exécution du binaire.

Jour 20 | Le terme "spam" pour désigner les messages indésirables provient initialement

  • Réponse 1 : D’une marque de jambon en boîte
  • Réponse 2 : D’un acronyme signifiant « Stupid Pointless Annoying Messages »
  • Réponse 3 : D’un sketch des Monty Python
  • Réponse 4 : D’un code utilisé pendant la Seconde Guerre mondiale

Laïus explicatif : Ce mot, à l’origine un acronyme de : SPiced hAM (du jambon épicé en boîte vendue par une entreprise américaine), est repris en masse, pour brouiller la conversation, dans un sketch des Monty Python.

Jour 19 | L’acronyme PACS désigne  :

A. Un format permettant la visualisation des images dans l’imagerie médicale

B. Un système d’archivage et de communication d’images dans l’imagerie médicale

C. Un prestataire d’audit et de conseil en cybersécurité

D. Un pacte civil de solidarité

  • Réponse 1 : L’ensemble des réponses
  • Réponse 2 : Réponses C et D
  • Réponse 3 : Réponses B, C et D
  • Réponse 4 : Réponses A, C et D

Laïus explicatif :

Un PACS, dans le secteur de l’imagerie médicale, désigne effectivement un système (et non un format) signifiant « Picturing Archiving and Communication System » permettant de gérer les images médicales grâce à des fonctions d’archivage.

De plus, depuis septembre, l’ANSSI a publié un référentiel d’exigences qui permet aux commanditaires de prestations de sécurité de bénéficier de garanties sur les compétences des prestataires, sur le processus d’accompagnement et de conseil, ainsi que sur la sécurité des systèmes d’information associés. Ce référentiel vise à reconnaître officiellement les prestataires en tant que « Prestataires d’accompagnement et de conseil en sécurité ».
Enfin, en France, le PACS désigne aussi une forme d’union civile dénommée Pacs.

Jour 18 | En quelle année l'ANSSI prévoit de ne plus recommander l'utilisation de certains algorithmes de chiffrement classiques en raison de l'augmentation de la puissance de calcul des ordinateurs classiques et de la menace posée par les ordinateurs quantiques ?

  • Réponse 1 : 2026
  • Réponse 2 : 2030
  • Réponse 3 : 2035
  • Réponse 4 : 2050

Laïus explicatif : Dans son dernier avis sur la migration vers la cryptographie post quantique, paru en janvier 2024, l’ANSSI encourage tous les éditeurs à mettre en œuvre dès à présent une hybridation entre la cryptographie standard et la cryptographie post-quantique (pour les produits qui doivent protéger des informations après 2030) et recommande d’utiliser en priorité la cryptographie post-quantique à partir de 2030.  

Jour 17 | Quelle est la dernière course à laquelle j’ai participé ?

  • Réponse 1 : Le Vendée Globe
  • Réponse 2 : National Figaro 3 en équipage
  • Réponse 3 : La Solitaire du Figaro Paprec
  • Réponse 4 : Le Havre Allmercup

Laïus explicatif : Le National Figaro 2024 s’est déroulé du 4 au 6 octobre dernier à Lorient. Thomas et son équipe sont arrivés en 2e position ! Cette course clôture ainsi la saison 2024 sur le circuit Figaro. 

  • Réponse 1 : Aetheris

  • Réponse 2 : Venopie

  • Réponse 3 : Lumidus

  • Réponse 4 : Pandama

Laïus explicatif : Au sein de la plateforme d’attaque – défense M&NTIS, le scénario Pandama propose une kill chain dont l’impact, après compromission du contrôleur de domaine, permet de déployer, par GPO, une charge utile effaçant les données présentes sur les systèmes de fichiers du SI simulé.

Pour rappel, basé sur les technologies d’émulation d’adversaire et de Cyber Range, M&NTIS permet d’exécuter des campagnes d’attaques réalistes afin de challenger dans un environnement immersif les procédures et l’expertise des équipes SOC et CERT. M&NTIS répond ainsi aux enjeux d’amélioration continue de la défense.

Jour 15 | Quel type de menace ne fait pas parti de l’insider threat?

  • Réponse 1 : Malicious
  • Réponse 2 : Ransomware group
  • Réponse 3 : Negligent
  • Réponse 4 : Vendors

Laïus explicatif : Almond a proposé une étude sur la menace interne qui décrit chaque type d’insider. Les groupes de ransomware sont externes à l’entreprise mais peuvent recruter des employées pour récupérer des accès valides et compromettre l’entreprise. Retrouvez l’étude ici.

Jour 14 | Selon vous, quelle proportion des cyberattaques réussies sont liées à une erreur humaine ?

  • Réponse 1 : 40%

  • Réponse 2 : 100%

  • Réponse 3 : 70%

  • Réponse 4 : 90%

Laïus explicatif : 90% des cyberattaques trouvent leur origine dans une erreur humaine. L’erreur humaine en cybersécurité englobe toutes les actions, conscientes ou non, qui exposent les systèmes et les données à des menaces. Cela inclut des gestes apparemment innocents, comme le fait de :

  • Cliquer sur les liens malveillants
  • Utiliser des mots de passe faibles ou partagés
  • Partager des informations sensibles
  • Négliger la mise à jour des logiciels et systèmes
  • Commettre une erreur de configuration ou mal administrer les accès
  • Utiliser des clés USB non sécurisées ou prévenant de sources inconnues

Jour 13 | Almond & Amossys sont présents en France et à l’international pour garantir proximité et réactivité grâce à nos services 24/7. Dans quels pays se trouvent nos équipes ?

  • Réponse 1 : FRA – CHE – AUS – JPN

  • Réponse 2 : FRA – CAN – CHE – KOR

  • Réponse 3 : FRA – AUS – CAN – GBR

  • Réponse 4 : FRA – BEL – ITA – USA

Jour 12 | Challenge OSINT

Val Thorens

Laïus explicatif : Depuis plusieurs années consécutives, notre CSE organise des séjours à Val Thorens pour profiter des sports d’hiver. Que l’on aime dévaler les pistes de ski à toute allure, tenter l’aventure en prenant des cours d’initiation ou simplement déguster une raclette après une randonnée raquette et un passage à la piscine et au sauna, ce séjour est l’occasion de partager des moments convivaux avec ses collègues ! TIC, TAC, le prochain séjour ski approche à grands pas !

Jour 11 | Parmi ces propositions, quelle technique Mitre Atta&ck est la plus utilisée par les attaquants ?

  • Réponse 1 : OS Credential Dumping
  • Réponse 2 : Valid Account
  • Réponse 3 : Impair Defenses
  • Réponse 4 : Remote services

Laïus explicatif : L’achat ou la récupération de comptes valides sont de plus en plus commun. Certains cybercriminels appelés Initial Access Broker se spécialisent dans la compromission de victimes dans le but de récupérer des identifiants valides qui seront ensuite vendus à d’autres cybercriminels comme les groupes de ransomware.

Jour 10 | Parmi ces structures de données de la mémoire dans Windows, quelle est celle qui permet de lister les processus en cours d’exécution ?

  • Réponse 1 : EPROCESS
  • Réponse 2 : Kernel Debugger Data Block (KDBG)
  • Réponse 3 : Kernel Processor Control Region (KPCR)
  • Réponse 4 : Process Environment Block (PEB)

Laïus explicatif : La structure EPROCESS (Executive Process) est utilisée par Windows pour gérer chaque processus en cours d’exécution. Elle contient des informations essentielles comme l’identifiant du processus (PID), l’état, les threads associés, et d’autres données nécessaires au système pour suivre les processus actifs. En analysant les structures EPROCESS, on peut lister les processus actuellement en mémoire. Le PEB est lié à chaque processus de manière individuelle. Enfin le KPCR est nécessaire pour trouver l’adresse du KDB qui à son tour permettra de pointer vers le EPROCESS.  

Jour 9 | Quel est le problème si la suite cryptographique TLS_RSA_WITH_AES_256_CBC_SHA256 est utilisée avec l'extension encrypt_then_mac pour la sécurité d'une communication TLS ?

  • Réponse 1 : L’algorithme de chiffrement est trop faible

  • Réponse 2 : L’intégrité de la communication n’est pas assurée

  • Réponse 3 : Il n’y a pas la propriété de confidentialité persistante (Perfect Forward Secrecy)

  • Réponse 4 : Le serveur n’est pas correctement authentifié

Laïus explicatif : La bonne réponse est le manque de confidentialité persistante.

La suite TLS_RSA_WITH_AES_256_CBC_SHA256 utilise la clé publique RSA du serveur pour chiffrer le secret partagé utilisé pour sécuriser les échanges de la session TLS : en cas de compromission de la clé privée du serveur, l’ensemble des échanges des sessions passées peuvent être déchiffrés par un attaquant.
La confidentialité persistante (connue sous le nom de Perfect Forward Secrecy en anglais) consiste en l’utilisation d’un échange Diffie-Hellman éphémère pour négocier le secret partagé, sans utilisation de la clé RSA du serveur.

Jour 8 | Quel est l'avantage d'utiliser un outil de couverture de code lors d'une session de fuzzing ?

  • Réponse 1 : Réduire le temps de fuzzing en optimisant certaines instructions assembleur.

  • Réponse 2 : Utiliser la technique de « pré-chauffage » du harnais (« warming code attack »).

  • Réponse 3 : Pouvoir analyser facilement les sections de code atteintes par le fuzzer.

  • Réponse 4 : Ne pas prendre en compte les vulnérabilités de type use-after-free.

Laïus explicatif : Les outils de couverture de code (“code coverage” en anglais) permettent de savoir avec précision quelles lignes de code d’un programme qui ont réellement été exécutées. Lors d’une session de “fuzzing”, ces outils peuvent aider l’analyste à savoir si les fonctions ciblées ont été atteintes par le fuzzer. Cette technique a notamment été utilisée par un membre de l’équipe Offsec pour trouver une vulnérabilité dans une bibliothèque open-source (voir notre article de blog)

Jour 7 | Quelle est la principale éthique qui doit être prise en compte dans le développement de l’Intelligence Artificielle ?

  • Réponse 1 : L’équité et la non-discrimination

  • Réponse 2 : La transparence des algorithmes utilisés

  • Réponse 3 : La sécurité et la confidentialité des données

  • Réponse 4 : Toutes les réponses

Laïus explicatif : L’équité et la non-discrimination sont des principes fondamentaux dans le développement de l’IA. Les systèmes d’IA doivent être conçus pour éviter les biais et assurer qu’ils ne favorisent pas des groupes spécifiques au détriment d’autres, afin de garantir un traitement juste et égal pour tous les utilisateurs. La transparence des algorithmes est cruciale. Les utilisateurs doivent comprendre comment les décisions sont prises par l’IA, ce qui inclut la possibilité d’expliquer les résultats ou actions générés par un système d’intelligence artificielle, afin d’éviter des décisions opaques ou injustes. La sécurité et la confidentialité des données sont enfin des préoccupations majeures lorsque l’on développe des systèmes d’IA, car ces technologies peuvent collecter et traiter des informations sensibles, ce qui soulève des questions sur la protection des données personnelles et la vie privée.

Jour 6 | Selon vous, en moyenne combien de ransomware ont eu lieu par jour en 2023 dans le monde ?

  • Réponse 1 : 1 par jour

  • Réponse 2 : 100 par jour

  • Réponse 3 : 30 par jour

  • Réponse 4 : 12 par jour

Laïus explicatif : En moyenne 12 attaques ransomware ont été signalées par jour par des victimes dans le monde en 2023 selon les chiffres d’Almond. Pour plus d’informations, n’hésitez pas à consulter notre Threat Landscape.

Jour 5 | Challenge de stéganographie

Réponse : PASSI RGS, PASSI LPM, CESTI, ANJ, Cybersecurity made in Europe, PCI QSA Company et Swift

Etape 1 : Observer l’image, trouver 3 logos cachés (Cybersecurity made in Europe, PCI QSA Company & Swift) et une indication pour chercher dans les métadonnées du fichier. 

Etape 2 : Challenge de stéganographie

En lançant dans son terminal un des outils les plus courants, « binwalk », on trouve une image JPEG dans le PDF. En extrayant les données grâce au même outil et en renommant le fichier en .jpeg, on voit apparaitre une image cachée. Ensuite, en utilisant « steghide », on peut extraire le fichier avec le mot de passe « Almond ». Ce fichier contient une suite de caractère encodée en base64. En la déchiffrant, on obtient les quatre autres certifications : PASSI RGS, PASSI LPM, CESTI et ANJ. 

Jour 4 | Concernant les accompagnements de la nouvelle qualification PACS de l’ANSSI, sur la portée Sécurité des Architectures, quels sont les domaines qui font partie du périmètre possible d’un accompagnement ?

  • Réponse 1 : la sécurité réseau, l’authentification, et l’administration du SI

  • Réponse 2 : la sécurité réseau, la sécurité système, et les mécanismes de chiffrement

  • Réponse 3 : l’administration du SI, le cloisonnement, les sauvegardes, et la stratégie de détection/réponse

  • Réponse 4 : tous ces sujets et plus encore

  • Laïus explicatif : Le référentiel PACS, sur la portée Sécurité des Architectures, porte bien sur tous les sujets liés de près ou de loin aux infrastructures du SI. La liste n’est pas exhaustive et est à adapter à chaque prestation d’accompagnement suivant le périmètre d’intervention. Dans le référentiel, l’ANSSI propose une liste de sujets à adresser dans un rapport PACS page 28 et 29.

    https://cyber.gouv.fr/sites/default/files/document/PACS_referentiel-exigences_v1.0.pdf

Jour 3 | Quel référentiel permet la certification de produits de sécurité ?

  • Réponse 1 : NIS2

  • Réponse 2 : Critères Communs

  • Réponse 3 : PASSI

  • Réponse 4 : ISO27001

Laïus explicatif : Le schéma Critères Communs est un ensemble de normes et méthodologies permettant de cadrer les moyens utilisés pour évaluer, de manière impartiale, la sécurité d’un produit de sécurité (logiciel ou matériel). Ce schéma est reconnu internationalement au travers de plusieurs accords (SOG-IS, CCRA et prochainement EUCC).

Le référentiel PASSI permet la qualification, par l’ANSSI, des prestataires d’audit de la sécurité des SI. ISO27001 est la norme décrivant les bonnes pratiques à suivre dans la mise en place d’un SMSI. Enfin, NIS2 est une directive visant à harmoniser et à renforcer la cybersécurité du marché européen.

Jour 2 | Quel est l’artefact forensique qui permet de prouver une exécution d’un programme sous Windows ?

  • Réponse 1 : JumpList

  • Réponse 2 : ShimCache

  • Réponse 3 : $MFT

  • Réponse 4 : Prefetch

Laïus explicatif : Le Prefetch est un artefact spécifique à Windows qui optimise le chargement des programmes. Lorsqu’un programme est exécuté pour la première fois, Windows crée un fichier dans le dossier C:\Windows\Prefetch, qui contient des informations sur le programme et les ressources qu’il a utilisées. Ces fichiers incluent également des horodatages correspondant à la première et aux dernières exécutions. L’existence d’un fichier Prefetch (.pf) pour un programme est une preuve solide qu’il a été exécuté. C’est l’un des artefacts forensiques les plus fiables pour prouver l’exécution d’un programme.

Jour 1 | Quel texte européen permettra qu’à partir de fin 2027, tous les produits vendus dans l’UE et comprenant des composants numériques seront exempts de vulnérabilités et maintenus pendant tout leur cycle de vie ? #DigitalTrust

  • Réponse 1 : Le Cyber Security Act
  • Réponse 2 : Le Cyber Resilience Act
  • Réponse 3 : La Directive REC
  • Réponse 4 : La Directive NIS2 

Laïus explicatif : Le Cyber Resilience Act, qui a été publié ces derniers jours au Journal Officiel de l’Union Européenne est entré en vigueur le 10 décembre 2024. A compter de cette date, les fabricants et éditeurs doivent adapter leur processus pour pouvoir continuer à vendre des produits au sein de l’UE après le 10/12/2027.

EU Cyber Resilience Act | Shaping Europe’s digital future