Vous êtes victime d’un incident de sécurité ? Contactez notre CERT

17/10/2024

Cybersecurity Insights

Les vulnérabilités dans les LLM : Introduction

Equipe SEAL

Bienvenue dans cette suite d’articles consacrée aux Large Language Model (LLM) et à leurs vulnérabilités. Depuis quelques années, le Machine Learning (ML) est devenu une priorité pour la plupart des entreprises qui souhaitent intégrer des technologies d’Intelligence Artificielle dans leurs processus métier.

Les évolutions impressionnantes de l’IA ont par exemple poussé certaines entreprises à remplacer plus de la moitié de leurs effectifs par des IA basées sur des LLM (voir Dukaan). De manière plus large, ChatGPT, l’un des services les plus populaires en ligne, compte plus de 180 millions d’utilisateurs dans le monde et environ 600 millions de visites mensuelles.

Cependant, à l’heure où l’IA prend de plus en plus de place dans notre vie quotidienne et professionnelle, la sécurité est souvent mise à l’écart. Dans leur course à l’innovation, les entreprises peuvent parfois oublier de considérer les risques potentiels associés à ces technologies émergentes, que ce soit par manque de connaissance ou par simple priorisation de l’efficacité. Les vulnérabilités des LLM peuvent entraîner des conséquences graves, allant de la fuite de données sensibles à la manipulation des systèmes critiques. Il est donc crucial de comprendre ces risques et de mettre en place des mesures de sécurité adéquates pour protéger les utilisateurs et les entreprises.

Cette série d’articles n’a pas pour objectif de vous fournir directement les solutions à ces vulnérabilités, mais principalement de vous permettre de prendre conscience des risques que vous encourez en utilisant ces nouvelles technologies sans vous assurer que leur sécurité est suffisamment robuste. En vous informant sur ces vulnérabilités potentielles nous espérons vous aider à adopter une approche réfléchie dans l’intégration de l’intelligence artificielle au sein de votre entreprise.

Nous vous proposons donc, ici, une série de dix articles dédiés, chacun, à une des vulnérabilités principales qui pourraient toucher une technologie d’Intelligence Artificielle basée sur un LLM :

  1. L’injection de prompt (Prompt Injection)
  2. La gestion des sorties non sécurisées (Insecure Output Handling)
  3. L’empoisonnement des données d’entraînement (Training Data Poisoning)
  4. Le déni de service du modèle (Model Denial of Service)
  5. La vulnérabilité sur les chaînes d’approvisionnement (Supply Chain Vulnerabilities)
  6. La révélation des informations sensibles (Sensitive Information Disclosure)
  7. La conception de plugin non sécurisée (Insecure Plugin Design)
  8. L’Excès d’Autonomie (Excessive Agency)
  9. La surconfiance (Overreliance)
  10. Le vol de modèle (Model Theft)

Afin de compléter chaque présentation de vulnérabilité, chaque article sera accompagné d’une description d’un composant ou d’une terminologie liée à l’intelligence artificielle et aux LLM :

  1. Qu’est-ce qu’une requête ?
  2. Qu’est-ce qu’une inférence ?
  3. Qu’est-ce qu’un entrainement pour une IA ?
  4. Qu’est-ce que le contexte d’une requête ?
  5. Qu’est-ce qu’un token ?
  6. Qu’est-ce que le fine tunning ?
  7. Qu’est-ce que le RAG ?
  8. Qu’est-ce qu’un agent autonome ?
  9. Qu’est-ce qu’une hallucination pour une IA ?
  10. Qu’est-ce qu’un modèle ?

Qu'est-ce qu'un LLM ?

Un LLM, ou Large Language Model, est un type de modèle d’intelligence artificielle spécialement conçu pour comprendre et générer du langage naturel. Ces modèles sont entraînés sur d’énormes quantités de données textuelles et sont capables de produire des réponses cohérentes et contextuellement appropriées à une variété de questions et de requêtes.

Les LLM sont utilisés dans diverses applications, allant des chatbots aux assistants virtuels, en passant par la génération de contenu et la traduction automatique. Leur capacité à imiter le langage humain de manière convaincante en fait un outil puissant.

Figure 1 : Exemple de requête envoyée à un LLM

En 2023, plus de 40% des entreprises utilisent activement ChatGPT, et 97% pensent que ChatGPT pourra fortement les aider.

Aujourd’hui, en raison de la forte concurrence entre les modèles, le nombre de personnes utilisant activement l’IA pour leur travail est en très nette augmentation. Il est, de plus, de plus en plus facile d’héberger localement sa propre intelligence artificielle LLM facilement et à moindre coût.

Et techniquement, qu'est-ce qu'un LLM ?

Techniquement, un Large Language Model est une technologie de Machine Learning basée sur des réseaux de neurones, plus précisément des réseaux de neurones récurrents (RNN) ou des transformateurs. Ces modèles sont entraînés sur de vastes corpus de texte pour apprendre les structures et les règles du langage humain. Les transformateurs, en particulier, utilisent des mécanismes d’attention pour traiter les séquences de texte de manière plus efficace et précise.

Un LLM est capable de générer du texte en prédisant le mot suivant dans une séquence, en se basant sur les mots précédents. Cette capacité est rendue possible grâce à des algorithmes d’apprentissage profond qui ajustent le poids des connexions neuronales pour minimiser l’erreur de prédiction. Les LLM sont souvent entraînés sur des superordinateurs ou des clusters de calcul distribué, en raison de la quantité massive de données à traiter en entrée et de la complexité des calculs nécessaires pour construire le modèle. Le coût de cet entrainement est très élevé en comparaison de l’utilisation du modèle pour obtenir des réponses à des questions.

C’est pour cette raison que la plupart des utilisateurs de ce type d’IA choisissent d’utiliser des solutions « sur étagère » en déployant des modèles préconstruits et décident ainsi de faire confiance au développeur du modèle.

Pourquoi les LLM contiendraient des vulnérabilités ?

Tout d’abord, comme expliqué précédemment, ces modèles sont entraînés sur des quantités massives de données provenant de diverses sources, ce qui peut inclure des informations biaisées, incorrectes ou malveillantes. De plus, les LLM sont souvent conçus pour être très flexibles et adaptables, ce qui peut les rendre vulnérables à des attaques telles que le l’injection de requêtes. Cette technique consiste à manipuler, au travers d’une requête, les données du modèle pour le forcer à exécuter des actions non désirées ou à divulguer des informations sensibles. Le premier article de notre série se concentrera spécifiquement sur la présentation de cette technique.

Face à la montée de ces technologies et surtout face à l’apparition de vulnérabilités, l’OWASP, Open Worldwide Application Security Project, communauté Internet dédiée à la sécurité des applications et technologies du Web, a publié un Top 10 des vulnérabilités applicables aux LLM. Notre série d’articles va se concentrer sur ces 10 vulnérabilités.

Ces vulnérabilités sont surtout problématiques en raison de la difficulté de détection et de correction de celles-ci, liées à la complexité des LLM, et nécessitant des efforts continus en matière de recherche et de développement pour assurer leur sécurité. Les modèles de langage sont souvent constitués de millions, voire de milliards, de paramètres ce qui complique la tâche de comprendre et de contrôler leur comportement. De plus les mécanismes d’apprentissage profond utilisés pour entraîner ces modèles peuvent introduire des biais et des erreurs subtiles qui seraient d’autant plus complexes à détecter. Certains chercheurs parviennent d’ailleurs à profiter de ces biais avec des méthodes de plus en plus avancées pour compromettre des LLM.

Pour ces raisons, il est essentiel que les entreprises adoptent une approche proactive en matière de sécurité des LLM. Cela inclut la mise en place de processus de validation rigoureux, la surveillance continue des performances des modèles et la collaboration avec des experts en sécurité pour identifier et atténuer les risques potentiels. En investissant dans la sécurité des LLM, les entreprises peuvent non seulement protéger leurs données et leurs systèmes, mais aussi renforcer la confiance de leurs utilisateurs et partenaires.

Quelles peuvent être les conséquences pour une entreprise ?

Les conséquences des vulnérabilités dans les LLM peuvent être multiples et potentiellement dévastatrices.

Ce message peut sembler alarmiste mais il est nécessaire de comprendre qu’actuellement aucun système d’Intelligence Artificielle basé sur des LLM n’intègre, par défaut, de mécanisme de sécurité. De plus, les modèles LLM disponibles au grand public n’étant pas encore totalement matures et stables et les recherches sur les vulnérabilités n’en sont encore qu’à leur prémices.

Et les risques dans tout ça ?

Tout d’abord, la sécurité des données est mise en péril. Une attaque réussie par prompt injection peut permettre à des acteurs malveillants d’accéder à des informations sensibles, telles que des données clients, des secrets commerciaux ou des informations financières qui auraient été utilisées lors de la création du modèle. Cela peut entraîner des violations de données coûteuses, des amendes réglementaires ou une perte de confiance des clients.

De plus la manipulation des LLM peut conduire à des décisions erronées ou à des actions non autorisées si l’utilisateur accorde une confiance trop grande dans les réponses de l’IA, pouvant ainsi compromettre l’intégrité des opérations de l’entreprise. Par exemple, un LLM utilisé pour la gestion des ressources humaines pourrait être manipulé pour prendre des décisions de recrutement biaisées ou inappropriées.

Enfin, les vulnérabilités des LLM peuvent, comme toute autre vulnérabilité sur un SI, nuire à la réputation de l’entreprise entraînant une perte de confiance des partenaires commerciaux et des investisseurs.

Il est donc essentiel pour les entreprises de prendre des mesures proactives pour sécuriser leurs modèles, leurs infrastructures d’IA et rester vigilantes face aux nouvelles menaces émergentes.

Pourquoi cette série d'articles ?

Aujourd’hui, de plus en plus d’entreprises adoptent des solutions d’Intelligence Artificielle prêtes à l’emploi, sans pouvoir en paramétrer la sécurité ou sans avoir forcément les compétences pour évaluer le niveau de robustesse des solutions déployées.

C’est pourquoi Almond, au travers de son SEAL et fort de son expérience de CESTI (Centre d’Évaluation de la Sécurité des Technologies de l’Information), a lancé la mise en place d’une méthodologie d’analyse et d’évaluation de la sécurité des LLM. En se basant sur les travaux de recherches, ainsi que sur les premières recommandations de l’OWASP et de l’ANSSI en matière de LLM, Almond met en avant l’importance d’une analyse en profondeur de la sécurité de ces technologies.

Cette initiative vise à assurer aux utilisateurs et administrateurs la robustesse et la sécurité de l’utilisation des IA au sein de leur entreprise. En partageant notre expertise à travers cette série d’articles, nous espérons sensibiliser les entreprises aux risques potentiels et les aider à adopter des pratiques sécurisées pour une intégration réussie de l’intelligence artificielle.

Voir les derniers Cybersecurity insights

9 janvier 2026
Our Security Evaluation Laboratory performed a security audit of HAProxy. This audit was aimed at evaluating the security level of […]
22 décembre 2025
Recently, our team performed a security audit of SmallStep Certificates PKI. This audit was focused on the cryptographic aspects of […]
18 décembre 2025
Almond est classé Leader dans l'étude Blueprint® 2025-2026 dédiée aux SOC managés pour le mid-market, et visionnaire sur les grandes […]
4 novembre 2025
Comme chaque année, SWIFT met à jour son standard CSCF et apporte son lot de nouveautés. Il peut s'avérer complexe […]
22 octobre 2025
Find here the crypto and reverse challenges that our teams created for the European Cyber Week pre-qualification and qualification tests […]
20 octobre 2025
La référence mondiale ISG distingue Almond dans les six domaines clés de la cybersécurité, confirmant la solidité de son expertise […]
10 septembre 2025
Téléchargez l'étude complète "Voices of CISOs" en complétant le formulaire ci-dessous.
24 juillet 2025
Longtemps perçue comme une affaire d’État ou de grandes entreprises, la cybersécurité s’impose désormais comme un levier structurant de gouvernance […]
22 juillet 2025
M&NTIS Platform est une solution SaaS destinée au test d'efficacité de produits de défense et d'architectures de supervision. Une nouvelle […]
16 juillet 2025
De la météo à la géolocalisation, des télécommunications à la défense, nos infrastructures spatiales sont devenues un incontournable de notre […]

Nous vous souhaitons de joyeuses fêtes de fin d’année hautes en couleur et à l’année prochaine pour une année 2025 exaltante ! 🎉

🎁 Merci à tous pour votre participation au quiz de l’avent, nous contacterons le gagnant très prochainement.

🎅 Chez Almond, l’esprit festif des fêtes de fin d’année est arrivé en avance !

Nos collaborateurs ont profité d’une soirée chaleureuse et joyeuse dans l’un des restaurants les plus spectaculaires de Paris, Le Cirque avec un cocktail dinatoire, des surprises et un Secret Santa.

Et un peu plus de magie de Noël ? Almond a également ouvert ses portes aux familles de nos collaborateurs pour une après-midi conviviale autour de l’arbre de Noël. Les enfants ont été captivés par des contes enchantés, de 1001 contes Constance Felix et ont savouré un goûter délicieux avec des chocolats chauds préparés par les Empotés. Le Père Noël a distribué des coloriages géants et des cadeaux pour le plus grand bonheur des enfants 🎁

Jour 23 |

Jour 22 | Laquelle de ces menaces n’est pas un cryptoransomware ?

  • Réponse 1 : Lockbit3
  • Réponse 2 : Phobos
  • Réponse 3 : NotPetya
  • Réponse 4 : WannaCry

Laïus explicatif : Bien que NotPetya ressemble à un ransomware, il s’agit en réalité d’un wiper. Ce malware rend indisponible les fichiers de la victime, mais ne fournit aucun moyen de les déchiffrer, même après le paiement de la rançon. L’objectif principal de NotPetya n’est pas l’extorsion financière, mais la destruction de données.
En cas d’incident, voici les coordonnées de notre CERT : [email protected] +33 (0)1 83 75 36 94

Jour 21 | Vous dialoguez via votre terminal avec un service distant et vous vous rendez compte qu'il contient un stack-based overflow. Vous cherchez à l'exploiter à l'aveugle et trouvez finalement l'offset de l'adresse de retour, après avoir contourné les éventuelles protections. Vous cherchez maintenant un stop gadget pour continuer votre exploitation. Quelle est son utilité :

  • Réponse 1 : interrompre à la demande le flux d’exécution du binaire distant le temps de l’exploitation
  • Réponse 2 : obtenir une exécution fiable et maîtrisée avec un comportement reproductible
  • Réponse 3 : pouvoir mettre en pause le binaire temporairement pendant l’envoi de la payload
  • Réponse 4 : pouvoir stopper proprement le binaire afin d’éviter un éventuel crash à la fin de l’exploitation

Laïus explicatif : L’exploitation se déroulant en aveugle, il est nécessaire de trouver une adresse permettant d’obtenir un comportement particulier et reproductible à chaque exécution, comme l’affichage du texte « Bye ». Si une telle adresse est trouvée, elle correspond au stop gadget. Il permettra donc de continuer l’exploitation et de valider ou invalider nos déductions lors de l’exécution du binaire.

Jour 20 | Le terme "spam" pour désigner les messages indésirables provient initialement

  • Réponse 1 : D’une marque de jambon en boîte
  • Réponse 2 : D’un acronyme signifiant « Stupid Pointless Annoying Messages »
  • Réponse 3 : D’un sketch des Monty Python
  • Réponse 4 : D’un code utilisé pendant la Seconde Guerre mondiale

Laïus explicatif : Ce mot, à l’origine un acronyme de : SPiced hAM (du jambon épicé en boîte vendue par une entreprise américaine), est repris en masse, pour brouiller la conversation, dans un sketch des Monty Python.

Jour 19 | L’acronyme PACS désigne  :

A. Un format permettant la visualisation des images dans l’imagerie médicale

B. Un système d’archivage et de communication d’images dans l’imagerie médicale

C. Un prestataire d’audit et de conseil en cybersécurité

D. Un pacte civil de solidarité

  • Réponse 1 : L’ensemble des réponses
  • Réponse 2 : Réponses C et D
  • Réponse 3 : Réponses B, C et D
  • Réponse 4 : Réponses A, C et D

Laïus explicatif :

Un PACS, dans le secteur de l’imagerie médicale, désigne effectivement un système (et non un format) signifiant « Picturing Archiving and Communication System » permettant de gérer les images médicales grâce à des fonctions d’archivage.

De plus, depuis septembre, l’ANSSI a publié un référentiel d’exigences qui permet aux commanditaires de prestations de sécurité de bénéficier de garanties sur les compétences des prestataires, sur le processus d’accompagnement et de conseil, ainsi que sur la sécurité des systèmes d’information associés. Ce référentiel vise à reconnaître officiellement les prestataires en tant que « Prestataires d’accompagnement et de conseil en sécurité ».
Enfin, en France, le PACS désigne aussi une forme d’union civile dénommée Pacs.

Jour 18 | En quelle année l'ANSSI prévoit de ne plus recommander l'utilisation de certains algorithmes de chiffrement classiques en raison de l'augmentation de la puissance de calcul des ordinateurs classiques et de la menace posée par les ordinateurs quantiques ?

  • Réponse 1 : 2026
  • Réponse 2 : 2030
  • Réponse 3 : 2035
  • Réponse 4 : 2050

Laïus explicatif : Dans son dernier avis sur la migration vers la cryptographie post quantique, paru en janvier 2024, l’ANSSI encourage tous les éditeurs à mettre en œuvre dès à présent une hybridation entre la cryptographie standard et la cryptographie post-quantique (pour les produits qui doivent protéger des informations après 2030) et recommande d’utiliser en priorité la cryptographie post-quantique à partir de 2030.  

Jour 17 | Quelle est la dernière course à laquelle j’ai participé ?

  • Réponse 1 : Le Vendée Globe
  • Réponse 2 : National Figaro 3 en équipage
  • Réponse 3 : La Solitaire du Figaro Paprec
  • Réponse 4 : Le Havre Allmercup

Laïus explicatif : Le National Figaro 2024 s’est déroulé du 4 au 6 octobre dernier à Lorient. Thomas et son équipe sont arrivés en 2e position ! Cette course clôture ainsi la saison 2024 sur le circuit Figaro. 

  • Réponse 1 : Aetheris

  • Réponse 2 : Venopie

  • Réponse 3 : Lumidus

  • Réponse 4 : Pandama

Laïus explicatif : Au sein de la plateforme d’attaque – défense M&NTIS, le scénario Pandama propose une kill chain dont l’impact, après compromission du contrôleur de domaine, permet de déployer, par GPO, une charge utile effaçant les données présentes sur les systèmes de fichiers du SI simulé.

Pour rappel, basé sur les technologies d’émulation d’adversaire et de Cyber Range, M&NTIS permet d’exécuter des campagnes d’attaques réalistes afin de challenger dans un environnement immersif les procédures et l’expertise des équipes SOC et CERT. M&NTIS répond ainsi aux enjeux d’amélioration continue de la défense.

Jour 15 | Quel type de menace ne fait pas parti de l’insider threat?

  • Réponse 1 : Malicious
  • Réponse 2 : Ransomware group
  • Réponse 3 : Negligent
  • Réponse 4 : Vendors

Laïus explicatif : Almond a proposé une étude sur la menace interne qui décrit chaque type d’insider. Les groupes de ransomware sont externes à l’entreprise mais peuvent recruter des employées pour récupérer des accès valides et compromettre l’entreprise. Retrouvez l’étude ici.

Jour 14 | Selon vous, quelle proportion des cyberattaques réussies sont liées à une erreur humaine ?

  • Réponse 1 : 40%

  • Réponse 2 : 100%

  • Réponse 3 : 70%

  • Réponse 4 : 90%

Laïus explicatif : 90% des cyberattaques trouvent leur origine dans une erreur humaine. L’erreur humaine en cybersécurité englobe toutes les actions, conscientes ou non, qui exposent les systèmes et les données à des menaces. Cela inclut des gestes apparemment innocents, comme le fait de :

  • Cliquer sur les liens malveillants
  • Utiliser des mots de passe faibles ou partagés
  • Partager des informations sensibles
  • Négliger la mise à jour des logiciels et systèmes
  • Commettre une erreur de configuration ou mal administrer les accès
  • Utiliser des clés USB non sécurisées ou prévenant de sources inconnues

Jour 13 | Almond & Amossys sont présents en France et à l’international pour garantir proximité et réactivité grâce à nos services 24/7. Dans quels pays se trouvent nos équipes ?

  • Réponse 1 : FRA – CHE – AUS – JPN

  • Réponse 2 : FRA – CAN – CHE – KOR

  • Réponse 3 : FRA – AUS – CAN – GBR

  • Réponse 4 : FRA – BEL – ITA – USA

Jour 12 | Challenge OSINT

Val Thorens

Laïus explicatif : Depuis plusieurs années consécutives, notre CSE organise des séjours à Val Thorens pour profiter des sports d’hiver. Que l’on aime dévaler les pistes de ski à toute allure, tenter l’aventure en prenant des cours d’initiation ou simplement déguster une raclette après une randonnée raquette et un passage à la piscine et au sauna, ce séjour est l’occasion de partager des moments convivaux avec ses collègues ! TIC, TAC, le prochain séjour ski approche à grands pas !

Jour 11 | Parmi ces propositions, quelle technique Mitre Atta&ck est la plus utilisée par les attaquants ?

  • Réponse 1 : OS Credential Dumping
  • Réponse 2 : Valid Account
  • Réponse 3 : Impair Defenses
  • Réponse 4 : Remote services

Laïus explicatif : L’achat ou la récupération de comptes valides sont de plus en plus commun. Certains cybercriminels appelés Initial Access Broker se spécialisent dans la compromission de victimes dans le but de récupérer des identifiants valides qui seront ensuite vendus à d’autres cybercriminels comme les groupes de ransomware.

Jour 10 | Parmi ces structures de données de la mémoire dans Windows, quelle est celle qui permet de lister les processus en cours d’exécution ?

  • Réponse 1 : EPROCESS
  • Réponse 2 : Kernel Debugger Data Block (KDBG)
  • Réponse 3 : Kernel Processor Control Region (KPCR)
  • Réponse 4 : Process Environment Block (PEB)

Laïus explicatif : La structure EPROCESS (Executive Process) est utilisée par Windows pour gérer chaque processus en cours d’exécution. Elle contient des informations essentielles comme l’identifiant du processus (PID), l’état, les threads associés, et d’autres données nécessaires au système pour suivre les processus actifs. En analysant les structures EPROCESS, on peut lister les processus actuellement en mémoire. Le PEB est lié à chaque processus de manière individuelle. Enfin le KPCR est nécessaire pour trouver l’adresse du KDB qui à son tour permettra de pointer vers le EPROCESS.  

Jour 9 | Quel est le problème si la suite cryptographique TLS_RSA_WITH_AES_256_CBC_SHA256 est utilisée avec l'extension encrypt_then_mac pour la sécurité d'une communication TLS ?

  • Réponse 1 : L’algorithme de chiffrement est trop faible

  • Réponse 2 : L’intégrité de la communication n’est pas assurée

  • Réponse 3 : Il n’y a pas la propriété de confidentialité persistante (Perfect Forward Secrecy)

  • Réponse 4 : Le serveur n’est pas correctement authentifié

Laïus explicatif : La bonne réponse est le manque de confidentialité persistante.

La suite TLS_RSA_WITH_AES_256_CBC_SHA256 utilise la clé publique RSA du serveur pour chiffrer le secret partagé utilisé pour sécuriser les échanges de la session TLS : en cas de compromission de la clé privée du serveur, l’ensemble des échanges des sessions passées peuvent être déchiffrés par un attaquant.
La confidentialité persistante (connue sous le nom de Perfect Forward Secrecy en anglais) consiste en l’utilisation d’un échange Diffie-Hellman éphémère pour négocier le secret partagé, sans utilisation de la clé RSA du serveur.

Jour 8 | Quel est l'avantage d'utiliser un outil de couverture de code lors d'une session de fuzzing ?

  • Réponse 1 : Réduire le temps de fuzzing en optimisant certaines instructions assembleur.

  • Réponse 2 : Utiliser la technique de « pré-chauffage » du harnais (« warming code attack »).

  • Réponse 3 : Pouvoir analyser facilement les sections de code atteintes par le fuzzer.

  • Réponse 4 : Ne pas prendre en compte les vulnérabilités de type use-after-free.

Laïus explicatif : Les outils de couverture de code (“code coverage” en anglais) permettent de savoir avec précision quelles lignes de code d’un programme qui ont réellement été exécutées. Lors d’une session de “fuzzing”, ces outils peuvent aider l’analyste à savoir si les fonctions ciblées ont été atteintes par le fuzzer. Cette technique a notamment été utilisée par un membre de l’équipe Offsec pour trouver une vulnérabilité dans une bibliothèque open-source (voir notre article de blog)

Jour 7 | Quelle est la principale éthique qui doit être prise en compte dans le développement de l’Intelligence Artificielle ?

  • Réponse 1 : L’équité et la non-discrimination

  • Réponse 2 : La transparence des algorithmes utilisés

  • Réponse 3 : La sécurité et la confidentialité des données

  • Réponse 4 : Toutes les réponses

Laïus explicatif : L’équité et la non-discrimination sont des principes fondamentaux dans le développement de l’IA. Les systèmes d’IA doivent être conçus pour éviter les biais et assurer qu’ils ne favorisent pas des groupes spécifiques au détriment d’autres, afin de garantir un traitement juste et égal pour tous les utilisateurs. La transparence des algorithmes est cruciale. Les utilisateurs doivent comprendre comment les décisions sont prises par l’IA, ce qui inclut la possibilité d’expliquer les résultats ou actions générés par un système d’intelligence artificielle, afin d’éviter des décisions opaques ou injustes. La sécurité et la confidentialité des données sont enfin des préoccupations majeures lorsque l’on développe des systèmes d’IA, car ces technologies peuvent collecter et traiter des informations sensibles, ce qui soulève des questions sur la protection des données personnelles et la vie privée.

Jour 6 | Selon vous, en moyenne combien de ransomware ont eu lieu par jour en 2023 dans le monde ?

  • Réponse 1 : 1 par jour

  • Réponse 2 : 100 par jour

  • Réponse 3 : 30 par jour

  • Réponse 4 : 12 par jour

Laïus explicatif : En moyenne 12 attaques ransomware ont été signalées par jour par des victimes dans le monde en 2023 selon les chiffres d’Almond. Pour plus d’informations, n’hésitez pas à consulter notre Threat Landscape.

Jour 5 | Challenge de stéganographie

Réponse : PASSI RGS, PASSI LPM, CESTI, ANJ, Cybersecurity made in Europe, PCI QSA Company et Swift

Etape 1 : Observer l’image, trouver 3 logos cachés (Cybersecurity made in Europe, PCI QSA Company & Swift) et une indication pour chercher dans les métadonnées du fichier. 

Etape 2 : Challenge de stéganographie

En lançant dans son terminal un des outils les plus courants, « binwalk », on trouve une image JPEG dans le PDF. En extrayant les données grâce au même outil et en renommant le fichier en .jpeg, on voit apparaitre une image cachée. Ensuite, en utilisant « steghide », on peut extraire le fichier avec le mot de passe « Almond ». Ce fichier contient une suite de caractère encodée en base64. En la déchiffrant, on obtient les quatre autres certifications : PASSI RGS, PASSI LPM, CESTI et ANJ. 

Jour 4 | Concernant les accompagnements de la nouvelle qualification PACS de l’ANSSI, sur la portée Sécurité des Architectures, quels sont les domaines qui font partie du périmètre possible d’un accompagnement ?

  • Réponse 1 : la sécurité réseau, l’authentification, et l’administration du SI

  • Réponse 2 : la sécurité réseau, la sécurité système, et les mécanismes de chiffrement

  • Réponse 3 : l’administration du SI, le cloisonnement, les sauvegardes, et la stratégie de détection/réponse

  • Réponse 4 : tous ces sujets et plus encore

  • Laïus explicatif : Le référentiel PACS, sur la portée Sécurité des Architectures, porte bien sur tous les sujets liés de près ou de loin aux infrastructures du SI. La liste n’est pas exhaustive et est à adapter à chaque prestation d’accompagnement suivant le périmètre d’intervention. Dans le référentiel, l’ANSSI propose une liste de sujets à adresser dans un rapport PACS page 28 et 29.

    https://cyber.gouv.fr/sites/default/files/document/PACS_referentiel-exigences_v1.0.pdf

Jour 3 | Quel référentiel permet la certification de produits de sécurité ?

  • Réponse 1 : NIS2

  • Réponse 2 : Critères Communs

  • Réponse 3 : PASSI

  • Réponse 4 : ISO27001

Laïus explicatif : Le schéma Critères Communs est un ensemble de normes et méthodologies permettant de cadrer les moyens utilisés pour évaluer, de manière impartiale, la sécurité d’un produit de sécurité (logiciel ou matériel). Ce schéma est reconnu internationalement au travers de plusieurs accords (SOG-IS, CCRA et prochainement EUCC).

Le référentiel PASSI permet la qualification, par l’ANSSI, des prestataires d’audit de la sécurité des SI. ISO27001 est la norme décrivant les bonnes pratiques à suivre dans la mise en place d’un SMSI. Enfin, NIS2 est une directive visant à harmoniser et à renforcer la cybersécurité du marché européen.

Jour 2 | Quel est l’artefact forensique qui permet de prouver une exécution d’un programme sous Windows ?

  • Réponse 1 : JumpList

  • Réponse 2 : ShimCache

  • Réponse 3 : $MFT

  • Réponse 4 : Prefetch

Laïus explicatif : Le Prefetch est un artefact spécifique à Windows qui optimise le chargement des programmes. Lorsqu’un programme est exécuté pour la première fois, Windows crée un fichier dans le dossier C:\Windows\Prefetch, qui contient des informations sur le programme et les ressources qu’il a utilisées. Ces fichiers incluent également des horodatages correspondant à la première et aux dernières exécutions. L’existence d’un fichier Prefetch (.pf) pour un programme est une preuve solide qu’il a été exécuté. C’est l’un des artefacts forensiques les plus fiables pour prouver l’exécution d’un programme.

Jour 1 | Quel texte européen permettra qu’à partir de fin 2027, tous les produits vendus dans l’UE et comprenant des composants numériques seront exempts de vulnérabilités et maintenus pendant tout leur cycle de vie ? #DigitalTrust

  • Réponse 1 : Le Cyber Security Act
  • Réponse 2 : Le Cyber Resilience Act
  • Réponse 3 : La Directive REC
  • Réponse 4 : La Directive NIS2 

Laïus explicatif : Le Cyber Resilience Act, qui a été publié ces derniers jours au Journal Officiel de l’Union Européenne est entré en vigueur le 10 décembre 2024. A compter de cette date, les fabricants et éditeurs doivent adapter leur processus pour pouvoir continuer à vendre des produits au sein de l’UE après le 10/12/2027.

EU Cyber Resilience Act | Shaping Europe’s digital future