Search
Close this search box.

Vous êtes victime d’un incident de sécurité ? Contactez notre CERT

10/06/2024

Cybersecurity Insights

L’encadrement de l’intelligence artificielle par l’IA Act, quid des données personnelles ?

Adoption de la vidéosurveillance algorithmique en vue des JO 2024, interdiction de Open AI en Italie, l’équilibre entre protection des données et intelligence artificielle semble encore difficile à trouver. Cet article vise à présenter l’état du droit actuel de l’encadrement de l’intelligence artificielle par l’IA ACT. Comment les droits et les libertés des personnes physiques sont-ils garantis ?

Le cadre légal en matière d'intelligence artificielle

Le cadre légal en matière d'intelligence artificielle.

1 – Les composants du cadre légal.

Le cadre légal en matière d’intelligence artificielle (IA) est le suivant :

  • Le Règlement européen sur la gouvernance des données : règl. (UE) 2022/868, 30 mai 2022.
  • La Proposition de règlement sur l’IA : Comme. UE, 21 avr. 2021, Doc. COM (2021) 206 final, Artificial Intelligence Act (AI Act)

Concernant l’AI Act, il est encore en discussion. Les Comités et Contrôleurs européens de la protection des données (CEPD) a pris le soin d’émettre des recommandations sur cette proposition de règlement. L’une des limites soulevées par les CEPD porte sur la conjugaison de l’AI Act avec le cadre légal existant en matière de protection des données personnelles :

  • Règlement général sur la protection des données (UE) 2016/679 du 27 avril 2016 (RGPD) ;
  • Directive « police-justice » (UE) 2016/680 du 27 avril 2016 ;
  • Règlement (UE) 2018/1725 du 23 octobre 2018 sur la protection des données traitées par les institutions, organismes et organes de l’Union.
  • Règlement européen 2022/868 du 30 mai 2022 portant sur la gouvernance européenne des données et modifiant le règlement (UE) 2018/1724.

Précisions que l’on s’intéresse ici au cadre légal européen. Si toutefois vous êtes intéressés par les dispositions internationales, vous êtes invités à consulter l’article suivant : La prise de conscience internationale de l’importance de la question éthique – Almond.

2 – Les objectifs de l’encadrement juridique de l’IA.

Il convient de rappeler quels sont les objectifs visés par les textes qui composent le cadre légal en matière d’intelligence artificielle.

D’une part, l’IA Act a pour objet de :

  • Renforcer la confiance en la matière.
  • Rendre le marché européen compétitif.
  • Harmoniser des règles en matière d’IA.

D’autre part, le Règlement européen sur la gouvernance des données a pour objet de :

  • Garantir l’accès à de grands volumes de données au profit de l’économie européenne tout en garantissant un meilleur contrôle sur les données afin de renforcer la souveraineté numérique de l’Europe.
  • Favoriser le partage des données personnelles et non personnelles en mettant en place des structures d’intermédiation.
  • Encadrer et offrir une assistance technique et juridique facilitant la réutilisation de certaines catégories de données protégées du secteur public (informations commerciales confidentielles, propriété intellectuelle, données personnelles).
  • Mettre en place des certifications :
    • Une certification obligatoire pour les fournisseurs de services d’intermédiation de données.
    • Une certification facultative pour les organismes pratiquant l’altruisme en matière de données.

 3 – Tableau comparatif: AI Act vs RGPD. 

AI Act
RGPD
Mesures pour la protection des données
  • Approche fondée par les risques.
  • Interdiction des pratiques d’IA dont l’utilisation est considérée comme inacceptable car contraire aux valeurs de l’Union.
  • Absence de mesures spécifiques pour la protection des données personnelles.
  • Registre des traitements de données personnelles.
  • Durée de conservation.
  • Droits des personnes concernées.
  • Privacy by design.
  • Sécurité des données.
Digital ethic officer vs Data protection officer
  • Le Digital ethic officer :

    • Rôle non défini par l’AI Act.
    • Joue un rôle central dans la conformité réglementaire.
    • Contrôler et réglementer les systèmes de conformité internes, et l’adoption de nouvelles technologies.
    • Réglementer l’utilisation éthique de la technologie. 
    • Développer de meilleures pratiques éthiques qui alignent l’entreprise sur les dernières nouveautés technologiques.
    • Responsable de toutes les conséquences juridiques ou financières pouvant résulter d’un manquement au respect éthique.
    • Définir le cadre éthique d’une entreprise.
  • Le Data protection officer :

    • Rôle prévu par le RGPD.
    • Informer et conseiller le responsable du traitement sur les obligations en matière de protections des données personnelles.
    • Assurer le respect des droits des personnes concernées.
    • Sensibiliser, informer et conseiller les salariés de l’entreprise sur la protection des données personnelles.
    • Contrôler le respect du RGPD.
    • Être disponible et répondre aux questions des personnes concernées (salariés, clients, patients, prospects, …).
    • Assurer une coopération avec la CNIL.
    • Non responsable en cas de non-conformité du responsable de traitement sauf si complicité.
Sanctions
Jusqu'à 30 000 000 EUR ou, jusqu’à 6 % du chiffre d’affaires annuel mondial total.
Jusqu'à 20 millions d’euros ou jusqu’à 4 % du chiffre d’affaires annuel mondial total.

Les enjeux de l'AI Act.

En tant que règlement, le texte sera d’application directe dès son entrée en vigueur, avec une portée extraterritoriale impliquant nombre d’acteurs non européens, et avec des sanctions dont les montants maximums dépassent ceux du RGPD et peuvent aller jusqu’à 30 millions d’euros ou 6 % du chiffre d’affaires annuel mondial, le montant le plus élevé étant retenu.

Présentation de l’AI Act.

1- Une approche fondée sur le risque.

La proposition de règlement sur l’IA est construite sur une approche fondée sur le risque et s’attache principalement à réguler les systèmes d’IA qu’elle identifie à haut risque et qui sont définis dans une annexe III.

Les systèmes d’IA à haut risque sont ceux utilisés dans les infrastructures dites « critiques » telles que l’énergie ou les transports, dans l’éducation ou la formation professionnelle (exemple : la notation d’épreuves d’examen), les composants de sécurité des produits (exemple : dans le cadre de la chirurgie assistée par robot), l’emploi et les ressources humaines (exemple : le tri de CV pour une procédure de recrutement), les services publics et privés essentiels (exemple : l’évaluation du risque de crédit pour obtenir un prêt), le maintien de l’ordre, la gestion de la migration, de l’asile et des contrôles aux frontières, l’administration de la justice, les processus démocratiques, etc.

Voici un aperçu des éléments retenus pour définir un haut risque.

Il s’agit des systèmes d’IA destinés à être utilisés :

  • Pour l’identification biométrique à distance « en temps réel » et  «a posteriori» des personnes physiques ;
  • En tant que composants de sécurité dans la gestion et l’exploitation du trafic routier et dans la fourniture d’eau, de gaz, de chauffage et d’électricité ;
  • Pour déterminer l’accès ou l’affectation de personnes physiques aux établissements d’enseignement et de formation professionnelle ;
  • Pour évaluer les étudiants des établissements d’enseignement et de formation professionnelle et pour évaluer les participants aux épreuves couramment requises pour intégrer les établissements d’enseignement ;
  • A aider les autorités judiciaires à rechercher et à interpréter les faits et la loi, et à appliquer la loi à un ensemble concret de faits.

La définition du haut risque représente un fort enjeu, car ce sont les systèmes d’IA qualifiés à haut risques qui feront l’objet d’une régulation.

2- Les pratiques d’IA interdites.

Le titre II établit la liste des pratiques d’IA interdites. Le règlement introduit une distinction entre les utilisations de l’IA qui créent un risque inacceptable, un risque élevé et un risque faible ou minimal. La liste des pratiques interdites comprend tous les systèmes d’IA dont l’utilisation est considérée comme inacceptable car contraire aux valeurs de l’Union, par exemple en raison de violations des droits fondamentaux.

Quelques exemples de pratiques d’IA interdites :

  • Système d’IA qui a recours à des techniques subliminales au-dessous du seuil de conscience d’une personne pour altérer substantiellement son comportement d’une manière qui cause ou est susceptible de causer un préjudice physique ou psychologique à cette personne ou à un tiers.
  • Système d’IA qui exploite les éventuelles vulnérabilités dues à l’âge ou au handicap physique ou mental d’un groupe de personnes donné pour altérer substantiellement le comportement d’un membre de ce groupe d’une manière qui cause ou est susceptible de causer un préjudice physique ou psychologique à cette personne ou à un tiers.
  • La mise sur le marché, la mise en service ou l’utilisation, par les pouvoirs publics ou pour leur compte, de systèmes d’IA destinés à évaluer ou à établir un classement de la fiabilité de personnes physiques au cours d’une période donnée en fonction de leur comportement social ou de caractéristiques personnelles ou de personnalité connues ou prédites, la note sociale conduisant à l’une ou l’autre des situations suivantes, ou aux deux :
    • le traitement préjudiciable ou défavorable de certaines personnes physiques ou de groupes entiers de personnes physiques dans des contextes sociaux dissociés du contexte dans lequel les données ont été générées ou collectées à l’origine;
    • le traitement préjudiciable ou défavorable de certaines personnes physiques ou de groupes entiers de personnes physiques, qui est injustifié ou disproportionné par rapport à leur comportement social ou à la gravité de celui-ci.
  • Systèmes d’identification biométrique à distance en temps réel dans des espaces accessibles au public à des fins répressives, sauf si et dans la mesure où cette utilisation est strictement nécessaire eu égard à l’un des objectifs suivants:
    • la recherche ciblée de victimes potentielles spécifiques de la criminalité, notamment d’enfants disparus;
    • la prévention d’une menace spécifique, substantielle et imminente pour la vie ou la sécurité physique des personnes physiques ou la prévention d’une attaque terroriste;
    • la détection, la localisation, l’identification ou les poursuites à l’encontre de l’auteur ou du suspect d’une infraction pénale visée à l’article 2, paragraphe 2, de la décision-cadre 2002/584/JAI du Conseil et punissable dans l’État membre concerné d’une peine ou d’une mesure de sûreté privatives de liberté d’une durée maximale d’au moins trois ans, déterminées par le droit de cet État membre.

Les recommandations des Comité et Contrôleurs européens de la protection des données (CEPD) à propos de la proposition de règlement sur l’IA.

1- Des interdictions plus strictes et davantage de risques à prendre en compte.

Les CEPD recommandent dans leur avis conjoint de compléter cette liste, notamment en y intégrant les systèmes d’IA utilisés pour déterminer une prime d’assurance, évaluer des traitements médicaux ou encore à des fins de recherche sur la santé.

Ils préconisent fortement de mettre régulièrement à jour l’annexe III, qui liste les systèmes d’IA identifiés à haut risque, afin de s’assurer que son périmètre soit toujours approprié et qu’elle corresponde à la pratique.

Les CEPD reprochent que les exceptions à l’interdiction de l’utilisation de la reconnaissance faciale en temps réel dans des espaces accessibles au public à des fins répressives sont tellement larges qu’elles permettent aisément de justifier son utilisation.

A propos de la liste des pratiques d’IA interdites, les CEPD recommandent d’être beaucoup plus tranché et d’inclure dans cette liste davantage de systèmes d’IA, tels que :

  • Tout système dont l’utilisation aurait un impact sur la dignité humaine, tout système de social scoring y compris ceux réalisés par les entreprises privées et non pas uniquement ceux des autorités publiques.
  • Tout système d’identification biométrique automatique dans l’espace public ou qui permettrait d’aboutir à une catégorisation des personnes sur la base de critères discriminants et supposés (origines ethniques, sexe, orientation sexuelle, opinions politiques, etc).

Les CEPD recommandent que des risques plus généraux devraient être pris en compte, tels que les risques suivants :

  • Risque pour un groupe d’individus,
  • Risque pour les droits et libertés fondamentaux,
  • Risque pour la société dans son ensemble.

2- La prise en compte de la protection des données personnelles.

Articulation avec le droit de la protection des données personnelles. Concernant l’articulation de l’AI Act avec le droit de la protection des données personnelles, la proposition de règlement sur l’IA manque de précision sur son articulation avec les textes régissant la protection des données à caractère personnel, à savoir :
  • le règlement général sur la protection des données (UE) 2016/679 du 27 avril 2016 (RGPD) ;
  • la directive « police-justice » (UE) 2016/680 du 27 avril 2016 ;
  • le règlement (UE) 2018/1725 du 23 octobre 2018 sur la protection des données traitées par les institutions, organismes et organes de l’Union.
Privacy by design. Les CEPD regrettent l’absence de mention relatives aux personnes concernées et de leurs droits. Par ailleurs, les CEPD recommandent de prévoir que les systèmes d’IA soient respectueux des données dès la conception (privacy by design), notamment pour les systèmes de machine learning qui utilisent de nombreuses données d’entraînement, y incluant le cas échéant des données à caractère personnel. Droits des personnes concernées. Les CEPD recommandent que l’AI Act devrait citer les droits des personnes concernées, comme le droit de ne pas faire l’objet d’une prise de décision automatisée. En outre, les CEPD estiment que les droits à l’effacement et de rectification devraient être pensés dès la conception et les droits à la limitation et à l’effacement devraient toujours être garantis. Dans un souci de transparence, le CEPD rappelle enfin que les personnes doivent toujours être informées lorsque leurs données personnelles sont utilisées par un système d’IA. Analyse d’impact. Les CEPD recommandent d’effectuer une évaluation des risques ultérieure et adaptée à l’usage voulu, comme une analyse d’impact relative à la protection des données. Par ailleurs, les CEPD précisent que la proposition de règlement devrait spécifier que le responsable de traitement doit le cas échéant l’effectuer. Le mécanisme de mise en conformité. Concernant les mécanismes de mise en conformité :
  • le marquage CE devrait inclure la protection des données by design ;
  • l’évaluation de la conformité effectuée par un tiers doit être généralisée à tous les systèmes d’IA à haut risque ;
  • les mécanismes de certification devraient inclure les normes relatives à la protection des données personnelles.
Pour veiller à la conformité de l’AI Act, le texte prévoit que les Etats membres auront le choix de désigner l’autorité de contrôle chargée de veiller au respect du prochain règlement. En France, c’est la CNIL qui se démarque pour endosser ce rôle. En effet, c’est ce qui ressort de l’étude du  Conseil d’Etat publiée le 30 août 2022, particulièrement en raison de « la très forte adhérence entre la régulation des systèmes d’IA et celle des données, en particulier des données à caractère personnel ».

Création d'un service dédié à l'IA (SIA) au sein de la CNIL.

Consciente des enjeux présents et futurs de l’IA sur la protection des données personnelles, la CNIL annonce, le 23 janvier 2023, la création d’un SIA.

 

  • Composition du SIA : 5 personnes. Juristes et ingénieurs spécialisés. Le SIA sera rattaché à la direction des technologies et de l’innovation de la CNIL dont le directeur, Bertrand PAILHES, était précédemment coordonnateur national pour la stratégie d’IA au sein de la Direction interministérielle du numérique et du SI de l’Etat (DINSIC).

 

  • Objectifs du SIA :
    • Répondre aux interrogations des organismes publics et privés sur la légalité de certains usages liés au développement de l’IA.
    • Promouvoir les bonnes pratiques liées au développement de l’IA au regard du RGPD et dans la perspective de la proposition de règlement sur l’IA.

 

  • Principales missions du SIA :
    • Faciliter au sein de la CNIL la compréhension du fonctionnement des systèmes d’IA, mais aussi pour les professionnels et les particuliers ;
    • Consolider l’expertise de la CNIL dans la connaissance et la prévention des risques pour la vie privée liées à la mise en œuvre de ces systèmes ;
    • Préparer l’entrée en vigueur de l’AI Act (en cours de discussion au niveau européen) ;
    • Développer les relations avec les acteurs de l’écosystème ;
    • Produire du « droit souple » (référentiels, recommandations, etc.) ;
    • Instruire les demandes d’avis adressées par le gouvernement ;
    • Apporter un support dans l’instruction de plaintes et l’adoption de mesures correctrices en cas de manquements liés à l’utilisation d’un système d’IA.

 

La CNIL n’est pas la seule autorité de protection des données à s’intéresser à l’IA. La CNIL britannique, l’ICO (Information Commissioner’s Office), a quant à elle participé à un groupe de travail dédié à l’IA. En effet, l’ICO préside un groupe de travail informel pour les régulateurs qui se concentre sur les questions liées à l’IA. Ce groupe a été créé sur la base des principes de partage d’informations, de coordination et d’harmonisation. Il sert de forum pour le développement d’une approche collaborative et multilatérale de la réglementation de l’IA par les régulateurs britanniques existants.

 

L’IA constitue un enjeu présent, et l’existence d’un texte juridique qui répond aux défis posés par l’IA est plus que nécessaire. Toutefois, comme nous avons pu le voir, il n’est pas aisé d’y répondre efficacement et l’entrée en vigueur de l’AI Act peut prendre du temps.

Pour toute question portant sur l’usage éthique de l’intelligence artificielle, vous pouvez contacter nos équipes d’experts : Nous contacter – Almond

Sources

Maria IDJOUBAR

Consultante Governance, Risks & Compliance

Nous vous souhaitons de joyeuses fêtes de fin d’année hautes en couleur et à l’année prochaine pour une année 2024 exaltante ! 🎉

🎁 Merci à tous pour votre participation au quiz de l’avent, nous contacterons le gagnant très prochainement.

🎅 Chez Almond, l’esprit festif des fêtes de fin d’année est arrivé en avance !

Nos collaborateurs ont profité d’une soirée chaleureuse et joyeuse dans l’un des restaurants les plus spectaculaires de Paris, Le Cirque avec un cocktail dinatoire, des surprises et un Secret Santa.

Et un peu plus de magie de Noël ? Almond a également ouvert ses portes aux familles de nos collaborateurs pour une après-midi conviviale autour de l’arbre de Noël. Les enfants ont été captivés par des contes enchantés, de 1001 contes Constance Felix et ont savouré un goûter délicieux avec des chocolats chauds préparés par les Empotés. Le Père Noël a distribué des coloriages géants et des cadeaux pour le plus grand bonheur des enfants 🎁

Jour 23 : Quel est l’un des avantages de la communication et de la concertation des parties intéressées dans le processus de gestion des risques liés à la sécurité de l’information ?

  • Réponse 1 : La comparaison des résultats réels du processus de gestion des risques avec les résultats prévus lors de l’évaluation des risques.

  • Réponse 2 : Elle permet de prendre en compte différentes perspectives lors de l’établissement des critères de risque et l’évaluation des risques.

  • Réponse 3 : L’assurance que tous les risques soient communiqués à toutes les parties intéressées, quelles que soient la nature et la sensibilité de ces risques.

Laïus explicatif : La mise en place d’un processus de communication et de consultation en matière de gestion des risques liés à la sécurité de l’information a pour avantage l’amélioration des connaissances des employés concernant les risques et le processus de gestion des risques, la prise en compte de différentes perspectives lors de l’établissement des critères de risque et de l’évaluation des risques, l’amélioration de la gestion du changement au cours du processus de gestion des risques, et la garantie que chacun comprend son rôle et ses responsabilités.


Précision : une partie intéressée (le terme « partie prenante » est admis) est une personne ou un organisme susceptible d’affecter, d’être affecté ou de se sentir lui-même affecté par une décision ou une activité (extrait de la norme ISO 27001).
Les parties intéressées externes peuvent inclure les régulateurs et législateurs, les actionnaires, y compris les propriétaires et investisseurs, les fournisseurs, y compris les sous-traitants, consultants et partenaires d’externalisation, les associations industrielles ou autres, les concurrents, les clients et consommateurs, et les groupes d’activistes.
Les parties intéressées internes peuvent inclure les décideurs, y compris la direction générale, les propriétaires de processus, de systèmes et d’informations, les fonctions de soutien telles que l’informatique ou les ressources humaines, les employés et les utilisateurs, et les professionnels de la sécurité de l’information.

Jour 22 : CTF #4 de l'avent

Voici la solution du CTF #4 de l’avent

  • Flag : CWATCH{A_MAGICIAN_AMONG_THE_SPIRITS-HOUDINI}

Jour 21 : En communication de crise, qu’appelle-t-on l’effet « streisand » ?

  • Réponse 1 :  Une technique de réponse face aux journalistes

  • Réponse 2 :  Un phénomène médiatique involontaire

  • Réponse 3 :  Une posture de communication non-verbale

  • Réponse 4 :  Une stratégie de communication en temps de crise

Laïus explicatif : En communication de crise, l’effet « streisand » est un phénomène médiatique qui se produit lorsqu’une organisation souhaite cacher, supprimer ou censurer des informations la concernant et que cela la conduit à une augmentation involontaire de la visibilité de ces informations.

Ce phénomène fait échos à la chanteuse et actrice américaine Barbra Streisand. En effet, en 2003, Barbra Streisand avait essayé de supprimer une photographie de sa résidence en Californie et cela a conduit à une plus grande attention portée à cette photographie. Cet effet prend souvent de l’ampleur grâce à la couverture médiatique, le bouche-à-oreille ainsi que les réseaux sociaux (qui vont propager l’information encore plus rapidement).

 

Exemple d’entreprise :

En novembre 2022, la FNAC s’est retrouvée au cœur d’un débat politique lorsqu’elle a mis en vente un jeu intitulé « Antifa ». Il propose aux joueurs d’incarner des militants chargés de déjouer les « exactions d’extrême droite » en leur opposant « une résistance de force égale ou supérieure ». À la suite de cette polémique, la FNAC a décidé de retirer le produit de ses ventes le dimanche 27 novembre 2022 puis, après « analyse », de le remettre en vente le 29 novembre.

La polémique générée par les critiques d’extrême droite a permis de mettre en lumière le jeu alors qu’il aurait pu passer sous les radars.

En voulant arrêter la polémique naissante sur les réseaux sociaux, l’entreprise a pris l’option risquée de réagir très vite par le retrait temporaire du jeu afin d’analyser son contenu. Elle s’est ainsi retrouvée au cœur d’un débat politique.

 

Notre opinion :

Afin d’éviter l’effet « Streisand », il faut mettre en place des veilles médiatiques régulières pour surveiller et analyser le contexte médiatique. De plus, il faut évaluer avec soin l’information en question, en se demandant si cette information est vraiment susceptible de causer un préjudice important et si la tentative de censure est justifiée.

Néanmoins, il faut avoir en tête qu’avec l’évolution des médias et la rapidité de diffusion de l’information, chercher à supprimer une information met davantage les organisations sous le feu des projecteurs. Ainsi, il faut parfois relativiser et accepter que cette information ait été diffusée. C’est grâce à l’analyse du contexte médiatique que les entreprises pourront évaluer l’impact que peut avoir cette information dans les médias et ainsi décider de communiquer ou non.

Jour 20 : Quel type d’attaque consiste à intercepter et à lire les informations sensibles, telles que les identifiants de connexion, en transit entre un utilisateur et un site web ?

  • Réponse 1 : Attaque par déni de service (DDoS)

  • Réponse 2 : Attaque par force brute

  • Réponse 3 : Attaque par interception (Sniffing)

  • Réponse 4 : Attaque de phishing

Laïus explicatif : Une attaque par interception, également connue sous le nom de “sniffing”, est une méthode utilisée par les cybercriminels pour capturer et inspecter les données qui sont transmises sur un réseau.

L’attaquant utilise un logiciel d’interception de paquets (sniffer) pour capturer les données à mesure qu’elles passent sur le réseau. Ces données peuvent inclure des informations sensibles telles que des noms d’utilisateur, des mots de passe, des numéros de carte de crédit, etc.

Jour 19 : Quelles sont les différentes briques fonctionnelles composant habituellement les plateformes SASE (Secure Access Service Edge) ?

  • Réponse 1 : XDR (Extended Detection & Response), IDS (Intrusion detection System), CRL (Certificate Revocation List), ZTNA (Zero-Trust Network Access), anti-SPAM

  • Réponse 2 : SD-WAN (Software-Defined WAN), ZTNA (Zero-Trust Network Access), Bastion, EDR

  • Réponse 3 : SD-WAN (Software-Defined WAN), CASB (Cloud Access Security Broker), SWG (Secure Web Gateway), FWaaS (Firewall-as-a-Service), ZTNA (Zero-Trust Network Access)

  • Réponse 4 : SDS (Santa Detection System), CaaS (Chocolate as a Service), STAR (haut du sapin), CD-TTWU (Children-Defined Time to Wake Up), XMS (Extended Meals & Stomach)

Laïus explicatif : Gartner définit le SASE comme la convergence entre le réseau et la sécurité, incluant SD-WAN, SWG, CASB, NGFW et zero trust network access (ZTNA). Certains fournisseurs de plateforme SASE prévoient d’étendre leurs offres en y intégrant EDR et XDR.

Jour 18 : Quels types de données une solution DLP vise-t-elle généralement à protéger ?

  • Réponse 1 : Uniquement les données personnelles des employés.

  • Réponse 2 : Toutes les données, indépendamment de leur sensibilité.

  • Réponse 3 : Uniquement les données stockées sur des serveurs internes.

  • Réponse 4 : Les données sensibles et confidentielles, telles que les informations financières ou médicales.

Laïus explicatif : Les stratégies et solutions DLP visent généralement à protéger les données sensibles et confidentielles, telles que les informations financières, médicales, ou tout autre type de données qui, si perdues ou compromises, pourraient causer des dommages importants à une organisation.

Jour 17 : D'après Hyperproof, quel est le pourcentage moyen de non-respect des réglementations en matière de protection des données telles que le RGPD et des faiblesses des mesures de cybersécurité entraînant des vulnérabilités dans la protection des données de l'entreprise et des clients, observé dans les entreprises du secteur technologique ?

  • Réponse 1 : 10%

  • Réponse 2 : 25%

  • Réponse 3 : 40%

  • Réponse 4 : 55%

Laïus explicatif : Une étude récente menée par Hyperproof (logiciel de gestion de la conformité) parmi les 1029 personnes interrogées a montré que 25% des entreprises technologiques font face à des problèmes de non-conformité chaque année. Elles ont connu au moins une violation de la conformité ou un manquement, comme un non-respect des réglementations en matière de protection des données telles que le RGPD et des faiblesses des mesures de cybersécurité entraînant des vulnérabilités dans la protection des données de l’entreprise et des clients. Cela montre l’importance d’une gestion efficace des risques et de la conformité pour éviter les sanctions et maintenir une bonne réputation. Les entreprises doivent investir dans des formations, des audits réguliers et des technologies de surveillance pour s’assurer qu’elles restent dans les limites des réglementations en vigueur.

Jour 16 : Quelle fonctionnalité d’un serveur proxy permet à un administrateur réseau d’exposer des sites web hébergés sur son réseau à des utilisateurs externes ?

  • Réponse 1 : Proxy de transfert

  • Réponse 2 : Protocole HTTP

  • Réponse 3 : Protocole proxy

  • Réponse 4 : Proxy inverse

Laïus explicatif : Un proxy inverse peut être un serveur ou une application qui se place devant un serveur Web pour intercepter et inspecter les demandes entrantes des clients avant de les transmettre au serveur Web. Ce serveur permet aussi de renvoyer la réponse du serveur au client (par exemple, les navigateurs web).

Les solutions de proxy inverse sont généralement déployées pour améliorer la sécurité, les performances et la fiabilité.

Le protocole HTTP décrit la méthode de communication client/serveur afin d’échanger différentes ressources qui composeront un site Web.

Le protocole proxy décrit la méthode d’encapsulation qui permet de conserver les informations d’origine du client au sein de l’échange TCP « proxifié » entre le client et le serveur Web.

Avec un proxy de transfert, contrairement au Proxy inverse, l’utilité va être de protéger les utilisateurs et non les serveurs Web. Le proxy de transfert va intercepter les requêtes des utilisateurs à destination des serveurs Web afin de bénéficier d’une meilleure confidentialité et de contrôler l’accès à certaines catégories de contenus.

Jour 15 : CTF #3 de l'avent

Voici la solution du CTF #3 de l’avent

  • Flag : CWATCH{02/12/2021_18:50:00}

Jour 14 : Quel principe directeur d’ITIL prend en compte l’importance de la fidélisation des clients ?

  • Réponse 1 : Progresser de manière itérative grâce aux feedbacks
  • Réponse 2 : Commencer là où vous êtes
  • Réponse 3 : Optimiser et automatiser
  • Réponse 4 : Se concentrer sur la valeur

Laïus explicatif : Le principe « privilégier la valeur » implique que toute initiative de l’organisation doit être liée, directement ou indirectement, à la valeur qu’elle dégage pour les parties prenantes. Il englobe plusieurs perspectives, notamment l’expérience des clients et des utilisateurs.

Jour 13 : Qu'est-ce que l'ingénierie sociale dans le contexte de la cybersécurité ?

  • Réponse 1 : Une méthode de construction de logiciels de réseaux sociaux sécurisés
  • Réponse 2 : L’utilisation de technologies dans la sécurité des réseaux sociaux
  • Réponse 3 : Un protocole de sécurité pour les ingénieurs
  • Réponse 4 : Une méthode frauduleuse d’obtention d’informations

Laïus explicatif : L’ingénierie sociale est un processus frauduleux visant à tromper les individus pour obtenir certaines informations personnelles ou confidentielles, voire un accès direct à un système informatique. Il consiste souvent à se faire passer pour quelqu’un d’autre, tout en jouant sur des ressorts psychologiques.

Les attaques d’ingénierie sociale sont courantes et peuvent prendre différentes formes, telles que le phishing, le vol par diversion, le SMiShing (phishing par SMS), le pretexting, l’arnaque sentimentale (honeytrap), le tailgating/piggybacking etc.

Jour 11 : Parmi ces données, lesquelles seraient selon vous les plus attractives pour un cyberattaquant ?

  • Réponse 1 : Des informations de quelques clients (nom, prénom, adresse physique, email, téléphone)

  • Réponse 2 : Une liste d’une vingtaine d’emails professionnels

  • Réponse 3 : Une carte “black” avec adresse du propriétaire et CVV

  • Réponse 4 : Un numéro de carte bancaire

Laïus explicatif : La carte “black” et ses détails sera plus attractive pour un cyberattaquant car ce type de carte appartient généralement à des personnes avec un certain niveau de revenu ou des personnalités publiques. Le cyberattaquant pourra directement frauder ou vendre ces informations à un prix plus élevé qu’un numéro d’une carte bancaire lambda sur le marché noir. Les données à caractère personnel commencent à devenir rentables lorsqu’elles sont nombreuses, récentes, réutilisables et couplées à d’autres types de données (données de santé et données bancaires notamment). La donnée peut servir divers objectifs bien souvent motivés in fine par l’appât du gain :

  1. La fraude financière
  2. Le détournement pour d’autres cyberattaques (campagne de phishing, usurpation d’identité)
  3. La revente à des plateformes de marketing : filon davantage exploitée par les GAFAM

Jour 12 : CTF #2 de l'avent

Voici la solution du CTF #2 de l’avent

  • Flag : CWATCH{JAN_FABRE}

Jour 10 : Parmi ces 4 choix, lequel définit le mieux une Due Diligence IT/Cyber ?

  • Réponse 1 : un audit organisationnel et technique IT/Cyber d’une entreprise en prévision de l’entrée au capital d’un nouvel actionnaire
  • Réponse 2 : un audit organisationnel et technique IT/Cyber d’une entreprise à la suite de l’entrée au capital d’un nouvel actionnaire
  • Réponse 3 : un questionnaire IT/Cyber envoyé à une entreprise dans le cadre d’une opération d’investissement
  • Réponse 4 : un audit de conformité permettant de s’assurer que l’entreprise ciblée répond à ses obligations réglementaires

Laïus explicatif : Une Due Diligence est un audit réalisé dans le cadre d’un projet d’investissement (ex. LBO) concernent généralement des enjeux financiers, juridiques, opérationnels, RSE et IT/Cyber.

Une Due Diligence IT/Cyber est un audit permettant d’éclairer la décision d’investissement, en analysant la posture cyber de l’entreprise, ses pratiques et ses éventuelles vulnérabilités. Elle permet à l’investisseur, un fonds d’investissement par exemple, d’obtenir une appréciation argumentée de la maturité de l’entreprise, et ainsi déterminer les efforts et moyens nécessaires par la suite pour renforcer le niveau de sécurité de l’entreprise.

Almond réalise régulièrement des Due Diligence IT/Cyber pour le secteur du Private Equity, en y associant une évaluation externe automatisée avec la solution Security Rating de Board of Cyber mais également des investigations ciblées type OSINT.

Jour 9 : Quelle est la part de la consommation d'électricité globale imputable aux Datacenters ?

  • Réponse 1 : 0,01%

  • Réponse 2 : 0,1%

  • Réponse 3 : 1,5%

  • Réponse 4 : 10%

Laïus explicatif : La quantité de Datacenters à travers le monde connaît une hausse significative et cette tendance perdure. Malgré les efforts des constructeurs pour réduire et rationaliser leur consommation d’énergie, ces infrastructures sont responsables de 1,5 % de la consommation électrique globale, d’après les données de l’Agence Internationale de l’Énergie (IEA.org).

Jour 8 : Qu'est-ce qu'une "Zero Day" ?

  • Réponse 1 : Une faille informatique déjà corrigée par le fournisseur avant que vous ne le sachiez

  • Réponse 2 : Une vulnérabilité ne disposant pas de solution de mitigation

  • Réponse 3 : Une faille de sécurité qui n’affecte pas les systèmes d’information

  • Réponse 4 : Une vulnérabilité exploitée uniquement le jour de sa découverte

Laïus explicatif : Une “Zero Day” est une vulnérabilité qui n’a pas encore été corrigée ou pour laquelle il n’existe pas de mitigation possible. Potentiellement, des attaquants peuvent déjà avoir connaissance de cette faille et l’exploiter activement : certaines vulnérabilités Zero-Day sont ainsi découvertes par la communauté informatique à la suite d’une attaque qui l’exploite. Les cyber-criminels investissent beaucoup pour découvrir des vulnérabilités avant les chercheurs en sécurité, afin de maximiser les chances de réussite de leurs attaques.

Jour 7 : Selon les nouvelles recommandations de la CNIL, quelle est la meilleure pratique sur la robustesse d'un mot de passe ?

  • Réponse 1 : La longueur

  • Réponse 2 : Une dérivation des mots du dictionnaire (exemple la dérivation du mot Kangourou est k4ng0urOu)

  • Réponse 3 : L’utilisation d’une phrase de passe (7 mots minimum)

  • Réponse 4 : L’utilisation d’une combinaison de 12 caractères comprenant des majuscules, des minuscules et des chiffres, sans caractère spécial obligatoire

Laïus explicatif : Conformément aux récentes directives de la CNIL, l’approche privilégiée pour renforcer la sécurité des mots de passe repose sur une complexité évaluée par l’entropie, plutôt que sur une exigence stricte de longueur minimale. Cette approche vise à accorder une plus grande souplesse dans l’élaboration de politiques de mots de passe, adaptées à divers scénarios d’utilisation. Les trois exemples ci-dessous sont considérés comme équivalents en termes d’entropie, et ils sont tous conformes aux recommandations récentes :

  • Exemple 1 : Les mots de passe doivent comprendre au moins 12 caractères, incluant des majuscules, des minuscules, des chiffres, et des caractères spéciaux choisis parmi une liste d’au moins 37 caractères spéciaux possibles.
  • Exemple 2 : Les mots de passe doivent avoir au moins 14 caractères, incluant des majuscules, des minuscules, et des chiffres, sans obligation d’utiliser des caractères spéciaux.
  • Exemple 3 : Une phrase de passe doit être utilisée, composée d’au moins 7 mots. Cette approche permet aux utilisateurs de choisir des mots de passe répondant à des critères variés, tout en garantissant une sécurité appropriée.

Vous pouvez consulter les recommandations en suivant le lien fourni : Mots de passe : une nouvelle recommandation pour maîtriser sa sécurité | CNIL

Jour 6 : Quel sera le principe innovant principal du Wifi7 ?

  • Réponse 1 : L’introduction de la bande de fréquence 6Ghz

  • Réponse 2 : L’utilisation de largeur de bandes allant jusqu’à 640 Mhz

  • Réponse 3 : La possibilité d’utiliser deux bandes de fréquences simultanément

  • Réponse 4 : Aucune mise à jour requise sur les terminaux

Laïus explicatif : Avec le Wifi 7, il sera possible d’utiliser deux bandes de fréquences simultanément, contrairement au Wi-Fi intelligent actuel qui positionne automatiquement les appareils sur la meilleure bande de fréquences. Conséquences de cette agrégation de fréquences : des débits plus rapides et latences encore réduites. Le 6Ghz est déjà introduit depuis le wifi 6E, les largeurs de bandes ne seront “que” de 320 Mhz sur le 6Ghz avec le Wifi7.

Jour 5 : CTF #1 de l'avent

Voici la solution du CTF #1 de l’avent

  •  Flag : CWATCH{C51H79NO13} 

Jour 4 : Quel type d'attaque peut être qualifié de "triple extorsion" ?

  • Réponse 1 : Une attaque par ransomware
  • Réponse 2 : Une attaque par hameçonnage
  • Réponse 3 : Une attaque par déni de service
  • Réponse 4 : Une attaque par empoisonnement du cache DNS

Laïus explicatif : Le ransomware à triple extorsion est comme son nom l’indique une attaque durant laquelle les cybercriminels menacent de trois façons différentes leur victime.

  1. L’attaquant va demander une rançon à la victime pour qu’il puisse récupérer/déchiffrer ses données
  2. L’attaquant va demander une rançon pour ne pas publier / divulguer les données exfiltrées, il peut aussi demander une rançon pour un délai supplémentaire avant divulgation (retarder le compte à rebours)
  3. L’attaquant va mettre la pression à la victime pour augmenter les chances de paiement de la rançon via des attaques de type DDoS ou des appels téléphoniques, enfin il peut aussi demander des rançons aux victimes collatérales, dont les données auraient fuité indirectement dans l’attaque

Ce type d’attaque permet aux attaquants de maximiser le gain financier pour chaque victime, le ransomware étant déjà l’une des attaques les plus lucratives, il convient d’anticiper ce scénario et de s’en protéger convenablement.

Jour 3 : Parmi ces quatre choix, lequel définit le mieux ce qu’est l’ISO 27001 ?

  • Réponse 1 : Un standard listant un ensemble d’exigences relatives à la sécurité des systèmes informatiques d’une entreprise
  • Réponse 2 : Une norme listant un ensemble de bonnes pratiques permettant d’optimiser la cybersécurité au sein d’une l’entreprise
  • Réponse 3 : Une norme listant un ensemble d’exigences relatives à la sécurité des informations nécessaires à une entreprise
  • Réponse 4 : Un standard listant un ensemble de méthodes pour optimiser les pratiques relatives à la sécurité des informations utilisées par une entreprise

Laïus explicatif : L’ISO 27001 est une norme internationale, dont les entreprises peuvent se prévaloir en se faisant certifier par un organisme indépendant ; elle contient un ensemble d’exigences que chaque entreprise, quels que soient sa taille et son domaine d’activité, doit impérativement appliquer pour obtenir sa certification ; ses exigences constituent donc le référentiel des audits de certification. A ne pas confondre avec la norme ISO 27002 qui est constituée de recommandations, basées sur les bonnes pratiques internationales, permettant d’aider une entreprise à appliquer les exigences de la norme ISO 27001 (donc norme qui ne donne pas lieu à une certification).

Les exigences de la norme ISO 27001 portent sur les informations nécessaires à une entreprise, recueillies et/ou traitées, quel que soit son support, électronique, papier et oral.

Les trois critères de sécurité retenus par la norme ISO 27001 sont la confidentialité, l’intégrité et la disponibilité des informations. Tout événement, qu’il soit d’origine environnementale ou humaine, intentionnelle ou involontaire, impactant un de ces trois critères, relève de cette norme.

Jour 2 : Qu'est-ce qu'une attaque DDoS?

  • Réponse 1 : Un logiciel espion qui enregistre ce qu’écrit un utilisateur
  • Réponse 2 : Un procédé visant à perturber l’accès à un site ou une application
  • Réponse 3 : Un virus informatique qui chiffre l’OS de votre ordinateur en échange d’une rançon
  • Réponse 4 : Une attaque Informatique visant à détermine votre mot de passe en testant un grand nombre de possibilité

Laïus explicatif : Une attaque DDoS ou “Distributed Denial of Service” est une attaque visant à rendre indisponible un site en le submergeant de requêtes provenant de multiples sources. Dans le cas où toutes les requêtes proviennent de la même source, on parle simplement d’attaque DoS (« Denial of Service »), ou « par déni de service ».

Jour 1 : Qu'est-ce que DORA?

  • Réponse 1 : Une jeune exploratrice bilingue
  • Réponse 2 : Un protocole de communication décrit dans le RFC 9364
  • Réponse 3 : Une organisation internationale de régulation de la cybersécurité
  • Réponse 4 : Un règlement qui s’applique aux entités financières et aux tiers prestataires de services informatiques

Laïus explicatif : DORA ou Digital Operational Resilience Act est un règlement européen publié en 2022 et en vigueur depuis janvier 2023. Le règlement traite de la résilience opérationnelle numérique du secteur financier. Il est applicable aux entités financières comme les banques, assurances, entreprises d’investissement, les établissements de paiement, etc. mais également aux tiers prestataires de services informatiques. Les entreprises concernées ont deux ans pour se mettre en conformité. Ils devront donc l’être en 2025 !

Le pilier relatif à la gestion des risques liés aux prestataires tiers de services TIC apparait comme l’un des plus difficile à mettre en place et à maintenir dans le temps pour les entreprises concernées. En quelques mots, les entreprises devront considérer ces risques comme faisant partie intégrante du risque lié aux technologies de l’information et de la communication (TIC) et notamment le risque de concentration, au niveau de l’entreprise mais également au niveau de l’ensemble du secteur financier européen. En effet, les autorités devront analyser ce risque en analysant les registres tenus et communiqués par les entreprises concernées par DORA et qui recense notamment la liste des tiers prestataires de services TIC avec lesquelles les entités financières conclues des contrats.

Pour plus d’informations, consultez notre avis d’expert sur le sujet : https://almond.eu/cybersecurity-insights/explorons-dora/