Les vulnérabilités dans les LLM : Conclusion et perspectives
Après avoir exploré les vulnérabilités inhérentes aux modèles de langage à grande échelle (LLM) dans notre série d’articles, il est […]
Les vulnérabilités dans les LLM : Overreliance
La surconfiance (Overreliance en anglais) peut survenir lorsqu’un LLM produit des informations erronées et les présente de manière autoritaire […]
Les vulnérabilités dans les LLM : Excessive Agency
Un système basé sur les LLM (Large Language Models) est souvent doté d’un certain degré d’autonomie par son développeur, […]
Les vulnérabilités dans les LLM : Insecure Plugin Design
Les plugins pour LLM sont des extensions qui, lorsqu’ils sont activés, sont automatiquement appelés par le modèle pendant les interactions […]
Les vulnérabilités dans les LLM : Model Theft
L’exfiltration de modèles LLM (Model Theft in english) par des acteurs malveillants ou des groupes de cyberespionnage avancés est une […]
Les vulnérabilités dans les LLM : Sensitive Information Disclosure
Les LLM ont le potentiel de révéler des informations sensibles (Sensitive Information Disclosure en anglais), des algorithmes propriétaires ou d’autres […]
Les vulnérabilités dans les LLM : Supply Chain Vulnerabilities
Le machine learning étend les vulnérabilités aux modèles pré-entraînés et aux données d’entraînement fournis par des tiers, qui sont susceptibles […]
Les vulnérabilités dans les LLM : Model Denial of Service
Un déni de service du modèle (Model Denial of Service en anglais) se produit quand un attaquant interagit avec un […]
Les vulnérabilités dans les LLM : Training Data Poisoning
L’empoisonnement des données d’entraînement (Training Data Poisoning en anglais) fait référence à la manipulation des données de pré-entraînement ou des […]
Les vulnérabilités dans les LLM : Insecure Output Handling
La gestion des sorties non sécurisées (Insecure Output Handling en anglais) fait référence à une validation, une désinfection et une […]