Les vulnérabilités dans les LLM : Prompt Injection
La vulnérabilité d’injection de prompt (Prompt Injection en anglais) se produit lorsqu’un attaquant manipule un LLM via des requêtes élaborées, […]
Les vulnérabilités dans les LLM : Introduction
Bienvenue dans cette suite d’articles consacrée aux Large Language Model (LLM) et à leurs vulnérabilités. Depuis quelques années, le Machine Learning […]