Les vulnérabilités dans les LLM : (1) Prompt Injection
La vulnérabilité d’injection de prompt (Prompt Injection en anglais) se produit lorsqu’un attaquant manipule un LLM via des requêtes élaborées, amenant l’IA à exécuter les intentions de l’attaquant.
Les vulnérabilités dans les LLM : Introduction
Bienvenue dans cette suite d’article consacrée aux Large Language Model (LLM) et à leurs vulnérabilités. Depuis quelques années, le Machine Learning (ML) est devenu une priorité pour la plupart des entreprises qui souhaitent intégrer des technologies d’Intelligence Artificielle dans leurs processus métier.