Les vulnérabilités dans les LLM : Conclusion et perspectives
Après avoir exploré les vulnérabilités inhérentes aux modèles de langage à grande échelle (LLM) dans notre série d’articles, il est temps de tirer des conclusions et de regarder vers l’avenir.
Les vulnérabilités dans les LLM : (10) Model Theft
L’exfiltration de modèles LLM (Model Theft in english) par des acteurs malveillants ou des groupes de cyberespionnage avancés est une menace nouvelle, souvent lié à […]
Les vulnérabilités dans les LLM : (9) Overreliance
La surconfiance (Overreliance en anglais) peut survenir lorsqu’un LLM produit des informations erronées et les présente de manière autoritaire […]
Les vulnérabilités dans les LLM : (8) Excessive Agency
Un système basé sur les LLM (Large Language Models) est souvent doté d’un certain degré d’autonomie par son développeur, […]
Les vulnérabilités dans les LLM : (7) Insecure Plugin Design
Les plugins pour LLM sont des extensions qui, lorsqu’ils sont activés, sont automatiquement appelés par le modèle pendant les interactions avec l’utilisateur…
Les vulnérabilités dans les LLM : (6) Sensitive Information Disclosure
Les LLM ont le potentiel de révéler des informations sensibles (Sensitive Information Disclosure en anglais), des algorithmes propriétaires ou d’autres détails confidentiels à travers leurs sorties.
Les vulnérabilités dans les LLM : (5) Supply Chain Vulnerabilities
Le machine learning étend les vulnérabilités aux modèles pré-entraînés et aux données d’entraînement fournis par des tiers, qui sont susceptibles d’être altérés par des attaques de manipulation et d’empoisonnement.
Les vulnérabilités dans les LLM : (4) Model Denial of Service
Un déni de service du modèle (Model Denial of Service en anglais) se produit quand un attaquant interagit avec un LLM de manière à consommer une quantité excessivement élevée de ressources ou de bloquer complètement les réponses de l’IA.
Les vulnérabilités dans les LLM : (3) Training Data Poisoning
L’empoisonnement des données d’entraînement (Training Data Poisoning en anglais) fait référence à la manipulation des données de pré-entraînement ou des données impliquées dans les processus de raffinement […]
Les vulnérabilités dans les LLM : (2) Insecure Output Handling
La gestion des sorties non sécurisées (Insecure Output Handling en anglais) fait référence à une validation, une désinfection et une gestion insuffisantes des sorties générées par les IA avant qu’elles ne soient transmises en aval à d’autres composants et systèmes.