Archives par mot-clé : agentic AI

Vers un barème mondial pour les vulnérabilités de l’IA

L’OWASP lance l’AI Vulnerability Scoring System (AIVSS), un cadre inédit pour mesurer les risques des systèmes d’intelligence artificielle autonomes, au-delà des limites du modèle CVSS.

Le Common Vulnerability Scoring System (CVSS) reste la norme en cybersécurité, mais il atteint ses limites face aux IA modernes, non déterministes et autonomes. Pour combler ce vide, un groupe d’experts piloté par Ken Huang, en partenariat avec l’OWASP, a créé l’AI Vulnerability Scoring System (AIVSS). Ce nouveau modèle évalue la gravité des failles dans les systèmes d’IA, intégrant des critères comme l’autonomie, la capacité d’adaptation ou l’usage d’outils. Objectif : fournir une mesure fiable des menaces spécifiques à l’IA agentique, dont la nature évolutive échappe aux approches de sécurité classiques.

Une évaluation repensée pour l’intelligence artificielle

Le système AIVSS reprend la structure du CVSS tout en y ajoutant des indicateurs adaptés aux IA. Chaque vulnérabilité est d’abord notée selon le barème classique, puis ajustée à l’aide de paramètres liés au comportement de l’agent. Cette « surcouche » mesure l’autonomie, le non-déterminisme et la capacité d’interaction avec des outils externes. Le score final est obtenu en divisant le total par deux, puis en appliquant un coefficient environnemental.

Ken Huang, chercheur et expert en sécurité de l’IA, précise que ce modèle vise à traduire la réalité d’une IA « qui agit de manière dynamique, interagit et apprend ». Le projet, mené au sein de l’OWASP, réunit également Michael Bargury (Zenity), Vineeth Sai Narajala (AWS) et Bhavya Gupta (Stanford). Ensemble, ils cherchent à bâtir un référentiel mondial d’évaluation des vulnérabilités spécifiques à l’IA.

Le portail aivss.owasp.org met déjà à disposition un outil de calcul des scores et une documentation détaillée pour aider les chercheurs et entreprises à évaluer leurs risques d’exposition.

Les risques uniques de l’IA agentique

Les systèmes d’intelligence artificielle autonomes posent un problème inédit : leur autonomie partielle multiplie les points d’attaque possibles. « L’autonomie n’est pas une vulnérabilité, mais elle accroît les risques », explique Huang. Contrairement aux logiciels déterministes, une IA peut modifier son comportement ou son identité à la volée. Cette fluidité complique la traçabilité et le contrôle d’accès.

L’équipe AIVSS a ainsi recensé dix types de menaces majeures pour les IA agentives : usage abusif d’outils, violations d’accès, défaillances en cascade, orchestration non sécurisée, usurpation d’identité, manipulation du contexte mémoire, interactions non sécurisées avec des systèmes critiques, attaques par dépendance, agents intraçables et détournement des objectifs.

Selon le rapport AIVSS, ces risques se recoupent souvent. Un agent mal protégé peut, par exemple, manipuler ses instructions, détourner un outil légitime, puis compromettre d’autres agents connectés. Le risque se propage alors en chaîne.

Vers une standardisation de la cybersécurité de l’IA

L’ambition du projet AIVSS est d’unifier l’évaluation de la sécurité des IA à l’échelle internationale. Les chercheurs d’OWASP espèrent que ce cadre deviendra, à terme, un standard comparable au CVSS pour les logiciels classiques. Il doit permettre aux responsables sécurité de mieux anticiper les dérives des systèmes d’IA agentifs, capables d’apprendre ou de redéfinir leurs propres objectifs. La mise en œuvre d’un tel cadre pourrait influencer la future régulation de l’intelligence artificielle, notamment en Europe, où la directive AI Act impose déjà des niveaux de contrôle différenciés selon les usages.

Huang insiste sur la nécessité d’un équilibre entre autonomie et sécurité : « Si l’on veut une IA vraiment indépendante, il faut lui donner des privilèges. Mais ces privilèges doivent être mesurés, surveillés et évalués. »

Avec l’AIVSS, la cybersécurité entre dans une nouvelle ère : celle où les failles ne résident plus seulement dans le code, mais dans la capacité des machines à penser et à agir seules. La question reste ouverte : comment concilier innovation et sécurité sans freiner le développement de l’IA autonome ?

Principaux risques liés aux systèmes d’IA agentifs 

Le projet AIVSS a également identifié les dix principaux risques de sécurité pour Agentic AI , même si l’équipe s’est abstenue de les qualifier de liste officielle des « 10 principaux ». Data Security Breach vous les propose ci-dessous : 

  • Utilisation abusive des outils d’IA agentique 
  • Violation du contrôle d’accès de l’agent 
  • Défaillances en cascade des agents 
  • Orchestration des agents et exploitation multi-agents 
  • usurpation d’identité d’agent 
  • Mémoire de l’agent et manipulation du contexte 
  • Interaction non sécurisée entre agents et systèmes critiques 
  • Attaques par chaîne d’approvisionnement et dépendance des agents 
  • Agent intraçable 
  • Manipulation des objectifs et des instructions de l’agent