Injection de requêtes : la nouvelle menace des pirates sur l’IA

 

L’usage massif des assistants d’intelligence artificielle (IA) a ouvert une voie d’accès pour les pirates informatiques, capables, via divers subterfuges, de donner leurs propres instructions aux chatbots pour voler, modifier ou effacer des données. Cette menace, appelée « injection de requêtes », est qualifiée de « vulnérabilité » par Meta et de « problème de sécurité non résolu » par Dane Stuckey, responsable sécurité chez OpenAI.

Ce concept existait depuis trois ans, avant même ChatGPT, mais son impact était limité car les assistants IA ne faisaient que produire du contenu à intégrer par un humain. L’arrivée des agents IA autonomes a transformé ces systèmes en véritables Chevaux de Troie : un pirate peut dissimuler des instructions dans une page web, un mail, une image ou un document, parfois invisibles à l’œil nu. L’agent lit ces instructions et exécute l’ordre à l’insu de l’utilisateur, pouvant extraire, modifier ou supprimer des données, voire influencer le fonctionnement de sites ou du modèle IA lui-même.

Pour les experts, cette évolution crée un « nouveau vecteur d’attaque » accessible à des acteurs malveillants sans compétences techniques avancées. Eli Smadja, manager chez Check Point, considère l’injection de requêtes comme « le problème de sécurité numéro un pour les grands modèles de langage (LLM) ».

Les grands acteurs de l’IA générative ont mis en place des mesures de protection. Microsoft a intégré un détecteur d’instructions malveillantes, tandis qu’OpenAI alerte l’utilisateur lorsqu’un agent IA visite un site sensible, et n’autorise l’opération que si elle est surveillée en temps réel. D’autres recommandations incluent la validation explicite par l’utilisateur avant toute tâche critique.

Pour les spécialistes, le vrai défi reste le « délicat équilibre » entre sécurité et facilité d’usage. Johann Rehberger souligne que laisser un agent IA agir en autonomie sur tout le système comporte des risques importants. Marti Jorda Roca insiste sur la nécessité de mesures de sécurité à tous les niveaux pour les utilisateurs et les entreprises, notamment dans les secteurs sensibles comme les banques.

Selon les experts, l’intelligence artificielle n’est pas encore assez mature pour fonctionner de manière totalement autonome sur de longues périodes, le risque de défaillance restant élevé.

Partage:
Laisser un commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *