Selon OpenAI , les attaques par injection rapide pourraient toujours affecter les navigateurs d'IA

OpenAI a déclaré que « l'injection de prompts, à l' instar des arnaques et de l'ingénierie sociale sur Internet , ne sera probablement jamais totalement éradiquée ».

Selon OpenAI , les attaques par injection rapide pourraient toujours affecter les navigateurs d'IA
Points forts
  • OpenAI reconnaît que les injections de prompts menacent Atlas AI
  • De simples mots peuvent influencer le comportement des navigateurs IA
  • OpenAI teste la sécurité avec un bot attaquant basé sur LLM
Publicité

OpenAI reconnaît que les injections de prompts , un type d' attaque qui manipule les agents d'IA pour qu'ils suivent des instructions malveillantes souvent dissimulées dans des pages Web ou des courriels, constituent un risque qui ne disparaîtra pas de sitôt, soulevant des inquiétudes quant à la sécurité avec laquelle les agents d'IA peuvent opérer sur le Web ouvert , même si l' entreprise s'efforce de renforcer son navigateur Atlas AI contre les cyberattaques. Dans un article de blog publié lundi, OpenAI a déclaré que « l'injection de prompts, à l' instar des arnaques et de l'ingénierie sociale sur Internet , ne sera probablement jamais totalement éradiquée », expliquant comment l' entreprise renforce les défenses d'Atlas contre ces attaques persistantes . 

Après la sortie du navigateur ChatGPT Atlas d'OpenAI en octobre, des chercheurs en sécurité ont rapidement publié leurs démonstrations , prouvant que quelques mots dans Google Docs pouvaient modifier le comportement du navigateur sous- jacent . Le même jour , Brave a publié un article de blog expliquant comment les navigateurs basés sur l'IA , tels que Comet de Perplexity , sont systématiquement mis à l'épreuve par l'injection indirecte de requêtes . 

OpenAI n'est pas la seule à avoir compris que les injections de code basées sur des prompts sont là pour durer. Plus tôt ce mois-ci, le Centre national de cybersécurité du Royaume - Uni a mis en garde contre le risque que les attaques par injection rapide contre les applications d'IA générative « ne soient jamais totalement éradiquées », exposant les sites web à des fuites de données . Plutôt que de croire que ces attaques peuvent être « stoppées », l' organisme gouvernemental britannique a recommandé aux experts en cybersécurité de réduire les risques et l'impact des injections rapides . 

Cependant, OpenAI utilise une stratégie différente avec son « attaquant automatisé basé sur LLM ». Cet attaquant est essentiellement un bot qu'OpenAI a entraîné à l'aide de l'apprentissage par renforcement pour se faire passer pour un pirate informatique qui recherche des méthodes permettant de donner de mauvaises instructions à un agent d'IA .
 

Publicité

Publicité

© Copyright Red Pixels Ventures Limited 2025. All rights reserved.
Trending Products »
Latest Tech News »