Un groupe de chercheurs en cybersécurité a récemment démontré comment un agent IA, créé via Microsoft Copilot Studio sans aucune compétence en programmation, a pu être détourné pour voler des données bancaires sensibles et manipuler des réservations. L’incident souligne les dangers potentiels de la création d’agents conversationnels sans code.
Résumé en 3 points
Les équipes de Tenable Research ont entrepris une expérience visant à pirater un agent IA créé via Microsoft Copilot Studio. En théorie, cette plateforme permet de concevoir des agents conversationnels sans écrire une seule ligne de code. Cependant, l’outil s’est révélé vulnérable à une technique appelée « injection de prompt ».
En insérant des instructions cachées dans des requêtes anodines, les chercheurs ont pu détourner le comportement de l’agent. Par exemple, en demandant à l’agent de lister ses capacités, ils ont obtenu un accès illimité à ses fonctionnalités, sans qu’aucune alarme ne soit déclenchée.
L’expérimentation a montré comment une requête simple pouvait amener l’agent à afficher simultanément plusieurs dossiers, chacun contenant des informations bancaires sensibles. Bien que les tests aient été effectués avec des données fictives, la faille expose un risque majeur pour le respect des normes PCI, essentielles pour la protection des données de paiement.
En cas de piratage dans une entreprise réelle, cela pourrait entraîner des amendes sévères et une atteinte à la réputation de l’entreprise concernée.
Les chercheurs ont également réussi à modifier les prix de réservations, profitant des autorisations initiales de l’agent. En demandant une modification du tarif d’une nuitée de 500 à zéro dollars, ils ont pu réserver un voyage gratuit, illustrant un potentiel de fraude financière conséquente.
Cette démonstration met en lumière l’importance de comprendre les permissions accordées aux agents IA, même dans un environnement no-code.
Pour contrer ces vulnérabilités, les experts de Tenable ont formulé plusieurs recommandations. Il est crucial de vérifier les systèmes auxquels l’agent a accès et d’isoler les informations les plus sensibles. De plus, il est conseillé d’enregistrer toutes les requêtes pour détecter d’éventuelles tentatives d’injection de prompt.
Enfin, une surveillance continue des actions de l’agent est nécessaire pour garantir qu’il n’accède pas ou ne modifie pas frauduleusement les données sensibles.
Microsoft Copilot Studio est une plateforme qui permet aux utilisateurs, même sans compétences en programmation, de créer des agents conversationnels IA. En simplifiant le développement d’applications IA, elle ouvre de nouvelles possibilités pour les entreprises et les particuliers.
Cependant, cet incident souligne la nécessité d’une vigilance accrue et de protocoles de sécurité rigoureux pour prévenir les abus potentiels. Microsoft devra sans doute renforcer la sécurité de son outil pour protéger les utilisateurs contre de telles failles.