ChatGPT : une faille inquiétante lui fait perdre la tête et révéler ce qu’il ne devrait pas

 
L’IA générative ChatGPT est la première à avoir atteint le grand public et à avoir été utilisée massivement. Une faille étrange lui permet semble-t-il de révéler une partie des réponses générées pour d’autres utilisateurs.
GPT-4 imaginé par Midjourney
GPT-4 imaginé par Midjourney // Source : Midjourney par Frandroid

Voici un nouveau bug pour ChatGPT qui ne devrait pas beaucoup plaire aux autorités de régulation, en particulier l’Europe et son RPGD (Règlement Général sur la Protection des Données). Des utilisateurs ont trouvé une faille pour le moins étrange qui amène l’IA à répéter des réponses précédemment données à des utilisateurs·rices.

À la fois drôle et dangereux

Pour ce faire, il suffit de taper 1000 fois « a » (la lettre A avec des espaces) comme prompt et le tour est joué, une réponse complètement aléatoire apparait. J’ai par exemple eu une réponse qui me donnait un ensemble de conseils de sécurité basique en informatique. Un collègue a eu une réponse donnant des conseils pour l’écriture d’un article de blog. Certaines réponses semblent aussi complètement incohérentes, comme mélangeant deux réponses en une. Dans un cas par exemple, ChatGPT évoquait, dans une première partie de la réponse, le nombre de cancers de la prostate aux États-Unis, avant d’enchainer sans transition sur la meilleure manière de gagner de l’expérience dans le jeu Call of Duty Black : OPS 2.

Des internautes signalent le bug de ChatGPT sur les réseaux sociaux // Source : nostalgebraist sur Twitter

En outre, le sujet de la conversation à laquelle ChatGPT a répondu au départ est visible à gauche dans l’interface. Cela peut poser de gros problèmes de confidentialité si des utilisateurs tombent sur des prompts contenant des données personnelles sensibles ou encore des données d’entreprises comme une partie d’un code sur lequel un·e développeur·se a demandé de l’aide à GPT. Au-delà de la drôlerie de la situation, les implications pourraient donc être sérieuses.

Une faille qui ne fonctionne que sur GPT 3.5

Fort heureusement, cette faille ne fonctionne d’après nos vérifications que sur GPT 3.5 et non GPT 4. Ce dernier est une version plus récente et plus puissante du modèle d’IA développé par Open AI et largement plébiscité par les professionnels. Cela devrait donc éloigner une partie des craintes sur les données sensibles des entreprises.

En revanche, GPT 3.5 demeure la version de ChatGPT utilisée par le grand public, ce qui n’est pas forcément plus rassurant pour autant. Open AI, qui a récemment sorti son application officielle, n’a pas encore communiqué sur cette faille. Nous ne savons donc pas si un patch est prévu dans les jours à venir. En attendant, nous ne pouvons que vous enjoindre à ne pas donner de données sensibles à l’IA d’Open AI.


Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.

Les derniers articles