Quand ChatGPT se met à raconter n’importe quoi

 
Des conversations avec un chatbot devraient être simples, directes, et surtout, utiles, n’est-ce pas ? Pourtant, les récits d’utilisateurs de X montrent un ChatGPT en pleine crise d’identité.
Le logo de ChatGPT // Source : ilgmyzin via Unsplash

Récemment, une série de témoignages sur X (anciennement Twitter) a mis en lumière des interactions pour le moins surprenantes avec ChatGPT. Utilisateurs et utilisatrices rapportent des dialogues où le chatbot, développé par OpenAI, dérive vers des réponses absurdes, incohérentes, voire complètement déconnectées de la réalité.

Source : Twitter / Sylvain Peyronnet

Cette situation n’est pas sans rappeler celle de janvier 2024, période marquée par une augmentation des plaintes concernant une certaine « paresse » du chatbot : refus d’exécuter des tâches, interruptions inexpliquées, ou encore des recommandations peu utiles invitant l’utilisateur à chercher lui-même les réponses. Face à cette situation, OpenAI a reconnu être au courant et mène actuellement une enquête pour comprendre l’origine de ces dysfonctionnements.

Une complexité intrinsèque

Pour saisir l’essence de ces anomalies, il convient de se pencher sur la nature même des systèmes d’intelligence artificielle comme ChatGPT. Ces technologies sont entraînées sur d’immenses corpus de données textuelles, apprenant à générer des réponses en mimant les schémas linguistiques qu’elles ont analysés. Cette méthode d’apprentissage, bien que révolutionnaire, n’est pas exempte de défauts. Les modèles de langage, en raison de leur vaste étendue, affichent une tendance à l’imprévisibilité, rendant parfois leurs réponses énigmatiques.

L’entraînement des modèles de langage larges (LLM) révèle une complexité intrinsèque : ces systèmes, bien qu’avancés, manquent souvent de la capacité à expliquer leurs processus de pensée ou à garantir une cohérence dans leurs interactions.

Pour aller plus loin
C’est quoi un LLM ? Comment fonctionnent les moteurs de ChatGPT, Google Bard et autres ?

Cette incertitude peut se manifester par des changements de « personnalité », une réticence à suivre des directives, des oublis concernant les instructions données, et même des biais insoupçonnés. Ces éléments contribuent à un portrait de l’IA comme étant une boîte noire, dont les sorties, bien que généralement fiables, peuvent de temps en temps dérouter ou décevoir. Tout ça contribue à l’image d’une IA mystérieuse, capable du meilleur comme du pire.

Face à ces bizarreries, OpenAI ne reste pas les bras croisés. Ils assurent qu’ils sont à fond sur le problème, voulant rendre ChatGPT aussi fiable et utile que possible. Même si on ne sait pas encore exactement pourquoi l’IA fait des siennes, OpenAI est déterminé à régler le souci.


Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.

Les derniers articles