Récemment, une série de témoignages sur X (anciennement Twitter) a mis en lumière des interactions pour le moins surprenantes avec ChatGPT. Utilisateurs et utilisatrices rapportent des dialogues où le chatbot, développé par OpenAI, dérive vers des réponses absurdes, incohérentes, voire complètement déconnectées de la réalité.
Cette situation n’est pas sans rappeler celle de janvier 2024, période marquée par une augmentation des plaintes concernant une certaine « paresse » du chatbot : refus d’exécuter des tâches, interruptions inexpliquées, ou encore des recommandations peu utiles invitant l’utilisateur à chercher lui-même les réponses. Face à cette situation, OpenAI a reconnu être au courant et mène actuellement une enquête pour comprendre l’origine de ces dysfonctionnements.
Une complexité intrinsèque
Pour saisir l’essence de ces anomalies, il convient de se pencher sur la nature même des systèmes d’intelligence artificielle comme ChatGPT. Ces technologies sont entraînées sur d’immenses corpus de données textuelles, apprenant à générer des réponses en mimant les schémas linguistiques qu’elles ont analysés. Cette méthode d’apprentissage, bien que révolutionnaire, n’est pas exempte de défauts. Les modèles de langage, en raison de leur vaste étendue, affichent une tendance à l’imprévisibilité, rendant parfois leurs réponses énigmatiques.
L’entraînement des modèles de langage larges (LLM) révèle une complexité intrinsèque : ces systèmes, bien qu’avancés, manquent souvent de la capacité à expliquer leurs processus de pensée ou à garantir une cohérence dans leurs interactions.
Pour aller plus loin
C’est quoi un LLM ? Comment fonctionnent les moteurs de ChatGPT, Google Bard et autres ?
Cette incertitude peut se manifester par des changements de « personnalité », une réticence à suivre des directives, des oublis concernant les instructions données, et même des biais insoupçonnés. Ces éléments contribuent à un portrait de l’IA comme étant une boîte noire, dont les sorties, bien que généralement fiables, peuvent de temps en temps dérouter ou décevoir. Tout ça contribue à l’image d’une IA mystérieuse, capable du meilleur comme du pire.
Face à ces bizarreries, OpenAI ne reste pas les bras croisés. Ils assurent qu’ils sont à fond sur le problème, voulant rendre ChatGPT aussi fiable et utile que possible. Même si on ne sait pas encore exactement pourquoi l’IA fait des siennes, OpenAI est déterminé à régler le souci.
Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix