Un débat d’importance divise les équipes d’OpenAI depuis bientôt deux ans. Alors que ChatGPT est désormais utilisé dans de très nombreux secteurs, et notamment à l’école, le besoin de détecter efficacement les textes générés par ChatGPT se fait de plus en plus présent. D’après des informations obtenues par le Wall Street Journal, l’entreprise qui édite le fameux chatbot a un outil taillé pour ce besoin précis, mais ne sait pas encore quoi en faire.
Des documents obtenus par le média anglophone révèlent qu’un outil permettant de détecter « avec une efficacité de 99,9 % » les textes générés par ChatGPT est opérationnel depuis bientôt un an, mais que l’entreprise le garde dans ses cartons pour le moment. « Il pourrait être mis en ligne d’un clic de souris », a avoué une source.
Un marquage invisible sur les textes
Petit problème, un tel outil pourrait faire perdre beaucoup d’intérêt au chatbot d’OpenAI. Un sondage cité par le Wall Street Journal indique en effet qu’un tiers des utilisateurs et utilisatrices de ChatGPT pourrait être rebuté par l’ajout d’une technologie « anti-triche ». D’autres problématiques semblent aussi diviser les équipes d’OpenAI. Par exemple le fait qu’un tel outil puisse particulièrement pénaliser les personnes dont l’anglais n’est pas la langue maternelle et qui pourraient s’aider de ChatGPT pour certaines formulations.
Concrètement, un tel outil se reposerait en réalité sur l’insertion d’un « marquage » en filigrane ajouté aux textes générés par ChatGPT. Invisible à l’œil nu, ce dernier serait facilement identifiable par un outil de détection spécialisée. Là aussi, cette méthode pose des problèmes puisque la mise à disposition d’un tel outil à un trop large public pourrait permettre d’identifier la manière dont le marquage est inséré dans le texte et donc rendre l’outil inopérant.
Pour aller plus loin
ChatGPT aurait volé la voix de Scarlett Johansson et le démenti fait grincer des dents
Les tenants et tenantes du business as usual arguent aussi qu’il serait facile de se débarrasser du marquage en passant un texte à travers la moulinette de Google Translate ou en demandant à ChatGPT d’ajouter des emojis à un texte et de les supprimer ensuite. De telles altérations rendraient l’outil anti-triche inefficace.
Business ou transparence ?
Confrontés au problème, certains profs utilisent déjà des subterfuges pour détecter les textes générés via IA. Josh McCrain, professeur de science politique à l’université de l’Utah aux États-Unis, explique au Wall Street Journal avoir rajouté, de manière invisible, une consigne demandant d’inclure des références à Batman dans une dissertation. Les élèves ayant copié-collé la requête de ChatGPT se sont immédiatement fait épingler.
Au-delà de ces anecdotes amusantes, la problématique sur l’outil anti-triche de ChatGPT souligne bien la dichotomie entre transparence et business qui fissure les équipes d’OpenAI depuis quelque temps. Comme un écho lointain de ce qui avait déjà provoqué le licenciement de Sam Altman l’année dernière.
Votre café et votre dose de tech vous attendent sur WhatsApp chaque matin avec Frandroid.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix