Il existe un outil « anti-triche » contre ChatGPT, mais OpenAI refuse de le sortir pour le moment

 
Depuis l’avènement de ChatGPT, de nombreux profs se débattent pour discerner les vraies dissertations de celles générées par une machine. OpenAI a les moyens de régler le problème, mais hésite à le faire.
Emiliano Vittoriosi sur Unsplash

Un débat d’importance divise les équipes d’OpenAI depuis bientôt deux ans. Alors que ChatGPT est désormais utilisé dans de très nombreux secteurs, et notamment à l’école, le besoin de détecter efficacement les textes générés par ChatGPT se fait de plus en plus présent. D’après des informations obtenues par le Wall Street Journal, l’entreprise qui édite le fameux chatbot a un outil taillé pour ce besoin précis, mais ne sait pas encore quoi en faire.

Des documents obtenus par le média anglophone révèlent qu’un outil permettant de détecter « avec une efficacité de 99,9 % » les textes générés par ChatGPT est opérationnel depuis bientôt un an, mais que l’entreprise le garde dans ses cartons pour le moment. « Il pourrait être mis en ligne d’un clic de souris », a avoué une source.

Un marquage invisible sur les textes

Petit problème, un tel outil pourrait faire perdre beaucoup d’intérêt au chatbot d’OpenAI. Un sondage cité par le Wall Street Journal indique en effet qu’un tiers des utilisateurs et utilisatrices de ChatGPT pourrait être rebuté par l’ajout d’une technologie « anti-triche ». D’autres problématiques semblent aussi diviser les équipes d’OpenAI. Par exemple le fait qu’un tel outil puisse particulièrement pénaliser les personnes dont l’anglais n’est pas la langue maternelle et qui pourraient s’aider de ChatGPT pour certaines formulations.

Concrètement, un tel outil se reposerait en réalité sur l’insertion d’un « marquage » en filigrane ajouté aux textes générés par ChatGPT. Invisible à l’œil nu, ce dernier serait facilement identifiable par un outil de détection spécialisée. Là aussi, cette méthode pose des problèmes puisque la mise à disposition d’un tel outil à un trop large public pourrait permettre d’identifier la manière dont le marquage est inséré dans le texte et donc rendre l’outil inopérant.

Pour aller plus loin
ChatGPT aurait volé la voix de Scarlett Johansson et le démenti fait grincer des dents

Les tenants et tenantes du business as usual arguent aussi qu’il serait facile de se débarrasser du marquage en passant un texte à travers la moulinette de Google Translate ou en demandant à ChatGPT d’ajouter des emojis à un texte et de les supprimer ensuite. De telles altérations rendraient l’outil anti-triche inefficace.

Business ou transparence ?

Confrontés au problème, certains profs utilisent déjà des subterfuges pour détecter les textes générés via IA. Josh McCrain, professeur de science politique à l’université de l’Utah aux États-Unis, explique au Wall Street Journal avoir rajouté, de manière invisible, une consigne demandant d’inclure des références à Batman dans une dissertation. Les élèves ayant copié-collé la requête de ChatGPT se sont immédiatement fait épingler.

Au-delà de ces anecdotes amusantes, la problématique sur l’outil anti-triche de ChatGPT souligne bien la dichotomie entre transparence et business qui fissure les équipes d’OpenAI depuis quelque temps. Comme un écho lointain de ce qui avait déjà provoqué le licenciement de Sam Altman l’année dernière.