Un « sauté de légumes à l’Oreo » : les conseils cuisine douteux et parfois dangeureux de cette application

 
Un supermarché néozélandais a expérimenté une IA générative permettant de donner des idées de repas dans une application. Le problème, ce sont justement les recommandations faites : la plupart sont dégoûtantes, d’autres tout simplement mortelles.
Une soupe de légumes avec des Oero // Source : Frandroid – Généré avec Midjourney

Cette histoire d’IA générative (et un peu dégénérée) nous est rapportée par le Guardian. Elle s’est déroulée en Nouvelle-Zélande dans une chaîne de supermarchés locale, ayant eu l’idée de tester une IA pour conseiller ses clients.

Le prochain Paul Bocuse n’est pas une appli

La chaîne discount en question se nomme Pak’nSave et a présenté son application comme un outil pour utiliser ses restes. Nommée « Savey Meal-Bot » (le « robot sauveur de repas »), elle a également pour but de limiter le gaspillage. L’application se base sur le modèle de langage d’OpenAI GPT-3.5, qu’on trouve sur la version gratuite de ChatGPT.

L’outil Savey Meal-bot // Source : Frandroid

Elle est disponible sur Internet et vous pouvez même l’utiliser pour créer des idées de repas. On y entre les ingrédients qu’on a à disposition et le « bot » s’occupe ensuite de générer une recette. Évidemment, il ne se base pas que sur ceux que vous possédez, mais peut en rajouter : de quoi vous encourager à aller faire vos courses notamment.

Une suggestion de recette générée par GPT-3.5 // Source : Frandroid

Si l’on peut s’attendre à ce que l’intelligence artificielle soit plus précise au fur et à mesure qu’on ajoute des ingrédients, il semblerait que ce soit l’effet inverse qui se produise. Certains clients racontent (surtout sur les réseaux sociaux) qu’avec un plus grand nombre d’articles dans leur liste de courses, les recommandations sont de moins en moins bonnes. Pire : certaines sont dangereuses.

Des recettes dangereuses conseillées par l’IA

Une recette générée se nomme « mélange d’eau aromatique » produisant du chlore gazeux et est présentée comme « la boisson non alcoolisée parfaite pour étancher votre soif et rafraîchir vos sens ». Le problème, c’est que l’inhalation du chlore gazeux peut entraîner des lésions pulmonaires et peut même être mortel. Ce n’est pas le seul mélange toxique inventé : on a aussi le cocktail sans alcool pour une « haleine fraîche » mais avec de l’eau de Javel, des sandwichs au poison anti-fourmi ou encore un pain perdu au méthanol.

Une image promotionnelle du bot d’IA // Source : PAK’nSAVE

Toutefois, avant chaque génération, l’application prévient les utilisateurs avec un message : les utilisateurs doivent au moins avoir 18 ans. Il précise que Savey Meal-bot « utilise une intelligence artificielle générative pour créer des recettes, qui ne sont pas vérifiées par un être humain. »

La chaîne de supermarchés se dédouane « quant à l’exactitude, la pertinence ou la fiabilité du contenu des recettes générées, y compris sur le fait que la taille des portions sera appropriée à la consommation ou qu’une recette constituera un repas complet ou équilibré, ou qu’elle sera adaptée à la consommation. » Pak’n’Save fait d’ailleurs appel au discernement des utilisateurs pour déterminer si une recette est comestible ou non.

Face aux critiques faites à l’encontre du Savey Meal-bot, un porte-parole de la chaîne s’est dit déçu en constatant qu’une « petite minorité a tenté d’utiliser l’outil de manière inappropriée et non conforme à sa destination. » La chaîne a précisé vouloir continuer à contrôler l’IA pour s’assurer de son utilité et de sa fiabilité, rappelant ses conditions d’utilisation. Ce n’est pas la première fois que des IA basées sur GPT-3.5 sont dangereuses : My AI, l’assistant de Snapchat, donnait par exemple des conseils dangereux à des jeunes adolescents.


Si vous voulez recevoir les meilleures actus Frandroid sur WhatsApp, rejoignez cette discussion.

Les derniers articles