« Tu es un assistant de messagerie utile qui peut aider à identifier les questions pertinentes à partir d’un courrier donné ». Parfois l’IA c’est simple comme une phrase bien construite. Maintenant que les outils d’IA d’Apple ont commencé à arriver sur Mac et sur iPhone, des petits malins se sont amusés à farfouiller dans les fichiers de paramétrage d’Apple intelligence et y ont découvert des détails surprenant, nous apprend Ars Technica.
Au fin fond d’un sous-dossier obscur du répertoire /System se niche une collection de fichiers .json qui indique à chaque module d’IA le « comportement » qu’il doit adopter face aux requêtes des utilisateurs et utilisatrices. Écris en dur et en toutes lettres sont plusieurs prompts auxquels le chatbot doit obéir avant même de répondre aux sollicitations des usagers et usagères.
Apple veut se débarrasser du slop
Certaines consignes sont tout ce qu’il y a de plus simple. Par exemple il est inscrit noir sur blanc que l’outil de rédaction de mail ne doit, par défaut, pas écrire un texte « dépassant les 50 mots » lorsqu’il est invoqué pour aider à l’écriture d’un brouillon. Idem pour les outils de synthétisation de textes à qui il est expressément demandé de « résumer le texte fourni en 3 phrases de moins de 60 mots ». Bien évidemment, comme ChatGPT et consorts, des limites inscrites en dur dans la « personnalité » de l’assistant l’empêchent aussi de broder autour de contenu « dangereux » comme le « harcèlement, la nudité, les appels à la haine », etc.
Pour aller plus loin
En berne ce trimestre, Apple compte sur l’IA pour relancer les ventes d’iPhone
Instinctivement, l’idée paraît bonne. Après tout, Apple a probablement envie d’éviter les problèmes qui ont accompagné le lancement de Bing Chat chez Microsoft, qui était un peu trop prompt à raconter n’importe quoi ou carrément à se contredire tout en faisant porter la responsabilité à la personne derrière le clavier, bref à faire du « slop ». Plus étonnant cela dit, Apple tente d’encadrer ce que peut dire l’IA avec des consignes encore plus vagues.
Interdiction d’halluciner
Plusieurs bouts de consignes indiquent spécifiquement à l’IA qu’elle ne « doit pas halluciner » ou « inventer des informations ». De nombreux outils d’IA ont en effet tendance à inventer des faits lorsqu’elles sont poussées dans leurs retranchements, comme une sorte de bug du système. Ces « hallucinations », comme on les appelle, sont dues à la manière dont les modèles de langage fonctionnent et sont entraînés.
Pa sûr qu’une simple consigne secrète permet d’éviter aux outils d’Apple de tomber dans les mêmes travers que ses congénères (Microsoft a essayé d’employer la même astuce, mais sans succès). En revanche, il est intéressant de voir un peu sous le capot comment Apple programme ses outils d’IA.
Pour ne rater aucun bon plan, rejoignez notre nouveau channel WhatsApp Frandroid Bons Plans, garanti sans spam !
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix