C’est évidemment un grand défi auquel doivent faire face les géants de la tech : nous indiquer si les images que nous voyons ont été générées par intelligence artificielle. C’est d’ailleurs un problème que ces mêmes entreprises créent en partie, en éditant des outils de génération d’images. En début d’année, Google rejoignait la Coalition for Content Provenance and Authenticity (C2PA). Aujourd’hui, la firme veut montrer comment elle souhaite utiliser son moteur de recherche pour nous prévenir.
« À propos de cette image » : elle a été générée par IA
Dans les prochains mois, la norme technique Content Credentials sera intégrée dans Google. Ainsi, si une image contient des métadonnées C2PA, « les internautes pourront utiliser notre fonction « À propos de cette image » pour savoir si elle a été créée ou modifiée à l’aide d’outils d’IA. »
Pour l’instant, cette fonctionnalité permet de voir toutes les pages indexées par Google où on peut trouver ladite image. Ce changement arrivera dans les prochains mois sur Google Images, Google Lens et Circle to Search. Google précise vouloir intégrer ce système dans d’autres de ses services.
Google s’allie pour éviter les images trompeuses
Avec cette C2PA, Google a participé à une norme technique, Content Credentials. Il s’agit d’une norme permettant d’indiquer dans les métadonnées d’une image qu’elle a été générée par intelligence artificielle. Selon la société, même en la modifiant, l’image pourra toujours être détectée comme ayant été générées.
Renforcer cette norme technique, c’est donc éviter au plus les attaques voulant altérer les images pour tromper leur origine. Un autre intérêt de la Coalition for Content Provenance and Authenticity, c’est la création d’une « liste de confiance ».
Autrement dit, les acteurs qui la rejoignent prennent des engagements et mesures, se font confiance les uns les autres. Google explicite ce système dans un billet de blog : « par exemple, si les données indiquent qu’une image a été prise par un modèle d’appareil photo spécifique, la liste de confiance permet de valider l’exactitude de cette information. »
Dans la Coalition for Content Provenance and Authenticity, on trouve aussi Adobe, Amazon, Intel, Meta, Microsoft, TikTok ou encore OpenAI. Parmi eux par exemple, Meta s’est déjà engagé à annoter les images générées par IA, par le biais du C2PA. Manque à l’appel (pour l’instant) Apple, dernier « grand nom » de la tech. Google pourrait d’ailleurs intégrer la norme technique de cette coalition dans Android.
Retrouvez un résumé du meilleur de l’actu tech tous les matins sur WhatsApp, c’est notre nouveau canal de discussion Frandroid que vous pouvez rejoindre dès maintenant !
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix