On oublie presque qu’il y avait des produits hardware à la Google I/O 2023 — Pixel 7a, Pixel Tablet et Pixel Fold. Et pour cause, la firme de Mountain View a dédié sa conférence du 10 mai quasi exclusivement à l’intelligence artificielle.
L’entreprise en a aussi profité pour aborder une question importante : comment s’assurer que l’IA reste éthique ? James Manyika , Senior Vice President Technologie et Société chez Google, est ainsi monté sur scène pour expliquer le leitmotiv de son groupe en la matière : « une IA à la fois audacieuse et responsable ».
Pour nous, cela signifie qu’il faut développer l’IA de manière à maximiser les avantages pour la société tout en relevant les défis, en s’appuyant sur nos principes en matière d’IA. Bien qu’il existe une tension naturelle entre les deux, nous pensons qu’il est possible — et en fait essentiel — d’exploiter cette tension de manière productive. La seule façon d’être vraiment audacieux à long terme est d’être responsable dès le départ.
De bien belles paroles qu’il promet de confirmer par des actes. Deux exemples ont notamment été cités. On pourra ainsi utiliser Google Search pour déterminer si une image a été générée par IA tandis que Universal Translator, l’outil qui peut révolutionner le doublage, mais aussi favoriser la création de faux contenus, ne sera mis qu’entre les mains de partenaires de confiance.
Une question de principe
Au détour d’une table ronde à laquelle il participait, nous demandons à James Manyika si les travaux de Google sur l’intelligence artificielle suscitent des questions éthiques qui n’existaient pas jusque-là avec les précédents outils que la firme a mis entre les mains de tout le monde.
Il confirme sans réserve. « Même quand elle fonctionne très bien, l’IA peut être très mal utilisée ». Le porte-parole cite immédiatement le risque d’une prolifération des deep fakes, par exemple, qui pourrait alimenter les informations erronées.
James Manyika estime ainsi qu’il faut réfléchir et peaufiner des principes fondateurs très en amont pour prévenir toutes formes de dérives. Afin d’éviter un parcours à celui des réseaux sociaux traditionnels avec lesquels il se permet une petite comparaison.
Des questions philosophiques
« Nous travaillons avec des philosophes et des éthiciens », confesse le porte-parole. Avec ces experts, Google peut donc s’attarder sur des questions presque abstraites, mais qui ont leur importance.
Exemple : « voulez-vous que votre IA ait une personnalité ou non ? D’aucuns diraient que l’on peut le faire, mais doit-on le faire ? » James Manyika affirme que « selon tellement de critères, la réponse à cette question change radicalement ».
Il faut en tout cas espérer que Google n’ait pas oublié son ancien slogan informel « Don’t be evil » — « Ne pas faire le mal » pour le remettre au centre des débats. L’avenir nous dira vraisemblablement si le géant aura réussi ou échoué à tenir ses promesses. Si vous ne lui faites confiance, peut-être aurez-vous plus de foi face l’Union européenne qui trame son AI Act afin de bien encadrer les usages de l’IA ?
NB. Notre journaliste Omar participe à la Google I/O à Mountain View dans le cadre d’un voyage de presse organisé par Google.
Votre café et votre dose de tech vous attendent sur WhatsApp chaque matin avec Frandroid.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix