« Un danger pour l’humanité » : on croit savoir pourquoi Sam Altman a été viré d’OpenAI

 
La société OpenAI ferait de grandes avancées dans le domaine de l’intelligence artificielle, au point d’inquiéter une partie de ses scientifiques sur l’avenir de l’humanité.
Sam Altman, co-fondateur d’OpenAI

Officiellement, le flou règne toujours autant autour du licenciement de Sam Altman de la boite qu’il a lui-même cofondé et qui a plongé OpenAI dans le chaos pendant une semaine. Désormais, il est de retour à la tête de l’entreprise, mais on ne comprend toujours pas pourquoi le conseil d’administration a décidé de le renvoyer.

L’agence de presse Reuters pense avoir pu déterminer ce qui aurait poussé le conseil d’administration à une telle décision. Les progrès d’OpenAI sont sources de craintes en interne, et pas des moindres.

Se rapprocher de l’AGI, mais c’est quoi l’AGI ?

L’agence Reuters rapporte qu’une lettre écrite par plusieurs chercheurs d’OpenAI aurait été envoyée au conseil d’administration pour le mettre en garde devant les progrès réalisés. Ces derniers représenteraient « un danger pour l’humanité ». L’agence a pu interroger deux sources concordantes sur le sujet, mais n’a pas pu lire la lettre en question, ni recevoir de commentaire officiel de la part de ses auteurs ou d’OpenAI.

D’après ces deux sources, c’est bien cette lettre et les progrès d’OpenAI qui ont conduit au renvoi de Sam Altman. Plus précisément, il est question du projet Q*, une avancée prodigieuse dans le domaine de l’IA qui rapprocherait OpenAI de l’AGI, pour Artificial General Intelligence. Il s’agit du stade où l’IA serait capable de dépasser l’humain sur la plupart des tâches avec une plus-value économique.

Le projet Q* consiste en la possibilité pour une IA générative de résoudre des problèmes de mathématiques. À ce stade, elle serait apte à résoudre des problèmes du niveau d’un écolier, mais comme l’explique Reuters, ce serait déjà très impressionnant. En effet, contrairement à de la simple génération de texte, qui permet à l’IA d’offrir plusieurs options, résoudre un problème de math demande une solution bien précise et unique. Impossible de pipeauter une réponse avec des probabilités.

Avec ce projet, OpenAI réussirait à apporter une meilleure capacité de raisonnement à ses IA. On parle d’une IA qui serait capable d’apprendre et de comprendre de plus en plus de choses, en autonomie.

Une avancée sérieuse également teasée publiquement par Sam Altman lors d’un sommet économique.

Ces deux dernières semaines, j’ai eu l’occasion d’être dans cette salle, lorsque nous repoussons le voile de l’ignorance et que nous faisons avancer la frontière de la découverte, et c’est l’honneur professionnel d’une vie.

C’est le lendemain de cette déclaration que le conseil d’administration a annoncé sa décision de le licencier. Aujourd’hui, Sam Altman est de retour aux commandes d’OpenAI avec un nouveau conseil d’administration. Entre-temps, Emmett Shear a été le patron d’OpenAI pendant quelques jours. L’ancien patron de Twitch estimait que l’IA est une bombe capable de détruire l’univers.

La question de l’effective altruism

Comme nous l’indiquons plus haut, Reuters n’a pas pu consulter la lettre en question, et il est difficile de mesurer à ce stade ce « danger pour l’humanité ». D’autant plus que la presse rapporte qu’OpenAI est aussi au centre d’un conflit politique et philosophique. En effet, plusieurs membres de l’ancien conseil d’administration s’inscrivent dans « l’effective altruism ». Il s’agit d’un mouvement de pensée très populaire dans la Silicon Valley qui voit notamment les progrès réalisés dans l’IA comme un danger potentiel, sur lequel il faudrait donc ralentir un maximum.

Un mouvement « incroyablement déficient » d’après Sam Altman, cité par le Wall Street Journal, le patron d’OpenAI ne souscrit pas du tout à cette théorie. Un mouvement financé par plusieurs milliardaires de la tech, notamment Sam Bankman-Fried, l’ancien PDG de FTX reconnu coupable de fraude et de blanchiment d’argent, mais aussi des anciens de Skype ou Facebook. Parmi les proches de cette philosophie, on retrouve aussi un certain Elon Musk.

Le mouvement, qui comprend des personnes ayant contribué à façonner le boom de l’IA générative, est insulaire et multiforme, mais partage la conviction de faire le bien dans le monde, même si cela signifie simplement gagner beaucoup d’argent et le donner à des bénéficiaires méritants.

Compte tenu du contexte, on peut imaginer que les scientifiques qui ont souhaité tirer la sonnette d’alarme sur les dangers de Sam Altman faisaient partie de ce mouvement.


Utilisez-vous Google News (Actualités en France) ? Vous pouvez suivre vos médias favoris. Suivez Frandroid sur Google News (et Numerama).

Les derniers articles