Officiellement, le flou règne toujours autant autour du licenciement de Sam Altman de la boite qu’il a lui-même cofondé et qui a plongé OpenAI dans le chaos pendant une semaine. Désormais, il est de retour à la tête de l’entreprise, mais on ne comprend toujours pas pourquoi le conseil d’administration a décidé de le renvoyer.
L’agence de presse Reuters pense avoir pu déterminer ce qui aurait poussé le conseil d’administration à une telle décision. Les progrès d’OpenAI sont sources de craintes en interne, et pas des moindres.
Se rapprocher de l’AGI, mais c’est quoi l’AGI ?
L’agence Reuters rapporte qu’une lettre écrite par plusieurs chercheurs d’OpenAI aurait été envoyée au conseil d’administration pour le mettre en garde devant les progrès réalisés. Ces derniers représenteraient « un danger pour l’humanité ». L’agence a pu interroger deux sources concordantes sur le sujet, mais n’a pas pu lire la lettre en question, ni recevoir de commentaire officiel de la part de ses auteurs ou d’OpenAI.
D’après ces deux sources, c’est bien cette lettre et les progrès d’OpenAI qui ont conduit au renvoi de Sam Altman. Plus précisément, il est question du projet Q*, une avancée prodigieuse dans le domaine de l’IA qui rapprocherait OpenAI de l’AGI, pour Artificial General Intelligence. Il s’agit du stade où l’IA serait capable de dépasser l’humain sur la plupart des tâches avec une plus-value économique.
Le projet Q* consiste en la possibilité pour une IA générative de résoudre des problèmes de mathématiques. À ce stade, elle serait apte à résoudre des problèmes du niveau d’un écolier, mais comme l’explique Reuters, ce serait déjà très impressionnant. En effet, contrairement à de la simple génération de texte, qui permet à l’IA d’offrir plusieurs options, résoudre un problème de math demande une solution bien précise et unique. Impossible de pipeauter une réponse avec des probabilités.
Avec ce projet, OpenAI réussirait à apporter une meilleure capacité de raisonnement à ses IA. On parle d’une IA qui serait capable d’apprendre et de comprendre de plus en plus de choses, en autonomie.
Une avancée sérieuse également teasée publiquement par Sam Altman lors d’un sommet économique.
Ces deux dernières semaines, j’ai eu l’occasion d’être dans cette salle, lorsque nous repoussons le voile de l’ignorance et que nous faisons avancer la frontière de la découverte, et c’est l’honneur professionnel d’une vie.
C’est le lendemain de cette déclaration que le conseil d’administration a annoncé sa décision de le licencier. Aujourd’hui, Sam Altman est de retour aux commandes d’OpenAI avec un nouveau conseil d’administration. Entre-temps, Emmett Shear a été le patron d’OpenAI pendant quelques jours. L’ancien patron de Twitch estimait que l’IA est une bombe capable de détruire l’univers.
La question de l’effective altruism
Comme nous l’indiquons plus haut, Reuters n’a pas pu consulter la lettre en question, et il est difficile de mesurer à ce stade ce « danger pour l’humanité ». D’autant plus que la presse rapporte qu’OpenAI est aussi au centre d’un conflit politique et philosophique. En effet, plusieurs membres de l’ancien conseil d’administration s’inscrivent dans « l’effective altruism ». Il s’agit d’un mouvement de pensée très populaire dans la Silicon Valley qui voit notamment les progrès réalisés dans l’IA comme un danger potentiel, sur lequel il faudrait donc ralentir un maximum.
Un mouvement « incroyablement déficient » d’après Sam Altman, cité par le Wall Street Journal, le patron d’OpenAI ne souscrit pas du tout à cette théorie. Un mouvement financé par plusieurs milliardaires de la tech, notamment Sam Bankman-Fried, l’ancien PDG de FTX reconnu coupable de fraude et de blanchiment d’argent, mais aussi des anciens de Skype ou Facebook. Parmi les proches de cette philosophie, on retrouve aussi un certain Elon Musk.
Le mouvement, qui comprend des personnes ayant contribué à façonner le boom de l’IA générative, est insulaire et multiforme, mais partage la conviction de faire le bien dans le monde, même si cela signifie simplement gagner beaucoup d’argent et le donner à des bénéficiaires méritants.
Compte tenu du contexte, on peut imaginer que les scientifiques qui ont souhaité tirer la sonnette d’alarme sur les dangers de Sam Altman faisaient partie de ce mouvement.
Utilisez-vous Google News (Actualités en France) ? Vous pouvez suivre vos médias favoris. Suivez Frandroid sur Google News (et Numerama).
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix