Le lancement de GPT-4o d’OpenAI aurait-il été précipité ? C’est via WindowsCentral que l’on apprend que les équipes de sécurité auraient eu peu de temps pour tester le nouveau modèle d’intelligence artificielle qui propulse ChatGPT.
Rien ne sert de courir
Plusieurs sources ont révélé que la direction d’OpenAI privilégierait la rapidité à la rigueur nécessaire pour le développement de leur outil. Pire encore, selon ces sources : l’équipe de sécurité d’OpenAi aurait subi des pressions pour précipiter le protocole de test de GPT-4o afin de ne pas déroger à la date de sortie de GPT-4 Omni en mai. Selon ces sources, OpenAI a envoyé des invitations pour fêter le lancement du produit avant même que les équipes de sécurité n’effectuent les tests :
Ils ont planifié l’after-party du lancement avant de savoir si le lancement était sûr.
Interrogée sur le sujet, la porte-parole d’OpenAI, Lindsey Held admet que le lancement a été source de stress pour les équipes de sécurité, mais dément les accusations. Elle indique que l’entreprise « n’a pas lésiné sur le processus de sécurité ». Une déclaration appuyée par un représentant de l’équipe de préparation d’OpenAI indiquant que l’entreprise a respecté ses obligations réglementaires. Il admet toutefois que le calendrier était serré et précise qu’ « OpenAI repense désormais toute notre façon de procéder et l’approche Omni n’était tout simplement pas la meilleure façon de le faire ». Des garde-fous sont nécessaires quand on sait que l’IA pourrait exceller sur certaines tâches avec la même finesse qu’un doctorant.
La sécurité avant tout
Ce n’est pas la première fois qu’OpenAI est sous le feu des projecteurs pour des questions de sécurité. En mai dernier, on apprenait le départ de deux cadres de l’entreprise qui pointaient un manque de sérieux de l’entreprise concernant les risques que pouvait provoquer l’intelligence artificielle. L’ancien responsable et co-fondateur d’OpenAI, Ilya Sutskever est l’un de ces cadres.
Il était à la tête de « SuperAlignment », la branche responsable du contrôle de l’intelligence artificielle avant sa dissolution. Il est depuis parti fonder son entreprise Super Safeintelligence (SSI). Une entreprise dont l’objet même repose sur la sécurité autour de l’intelligence artificielle.
Le saviez-vous ? Google News vous permet de choisir vos médias. Ne passez pas à côté de Frandroid et Numerama.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix