OpenAI précipiterait-il la sortie du nouveau ChatGPT au détriment de la sécurité ?

 
Les équipes de Sam Altman seraient sous pression pour sortir plus rapidement le nouveau modèle de ChatGPT. Pour s’accorder au calendrier de la direction, les équipes de sécurité auraient précipité les protocoles de test pour GPT-4o.
Le logo de ChatGPT // Source : ilgmyzin via Unsplash

Le lancement de GPT-4o d’OpenAI aurait-il été précipité ? C’est via WindowsCentral que l’on apprend que les équipes de sécurité auraient eu peu de temps pour tester le nouveau modèle d’intelligence artificielle qui propulse ChatGPT.

Rien ne sert de courir

Plusieurs sources ont révélé que la direction d’OpenAI privilégierait la rapidité à la rigueur nécessaire pour le développement de leur outil. Pire encore, selon ces sources : l’équipe de sécurité d’OpenAi aurait subi des pressions pour précipiter le protocole de test de GPT-4o afin de ne pas déroger à la date de sortie de GPT-4 Omni en mai. Selon ces sources, OpenAI a envoyé des invitations pour fêter le lancement du produit avant même que les équipes de sécurité n’effectuent les tests :

Ils ont planifié l’after-party du lancement avant de savoir si le lancement était sûr.

Interrogée sur le sujet, la porte-parole d’OpenAI, Lindsey Held admet que le lancement a été source de stress pour les équipes de sécurité, mais dément les accusations. Elle indique que l’entreprise « n’a pas lésiné sur le processus de sécurité ». Une déclaration appuyée par un représentant de l’équipe de préparation d’OpenAI indiquant que l’entreprise a respecté ses obligations réglementaires. Il admet toutefois que le calendrier était serré et précise qu’ « OpenAI repense désormais toute notre façon de procéder et l’approche Omni n’était tout simplement pas la meilleure façon de le faire ». Des garde-fous sont nécessaires quand on sait que l’IA pourrait exceller sur certaines tâches avec la même finesse qu’un doctorant.

La sécurité avant tout

Ce n’est pas la première fois qu’OpenAI est sous le feu des projecteurs pour des questions de sécurité. En mai dernier, on apprenait le départ de deux cadres de l’entreprise qui pointaient un manque de sérieux de l’entreprise concernant les risques que pouvait provoquer l’intelligence artificielle. L’ancien responsable et co-fondateur d’OpenAI, Ilya Sutskever est l’un de ces cadres.

Il était à la tête de « SuperAlignment », la branche responsable du contrôle de l’intelligence artificielle avant sa dissolution. Il est depuis parti fonder son entreprise Super Safeintelligence (SSI). Une entreprise dont l’objet même repose sur la sécurité autour de l’intelligence artificielle.


Le saviez-vous ? Google News vous permet de choisir vos médias. Ne passez pas à côté de Frandroid et Numerama.

Les derniers articles