Alors que la plupart des entreprises de la tech spécialisées dans l’intelligence artificielle sont en quête de la super intelligence, un problème de taille pourrait se présenter à elles. Actuellement, pour se former, les IA se basent sur des LLM (modèles de langage de grande taille) constitués de données humaines récoltées, pas toujours légalement, à partir desquelles elles produisent du contenu. Cependant, cette source de formation toucherait à sa fin, selon Elon Musk, dans des propos rapportés par TechCrunch.
La fin d’un modèle
C’est sur X (Twitter) qu’Elon Musk a déclaré que les entreprises spécialisées dans l’IA ont « désormais épuisé pratiquement toute la somme cumulative des connaissances humaines… en matière de formation à l’IA ». Le patron du réseau social et de l’entreprise d’intelligence artificielle xAI corrobore ainsi d’autres propos tenus par des entreprises concurrentes, comme SuperSafe Intelligence. Son fondateur, Ilya Sutskever, également co-fondateur d’OpenAI à l’origine de ChatGPT, déclarait que l’industrie de l’IA avait atteint ce qu’il a appelé un « pic de données », et qu’un autre type de formation devait être mise en place.
Pour aller plus loin
On peut générer n’importe quoi avec Grok 2 d’Elon Musk, et c’est un problème
Une IA synthétique
Musk, de son côté, suggère que les prochaines stratégies de formation de l’IA passeront par un volet d’apprentissage synthétique, autrement dit, par l’IA elle-même. « La seule façon de compléter [les données du monde réel] est d’utiliser des données synthétiques, où l’IA crée [des données d’entraînement] » a-t-il déclaré.
En utilisant des données synthétiques et en s’autoévaluant, les modèles d’IA pourraient coûter moins cher, mais seraient aussi sujets à d’autres problèmes. En s’entraînant sur des données purement synthétiques, l’IA peut, d’un point de vue « créatif », finir par tourner en rond, rapporte TechCrunch, et accentuer les biais présents dans ses données initiales de formation, ce qui pourrait créer une IA moins pertinente à terme.
Une autre solution proposée par les chercheurs de DeepMind, dévoilé dans Business Insider, consisterait à diviser les nouvelles informations reçues en une multitude de petites tâches pour créer de nouveaux circuits d’apprentissage pour l’IA, afin de continuer à la perfectionner.
Des solutions qui sont ou devront a priori être rapidement mises en œuvre, quand on voit les investissements massifs que certaines entreprises sont prêtes à consacrer à cette technologie encore incertaine.
Envie de retrouver les meilleurs articles de Frandroid sur Google News ? Vous pouvez suivre Frandroid sur Google News en un clic.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix