L’IA est arrivée au bout des apprentissages humains possibles d’après Elon Musk

Sans humains pas d'IA ou presque

 
Interrogé sur le futur de l’intelligence artificielle, Elon Musk a indiqué que cette technologie arrivait au bout de son apprentissage humain, mais qu’une solution pour la suite était déjà à l’étude.
Elon Musk

Alors que la plupart des entreprises de la tech spécialisées dans l’intelligence artificielle sont en quête de la super intelligence, un problème de taille pourrait se présenter à elles. Actuellement, pour se former, les IA se basent sur des LLM (modèles de langage de grande taille) constitués de données humaines récoltées, pas toujours légalement, à partir desquelles elles produisent du contenu. Cependant, cette source de formation toucherait à sa fin, selon Elon Musk, dans des propos rapportés par TechCrunch.

La fin d’un modèle

C’est sur X (Twitter) qu’Elon Musk a déclaré que les entreprises spécialisées dans l’IA ont « désormais épuisé pratiquement toute la somme cumulative des connaissances humaines… en matière de formation à l’IA ». Le patron du réseau social et de l’entreprise d’intelligence artificielle xAI corrobore ainsi d’autres propos tenus par des entreprises concurrentes, comme SuperSafe Intelligence. Son fondateur, Ilya Sutskever, également co-fondateur d’OpenAI à l’origine de ChatGPT, déclarait que l’industrie de l’IA avait atteint ce qu’il a appelé un « pic de données », et qu’un autre type de formation devait être mise en place.

Pour aller plus loin
On peut générer n’importe quoi avec Grok 2 d’Elon Musk, et c’est un problème

Une IA synthétique

Musk, de son côté, suggère que les prochaines stratégies de formation de l’IA passeront par un volet d’apprentissage synthétique, autrement dit, par l’IA elle-même. « La seule façon de compléter [les données du monde réel] est d’utiliser des données synthétiques, où l’IA crée [des données d’entraînement] » a-t-il déclaré.

En utilisant des données synthétiques et en s’autoévaluant, les modèles d’IA pourraient coûter moins cher, mais seraient aussi sujets à d’autres problèmes. En s’entraînant sur des données purement synthétiques, l’IA peut, d’un point de vue « créatif », finir par tourner en rond, rapporte TechCrunch, et accentuer les biais présents dans ses données initiales de formation, ce qui pourrait créer une IA moins pertinente à terme.

Une autre solution proposée par les chercheurs de DeepMind, dévoilé dans Business Insider, consisterait à diviser les nouvelles informations reçues en une multitude de petites tâches pour créer de nouveaux circuits d’apprentissage pour l’IA, afin de continuer à la perfectionner.

Des solutions qui sont ou devront a priori être rapidement mises en œuvre, quand on voit les investissements massifs que certaines entreprises sont prêtes à consacrer à cette technologie encore incertaine.


Envie de retrouver les meilleurs articles de Frandroid sur Google News ? Vous pouvez suivre Frandroid sur Google News en un clic.