OpenAI a annoncé plusieurs nouveautés pour ChatGPT. La principale chose à retenir est l’évolution de GPT-4, j’ai nommé : GPT-4o (c’est la lettre O, pas le chiffre zéro). Ce nouveau modèle GPT-4o promet une IA plus performante que jamais même pour celles et ceux qui ne paye pas d’abonnement.
En outre, les équipes d’OpenAI ont fait une démonstration impressionnante de ChatGPT Voice. Les interactions vocales de l’IA sont non seulement plus rapides que jamais, mais aussi d’un naturel poussé à l’extrême. L’agent conversationnel peut être interrompu sans qu’il ne perde le fil de la conversation. Il adapte et module ses intonations de voix pour imiter très efficacement les comportements humains.
Le tout, en fonctionnant de manière multimodal. On a ainsi vu l’IA aider les personnes sur scène à résoudre une équation écrite sur un papier, raconter une histoire avec plusieurs intonations différentes selon ce qui lui était demandé, traduire rapidement une discussion tout en répétant les courtes hésitations et petits rires des personnes impliquées, etc.
Enfin, ChatGPT a aussi droit à une application desktop sur macOS pour les utilisateurs payants.
Le fil de la conférence
Temps forts
18:30 Ça commence bientôt
19:00 Ça commence !
19:04 GPT-4o
19:05 Plusieurs nouveautés au programme
GPT-4o est une évolution de GPT-4 à plusieurs titres. Dans ChatGPT, ce nouveau modèle va donner plus de possibilités, même aux utilisateurs gratuits (plus d’extensions, plus de mémoire, plus de rapidité, etc.).
19:14 Des interactions vocales plus bluffantes
OpenAI présente aussi de belles améliorations pour les interactions vocales avec ChatGPT. Ainsi, l’agent conversationnel répond beaucoup plus vite, peut-être interrompu (sans qu’il ne perde le fil de la conversation) et il réagit aussi quand vous vous comportez bizarrement. Ainsi, si vous respirez très fort près du micro, il vous invite à prendre une profonde inspiration pour vous détendre.
On peut aussi demander à ChatGPT de s’exprimer dans une grande variété d’intonations. L’outil peut donc vous raconter une histoire en chantant, avec un ton épique, avec une voix robotique, etc. La démonstration est vraiment impressionnante !
19:17 Comprendre les équations pour vous aider
Sur scène, des porte-paroles d’OpenAI discute à l’oral avec ChatGPT tout en filmant une équation mathématique écrite sur une feuille. L’IA les aide ainsi à résoudre l’équation sans forcément leur donner la réponse directement afin qu’il apprenne à progresser. On imagine que l’entreprise prévoit ainsi des usages pour les étudiants.
Cette utilisation de la caméra fonctionne aussi avec du texte. Les représentants sur scène ont ainsi écrit un gentil message pour ChatGPT et l’IA a répondu avec un ton enjoué simulant très bien la manière dont un humain réagirait à un compliment.
19:22 Plusieurs interactions possibles
Grâce à ce traitement multimodal des informations, ChatGPT peut pointer du doigt des éléments perfectibles dans votre code (si vous êtes développeur par exemple) ou interpréter les éléments d’un graphique qui s’affiche sur l’écran de votre ordinateur.
19:23 Une traduction plus fluide
On est vraiment sur un assistant qui se veut pertinent au quotidien. Les personnes sur scène utilisent désormais les capacités de traduction. Elles ont simplement demandé, à l’oral, à l’IA de traduire en anglais tout propos qu’elle entend en italien et vice-versa. Et l’IA s’est exécutée avec une excellente fluidité répétant même les petits rires ou hésitation des interlocuteurs.
19:28 En mode avion ?
19:29 Détection des émotions
La démonstration se termine avec une petite présentation de la détection des émotions de ChatGPT. L’une des personnes sur scène s’est juste filmé avec la caméra selfie de son smartphone et l’IA lui a proposé une réponse assez complète pour dire qu’il semblait enjoué et enthousiaste tout en demandant ce qui provoquait chez lui ces émotions. L’idée est évidemment de montrer que les interactions avec ChatGPT sont très naturelles et très « humaines » pour une intelligence artificielle.
19:34 Déjà terminé
La conférence était très courte, une demi-heure environ, et se termine déjà. On retiendra donc l’annonce de GPT-4o qui sublime les capacités de Chat-GPT sans que vous n’ayez à payer et c’est très chouette.
On retiendra aussi la grande capacité de ChatGPT à répondre très rapidement et avec un ton très humain lors des interactions vocales ainsi que son impressionnante capacité à comprendre ce que vous filmez en direct avec la caméra de votre smartphone. Les démonstrations étaient très impressionnantes et on de quoi faire peur à Google Assistant à la veille de la Google I/O 2024.
19:40 Mise à jour progressive
Les nouveautés annoncées par OpenAI vont progressivement se déployer à partir d’aujourd’hui. Par exemple, les capacités d’interactions avec les textes et les images par GPT-4o sont implémentées dès à présent dans l’API de ChatGPT. Pour la voix et les vidéos, il faudra encore patienter quelques semaines.
Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix