Apple est pour le moment dépassé par ce qu’il se passe dans le domaine de l’intelligence artificielle, avec OpenAI, Meta, Microsoft, Google, Mistral… Mais, on sait déjà ce qu’Apple mijote. La firme américaine veut intégrer des outils d’intelligence artificielle (IA) comme ChatGPT directement sur ses appareils.
L’objectif ? Rattraper son retard dans le secteur de l’IA générative tout en proposant des innovations significatives à ses utilisateurs. Un document récent, « LLM in a Flash », met en lumière cette ambition en décrivant comment ces grands modèles de langage pourraient fonctionner sur des appareils avec une capacité de mémoire limitée.
Faire fonctionner des LLM directement sur les smartphones
Pour comprendre l’ambition d’Apple, il faut saisir ce que signifie faire fonctionner des LLM directement sur un iPhone. Un LLM, pour Large Language Model, est un type d’IA spécialisée dans la compréhension et la génération de langage humain. Jusqu’à présent, ces modèles nécessitaient des ressources informatiques importantes, généralement disponibles seulement dans le cloud. Apple veut changer cela en optimisant ces modèles pour qu’ils fonctionnent efficacement sur ses appareils, malgré les contraintes de mémoire, d’énergie et de calcul.
Pour aller plus loin
C’est quoi un LLM ? Comment fonctionnent les moteurs de ChatGPT, Gemini et autres ?
L’inférence est le terme technique désignant le processus par lequel un modèle d’IA répond à une entrée utilisateur. Optimiser l’inférence sur des appareils comme l’iPhone signifie que les utilisateurs pourront bénéficier de réponses rapides et intelligentes directement de leur téléphone, sans dépendre d’une connexion internet constante au cloud.
Pour aller plus loin
Comment tester Gemini Pro dans Google Bard sur Android
L’avenir de l’IA sur les appareils mobiles
Apple n’est pas la seule entreprise à vouloir cette autonomie d’intelligence. D’autres géants de la tech, comme Google avec son Pixel 8 Pro et Gemini Nano, travaillent aussi à embarquer des capacités d’IA directement sur les appareils. Microsoft a présenté Phi-2, qui est également un petit modèle de langage. Cette tendance montre un changement dans la stratégie des fabricants : offrir des expériences d’IA plus rapides, privées et intégrées.
Pour les utilisateurs, cela pourrait signifier une révolution dans la manière dont on interagit avec nos appareils. Imaginez poser des questions complexes à votre iPhone et recevoir des réponses instantanément, ou avoir un assistant personnel qui comprend et anticipe vos besoins de manière plus intuitive. Cela devrait ringardiser ce que Siri, Google Assistant ou Amazon Alexa proposent aujourd’hui comme expérience. Siri, l’assistant d’Apple, deviendrait un outil beaucoup plus puissant et utile.
La date exacte à laquelle Apple lancera ces nouvelles fonctionnalités d’IA reste inconnue. Bien qu’en apparence Apple maintienne une certaine réserve, en coulisse, l’effervescence provoquée par ChatGPT semble les avoir pris de court.
Pour aller plus loin
La prochaine révolution de l’IA arrive : l’iPhone va en profiter
Ils explorent maintenant activement les moyens d’incorporer l’IA générative dans une large gamme d’applications. Parallèlement, l’intensification des efforts de recherche d’Apple est manifeste. Ars Technica révèle que l’entreprise a publié un second document significatif en peu de temps. De plus, selon le New York Times, Apple est en pourparlers pour accéder aux archives de plusieurs éditeurs de presse, visant à les utiliser pour entraîner ses modèles d’IA, avec des accords potentiels s’élevant jusqu’à 50 millions de dollars. Apple n’a pas seulement beaucoup d’argent, il a bien d’autres atouts.
Les capacités d’Apple
Tout d’abord, l’expertise d’Apple dans la conception de puces ARM représente un avantage stratégique indéniable, en particulier pour l’élaboration de puces spécialisées adaptées à l’exécution de modèles de langage à grande échelle (LLM).
Les puces ARM, réputées pour leur efficacité énergétique et leurs performances, sont au cœur des appareils Apple et permettent une intégration plus poussée et optimisée des technologies d’IA. En développant des puces sur mesure, Apple va pouvoir optimiser chaque aspect du fonctionnement des LLM, des traitements des requêtes à la gestion de la mémoire et de la consommation énergétique, pour offrir une expérience utilisateur fluide et réactive, même pour des tâches de traitement de langage complexe.
Par ailleurs, Apple jouit d’un autre avantage significatif : sa capacité à déployer des mises à jour logicielles à une échelle massive. Contrairement à OpenAI, qui dépend des partenariats et des plateformes tierces pour distribuer ses modèles comme ChatGPT, Apple peut potentiellement intégrer et actualiser son propre LLM directement via iOS à des centaines de millions d’utilisateurs actifs. Cette capacité de déploiement rapide et universel, couplée à l’infrastructure existante de l’écosystème Apple, positionne l’entreprise de manière unique pour promouvoir l’adoption et l’intégration de l’IA générative à une échelle sans précédent.
Le défi des LLM pour Apple
Cependant, malgré ces avantages, Apple se trouve confrontée à des défis considérables. Bien qu’il soit un acteur incontournable, Apple est à la traîne dans la course à l’IA générative, un domaine déjà fortement investi par d’autres géants technologiques.
De plus, la philosophie d’Apple en matière de confidentialité et de sécurité des données présente des défis uniques pour l’intégration des LLM, qui nécessitent généralement le traitement de grandes quantités de données, souvent dans le cloud. Apple doit donc relever le défi de développer un LLM puissant et efficace qui puisse fonctionner localement sur des appareils aux ressources limitées, tout en adhérant à ses strictes politiques de confidentialité. Face à ces défis, Apple y laisser des plumes.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix