Un article d’Apple décrit un nouvel outil permettant de créer des animations à l’aide de grands modèles de langage, ou LLM.
La technologie qui pilote ce que l’on appelle désormais à tort intelligences artificielles (IA en abrégé) est en fait appelée modèle de langage étendu ou LLM, bien qu’on puisse parfois la trouver également sous forme de modèle de langage étendu. modèle de langage massif soit modèle d’apprentissage massif en espagnol. C’est ce qui fait fonctionner ChatGPT et l’entreprise, même si dans tous les médias grand public, ils parlent simplement d’IA alors qu’il n’y a même pas de compréhension commune parmi les chercheurs les plus avancés sur ce qu’est réellement une IA. Aujourd’hui, les LLM font l’actualité dans l’écosystème Apple car leurs chercheurs ont publié un papierc’est-à-dire une description scientifique d’une avancée qu’ils ont réalisée, qui décrit un outil de création d’animations à l’aide de requêtes ChatGPT 3 ou 4.
Ce que vous voyez au-dessus de ces mots est un éditeur de graphiques vectoriels dans une application Web, c’est-à-dire une application Web qui vous permet de créer, d’éditer et d’enregistrer des graphiques au format SVG. Dans cette application, ils exécutent Keyframer, qui est le système qu’ils ont créé chez Apple pour indiquer au programme comment animer un graphique SVG, ce qui donne lieu à un fichier CSS avec l’animation prêt à être utilisé sur n’importe quel site Web.
Dans l’image ci-dessous, vous pouvez voir différentes images d’une planète dans laquelle on demande aux étoiles de briller, et d’une fusée qui décolle. L’animation a été demandée à ChatGPT, qui, via Keyframer, parvient à livrer l’animation au format CSS en déplaçant les graphiques SVG fournis.
…et pourquoi on vous dit ça ? rouler? – eh bien, la réponse est que ce type de recherche nous donne un petit aperçu de ce que nous pourrions voir dans iOS 18 dans quelques mois, puisqu’il est supposé que les principales nouveautés de la nouvelle version de cette année seront liées à ces modèles LLM et intelligence artificielle génératif, c’est-à-dire celui qui nous permet de créer des images ou, comme dans ce cas, des animations, simplement en le demandant dans un texte ou avec notre propre voix, nous imaginons cela très probablement via Siri. L’idée est que nous pouvons lui demander de créer l’image d’une voiture sur une route et nous pouvons lui demander, par exemple, que la voiture vole à travers les nuages, créant ainsi cette vidéo ou ces images d’une manière ou d’une autre. Ce type d’IA générative comme MidJourney ou Stable Diffusion sont capables de générer des images avec une facilité spectaculaire et l’idée semble être de réaliser quelque chose de similaire directement intégré à iOS, même si les détails brillent encore par leur absence.
Apple n’a encore rien implémenté de tel dans iOS, mais en regardant les articles qu’ils publient, il est probable qu’ils s’efforcent de rattraper le temps perdu de toutes leurs capacités, surtout maintenant qu’ils se sont débarrassés du lancement du Vision Pro, un projet qui, sans aucun doute, aura épuisé de nombreuses ressources humaines au sein de l’entreprise.