ChatGPT

Apple publie une méthode pour avoir des LLM efficaces capables de travailler sur un smartphone

Le développement des LLM ces dernières années a été exponentiel. Si vous ne savez pas ce qu'est un LLM, c'est l'abréviation de Grand modèle de langage ou un grand modèle d'apprentissage, et c'est la technologie d'apprentissage automatique sur laquelle fonctionnent ChatGPT ou l'une des IA génératrices d'images mal nommées. Son nom, grand ou grande, dénote cependant sa principale faiblesse ; Il faut un appareil assez puissant avec beaucoup de capacité, notamment de RAM, pour stocker plusieurs gigaoctets de paramètres. Juste ce qu'on ne trouve pas sur un smartphone.

Pour cette raison, et surtout dans le cas d'Apple, avec des smartphones qui sont dans la plupart des cas équipés de moins de RAM que les autres smartphones co-générationnels du monde Android, il est important de développer des LLM qui fonctionnent directement sur un smartphone, sans avoir besoin de utiliser des serveurs distants qui effectuent l'ensemble du processus et fournissent une réponse, ce que nous avons utilisé jusqu'à présent.

L'avantage de le faire localement, sur la machine sur laquelle vous exécutez ou posez la question, est que vous pouvez les utiliser IA sans avoir besoin d'une connexion Internet (par exemple, dans un endroit éloigné ou dans un avion). Il y a aussi le principal problème, à savoir la vie privée. Si nous utilisons un LLM directement sur un iPhone, notre question ou demande n'est envoyée à aucun serveur. Il n’est enregistré nulle part. Il ne reste que sur notre propre iPhone, et toujours crypté, sous notre mot de passe, Face ID ou Touch ID. Ni Apple ni personne d'autre que nous ne pouvons accéder à ces données.

Plusieurs programmeurs Apple (notamment Sachin Mehta, Mohammad Hossein Sekhavat, Qingqing Cao, Maxwell Horton, Yanzi Jin, Chenfan Sun, Iman Mirzadeh, Mahyar Najibi, Dmitry Belenko, Peter Zatloukal et Mohammad Rastegari) ont publié ce qu'ils appellent OpenELM sur Hugging Face ; Open from Open Source (ils fournissent et contribuent du code que tout le monde peut voir et modifier) ​​et ELM de Modèle linguistique efficace, c'est-à-dire des modèles de langage qui, au lieu d'être volumineux, sont efficaces, ce qui signifie qu'ils peuvent fonctionner sur un iPhone, localement, sans avoir à utiliser un serveur distant. C'est une démonstration de plus de ce qu'Apple prépare dans iOS 18, avec ce type de technologies déjà intégrées en série.

La transparence avec ce genre de choses est vitale si vous voulez obtenir une confiance maximale et garantir que personne ne pense que c'est un mensonge que tous ces processus sont traités localement sur un iPhone, c'est pourquoi ils font tout ce travail ouvertement et le fournissent comme code gratuit pour que tout le monde puisse l'utiliser s'il le souhaite.

A lire également