Cette app expérimentale de Google exécute l’IA localement sur Android
Google publie en alpha AI Edge Gallery, une application Android capable de faire tourner des modèles de langage localement. Aucun accès réseau n’est requis après le chargement du modèle. Une version iOS est également prévue.

Google a lancé une version alpha d’une application baptisée AI Edge Gallery. Cette dernière permet d’exécuter localement des LLM sur Android, sans dépendre d’une connexion à Internet une fois le modèle chargé. Une version pour iOS est également au programme.
Sur la page Github dédiée au projet, Google précise que son objectif consiste ici à proposer un environnement interactif où les développeurs peuvent tester différentes tâches d’IA sans avoir à écrire de code. AI Edge Gallery donne accès à plusieurs modèles open source issus de Hugging Face, avec la possibilité de comparer leurs performances. Les utilisateurs peuvent explorer des cas d’usage tels que la génération de texte, le résumé de contenus, la compréhension d’images ou encore des dialogues continus avec l’IA.
L'application intègre aussi des fonctions d’analyse de performance en temps réel (comme la latence ou la vitesse de décodage) et prend en charge les modèles optimisés avec le runtime LiteRT de Google. Il est également possible d’importer ses propres modèles.
Distribuée uniquement via GitHub pour le moment, cette app est présentée par Google comme un projet expérimental, avec des performances susceptibles de varier selon les caractéristiques matérielles du smartphone utilisé. Les versions pour le Play Store et l’App Store sont prévues ultérieurement.