Lancement officiel d’Apertus, le LLM conçu par l’EPFL et l’EPFZ (update)
Les EPF de Zurich et Lausanne ainsi que le Centre suisse de calcul scientifique ont développé leur propre grand modèle de langage. Il est entièrement ouvert et prend en charge plus de 1000 langues. Baptisé Apertus, il peut désormais être téléchargé. Swisscom met aussi à disposition une interface dédiée.

Mise à jour du 2 septembre 2025: Les hautes écoles suisses concrétisent leur ambition en matière d’intelligence artificielle avec le lancement d’Apertus, un grand modèle de langage (LLM) développé conjointement par l’EPFL, l’ETH Zurich et le Centre national de calcul scientifique (CSCS). Annoncé en juillet dernier, le projet se matérialise aujourd’hui dans le cadre des Swiss AI Weeks, sous la forme d’un modèle multilingue, ouvert et conçu pour un large éventail d’applications, allant des assistants virtuels aux outils éducatifs. Le modèle est désormais disponible au téléchargement et à l’utilisation via Hugging Face ou la plateforme souveraine IA de Swisscom, partenaire de déploiement.
Comme annoncé, ce LLM puissant, entraîné sur le superordinateur «Alps» du CSCS, se distingue par son ouverture, avec accès libre et complet aux poids, à l’architecture, aux données d'entraînement et au code source. Tous les composants sont publiés sous licence Apache 2.0, ce qui permet leur utilisation dans des projets éducatifs, scientifiques ou commerciaux. L’équipe qui gère Apertus publie également les checkpoints intermédiaires, les scripts d'entraînement et le détail du filtrage des données, garantissant une traçabilité complète du processus.
«Apertus démontre qu’une IA générative peut être à la fois puissante et ouverte», affirme Antoine Bosselut, directeur du Laboratoire de traitement du langage naturel à l’EPFL et co-responsable de l’Initiative Swiss AI. «Le lancement d’Apertus ne marque pas une étape finale, mais bien le début d’un engagement à long terme pour une infrastructure d’IA ouverte, de confiance et souveraine, pour le bien commun mondial. Nous avons hâte de voir les développeurs et développeuses interagir avec le modèle lors des hackathons des Swiss {ai} Weeks. Leur créativité et leurs retours nous aideront à améliorer les futures générations du modèle.»
News du 9 juillet 2025: L’EPFZ et l’EPFL dévoilent leur propre LLM
L’initiative «Swiss AI», présentée fin 2023, commence à porter ses premiers fruits. Dans le cadre de cette initiative, les écoles polytechniques fédérales de Lausanne et Zurich, ainsi que le Centre suisse de calcul scientifique (CSCS), développent leur propre grand modèle de langage (LLM). Les derniers tests sont actuellement en cours, avant que les institutions ne prévoient de le publier sous une licence open source à la fin de l’été 2025.
Dans un communiqué, l’EPFZ parle d’un «modèle de langage au service de la société». L’une de ses caractéristiques majeures consiste à être entièrement ouvert: le code source et les poids seront accessibles publiquement et les données d’entraînement seront transparentes et reproductibles, explique l’établissement. Imanol Schlag, chercheur au Centre IA de l’EPFZ et co-responsable du projet LLM, déclare: «Les modèles entièrement ouverts permettent des applications de confiance élevées et sont indispensables pour faire progresser la recherche sur les risques et les opportunités de l’IA. Des processus transparents facilitent également la conformité réglementaire».
L'entraînement du modèle a également respecté les réglementations actuelles. L'EPFZ et l’EPFL mentionnent notamment la loi suisse sur la protection des données, le droit d'auteur suisse et les obligations de transparence dans le cadre du règlement de l'UE sur l'IA (EU AI Act).
Deux versions
Dès le départ, une attention particulière a été portée au multilinguisme du LLM en cours de développement, précise le communiqué: le modèle de base a été entraîné avec un vaste corpus de textes couvrant plus de 1500 langues – environ 60% en anglais et 40% dans d’autres langues – ainsi que des données de code et de mathématiques. Grâce à la représentation de contenus issus de toutes langues et cultures, le modèle final bénéficierait d’une grande applicabilité à l’échelle mondiale. Ainsi, le modèle prend en charge plus de 1000 langues.
Le LLM sera prochainement publié en deux tailles, avec 8 milliards et 70 milliards de paramètres. Le nombre de paramètres reflète la capacité d’un modèle à apprendre et à générer des réponses complexes, rappelle le communiqué. Le grand modèle figurera parmi les plus ouverts et puissants au monde, selon l’EPFZ. Le modèle est entraîné sur le superordinateur «Alps» du CSCS, une infrastructure inaugurée récemment à Lugano.