Apertus, l’IA suisse ouverte et multilingue : entre ambitions et premiers tests critiques

Présentation d’Apertus : un modèle d’IA suisse innovant

Lancé récemment, Apertus est un modèle d’intelligence artificielle développé en Suisse, qui se distingue des solutions américaines majeures. Conçu par des équipes issues de l’EPFL, de l’EPFZ ainsi que du Centre suisse de calcul scientifique (CSCS) basé à Lugano, ce projet mise avant tout sur une approche ouverte et un support multilingue étendu.

Les aspects techniques d’Apertus

Une architecture transparente et un entraînement accessible

Apertus propose une architecture, des techniques d’entraînement et une pondération des modèles consultables publiquement. L’ensemble des sources de données utilisées est également documenté, ce qui permet de suivre précisément la récolte des informations qui ont nourri le modèle.

Un corpus d’entraînement diversifié et multilingue

Le modèle a été entraîné sur un important corpus, rassemblant 15 000 milliards de mots (tokens) issus de plus de 1000 langues différentes. Près de 40% du corpus inclut des langues autres que l’anglais, avec une attention particulière portée au suisse allemand et au romanche, différenciant Apertus des nombreux modèles centrés majoritairement sur l’anglais.

Sécurité des données et prise en compte linguistique

Le développement d’Apertus s’appuie uniquement sur des données d’accès libre, dont les informations personnelles ont été supprimées conformément aux demandes de retrait. Ce respect des règles garantit une conformité avec la loi suisse sur la protection des données ainsi qu’avec les exigences de transparence imposées par la législation européenne sur l’intelligence artificielle.

Grâce à l’inclusion ciblée de nombreuses langues, allant des langues internationales majeures aux dialectes minoritaires, Apertus pourrait se positionner comme l’un des modèles les plus diversifiés sur le plan linguistique, selon ses créateurs.

Accès au modèle et modalités d’utilisation

Apertus est conçu principalement comme un outil destiné aux professionnels, plutôt qu’en tant que chatbot grand public. Deux versions sont disponibles via la plateforme Hugging Face, respectivement de 8 et 70 milliards de paramètres. Par comparaison, des experts estiment que GPT-5 compterait jusqu’à 52 milliards de paramètres. Swisscom, principal partenaire stratégique du projet, propose également des services cloud associés.

Pour une découverte plus directe, il est possible d’accéder au chatbot public via publicai.co, initiative du collectif Public AI. En mode non connecté, l’accès se limite au modèle 8B, tandis qu’une inscription permet de tester la version 70B, plus puissante.

Résultats des premiers tests et limites observées

Les essais réalisés, notamment sur la version la plus performante, ont montré des résultats contrastés. Apertus manifeste certaines limites habituelles des grands modèles de langage, notamment l’absence d’un mode de raisonnement logique, ce qui peut compliquer la résolution de problèmes complexes et entraîner des erreurs factuelles ou des « hallucinations ».

Plusieurs premiers utilisateurs ont exprimé des critiques à propos de ces insuffisances. Par exemple, Xavier Comtesse, président de Manufacture Thinking, a évoqué une forme de « honte », tandis que Charles-Edouard Bardyn, cofondateur d’AI Swiss, a jugé cet outil « inutilisable en l’état », selon une interview publiée dans « Le Temps ».

Focus sur les performances en romanche

Malgré l’inclusion du romanche dans le corpus d’entraînement, cette langue reste un défi pour Apertus. Michelle Freund et Nadja Hort, enseignantes en Haute-Engadine, considèrent les traductions proposées par Apertus insuffisantes, soulignant des mélanges dialectaux et de nombreuses erreurs grammaticales. Pour comparaison, GPT-5 offre des résultats un peu meilleurs dans cette langue.

Perspectives et évolutions futures

Antoine Bosselut, directeur du Laboratoire de traitement du langage naturel à l’EPFL, a précisé que les critiques étaient prévisibles. Il a indiqué ne pas vouloir concurrencer des modèles comme ChatGPT, mais plutôt construire une base robuste et ouverte, tout en reconnaissant que les connaissances intégrées dans le modèle s’arrêtent début 2024.

Le collectif derrière Apertus envisage le modèle comme un socle initial, avec la perspective d’actualisations régulières et le développement de déclinaisons spécialisées adaptées aux domaines du droit, de l’éducation ou de la santé. L’objectif affiché est de faire de cette infrastructure open source un véritable outil collaboratif entre la recherche et le secteur économique.