À Fribourg, AI Swiss et la HES-SO interrogent les usages de l’IA dans l’enseignement
Organisée le 5 février 2026 à Fribourg, la Journée IA et éducation d’AI Swiss, en partenariat avec la HES-SO, a réuni acteurs académiques et professionnels de la tech pour questionner l’impact de l’IA générative sur l’enseignement. Au-delà des outils, les échanges ont mis en lumière les enjeux d’évaluation, de compétences et de gouvernance liés à l’adoption de ces technologies.
Jeudi 5 février 2026, la Journée IA et éducation, organisée par AI Swiss en partenariat avec la HES-SO, a réuni à Fribourg enseignants, étudiants, chercheurs, responsables institutionnels et acteurs de la tech autour d’un constat partagé: l’intelligence artificielle générative ne transforme pas seulement les pratiques pédagogiques, elle met en lumière les limites structurelles du système éducatif. À travers des conférences, ateliers et tables rondes réunissant notamment la HES-SO, la HEP Vaud, l’EPFZ, 42 Lausanne, l’Université de Fribourg et l’État de Vaud, la rencontre visait à mieux comprendre les impacts concrets de ces technologies sur l’enseignement, l’évaluation et la formation des compétences.
ChatGPT, un choc pour l’enseignement
En ouverture, Marc-Adrien Schnetzer, directeur adjoint à la HES-SO Fribourg, est revenu sur l’arrivée de ChatGPT fin 2022, qu’il qualifie de rupture majeure pour l’enseignement supérieur. «L’accès généralisé à cet outil a constitué un bouleversement sociétal et civilisationnel, en particulier pour l’éducation, la formation et l’enseignement supérieur», a-t-il rappelé. Face à cette irruption, les premières réactions sur le terrain ont souvent été marquées par un réflexe d’interdiction, notamment dans les salles de classe et lors des évaluations.
Selon lui, ces réactions traduisent surtout un manque de préparation. Assimiler l’IA générative à des ruptures technologiques passées, comme l’apparition de la calculatrice, permet de relativiser, mais reste insuffisant. «La machine à calculer est un service simple et déterministe, avec un résultat unique. L’IA, elle, produit des résultats qui peuvent être faux, biaisés, sujets à interprétation et qui dépendent de l’entraînement», a-t-il souligné. Dès lors, chercher à bannir ces outils revient à ignorer une évolution durable. L’enjeu n’est pas de lutter contre l’IA, mais de former, d’expliquer et de sensibiliser aux transformations qu’elle induit, tant en termes de gains que de pertes.
Évaluer ce que la machine ne sait pas faire
Richard-Emmanuel Eastes, responsable du Service d’appui au développement académique et professionnel (SADAP) à la HES-SO, a mis en avant l’approche par compétences comme levier central face à l’IA générative. Dans une formation orientée vers les métiers, une compétence ne se limite pas à un savoir ou à une technique, mais correspond à la capacité d’agir de manière appropriée dans des situations complexes.
Dans ce contexte, continuer à évaluer des tâches que la machine sait accomplir n’a plus de sens. L’IA n’est alors pas perçue comme un outil de triche, mais comme un élément du contexte professionnel. Les enseignants déjà engagés dans une pédagogie par compétences intègrent plus facilement ces technologies, tandis que ceux qui restent dans une logique de restitution des connaissances se disent davantage déstabilisés. Richard-Emmanuel Eastes a également mis en garde contre l’usage des détecteurs de contenus générés par IA, jugés peu fiables. La HES-SO privilégie une clarification des règles et une adaptation des modalités d’évaluation plutôt qu’une logique de sanction.
Comprendre la nature des modèles génératifs
Comprendre ce que font réellement les modèles génératifs est un préalable à leur intégration dans l’enseignement. Sur ce point, Charles-Édouard Bardyn, vice-président et cofondateur d’AI Swiss, est revenu sur le concept de «co-pensée», un terme qu’il a lui-même relativisé. «L’IA ne pense pas, elle génère. Le cœur de ces modèles est génératif: ils produisent, mais ils ne vérifient rien», a-t-il expliqué, rappelant que les modèles de langage apprennent des motifs et recomposent des structures existantes sans mécanisme interne de validation. Une limite qui, selon lui, restera inhérente à leur nature, indépendamment des évolutions futures.
Cette caractéristique implique que la fiabilité des systèmes génératifs ne peut venir que de l’extérieur, soit par des outils formels comme le calcul, l’exécution de code ou la recherche documentaire, soit par l’intervention humaine. La co-pensée désigne alors une collaboration structurée entre l’utilisateur et la machine, fondée sur le cadrage des objectifs, l’itération et la validation continue des résultats. Le vice-président a également alerté sur un phénomène déjà visible dans le développement logiciel, la dette de vérification. Générer du contenu ou du code est devenu rapide, mais leur contrôle demande un effort croissant. Sans une bonne décomposition des tâches, l’IA déplace la charge plutôt qu’elle ne la réduit.
La discussion autour de la table ronde s’est enfin élargie aux effets de l’IA sur le développement des enfants et des adolescents. Le manque de recul scientifique a été rappelé, tandis que plusieurs risques liés aux IA conversationnelles utilisées sans cadre ont été évoqués, notamment sur le plan socio-émotionnel. Les échanges ont également mis en évidence un risque d’aggravation des inégalités, l’IA pouvant renforcer des fractures déjà existantes entre élèves accompagnés et ceux livrés à eux-mêmes.
L’actualité IT en Suisse et à l’international, avec un focus sur la Suisse romande, directement dans votre boîte mail > Inscrivez-vous à la newsletter d’ICTjournal, envoyée du lundi au vendredi!