Aller au contenu
Enseignement moral et civique · Terminale · Éthique, Droit et Justice · 2e Trimestre

Éthique et Intelligence Artificielle

Les élèves débattent des questions éthiques soulevées par le développement de l'intelligence artificielle (autonomie, responsabilité, biais).

Programmes OfficielsMEN: Lycee - BioéthiqueMEN: Lycee - Responsabilité éthique

À propos de ce thème

L'intelligence artificielle soulève des questions éthiques inédites qui s'invitent désormais dans le programme d'enseignement moral et civique de terminale. Autonomie des systèmes décisionnels, imputabilité en cas d'erreur ou de préjudice, transparence des algorithmes : ces enjeux touchent à la fois au droit, à la philosophie morale et à la construction de la citoyenneté numérique. La question de l'autonomie est particulièrement complexe : quand une machine prend une décision sans supervision humaine, qui est responsable du résultat ?

Les biais algorithmiques constituent un autre axe central du débat. Des études ont montré que des systèmes d'IA utilisés dans la justice pénale, l'embauche ou l'accès au crédit reproduisent et amplifient des discriminations existantes. Comprendre pourquoi ces biais apparaissent (données d'entraînement non représentatives, choix des variables, absence de diversité dans les équipes de conception) est indispensable pour penser une régulation efficace.

Les élèves sont invités à construire des principes éthiques pour l'IA à travers des activités de délibération et de jeu de rôles, ce qui leur permet d'articuler des valeurs abstraites avec des contraintes techniques concrètes.

Questions clés

  1. Analysez les défis éthiques posés par l'autonomie croissante de l'intelligence artificielle.
  2. Expliquez les risques de biais et de discrimination dans les algorithmes d'IA.
  3. Concevez des principes éthiques pour le développement et l'utilisation de l'intelligence artificielle.

Objectifs d'apprentissage

  • Analyser les implications éthiques de l'autonomie décisionnelle des systèmes d'IA dans des contextes critiques (ex: diagnostic médical, conduite autonome).
  • Évaluer la manière dont les biais algorithmiques peuvent perpétuer ou amplifier les discriminations sociales existantes.
  • Concevoir un cadre de principes éthiques pour le développement et le déploiement responsable de l'IA, en considérant les notions de transparence et de responsabilité.
  • Synthétiser les arguments pour et contre l'utilisation de l'IA dans des domaines sensibles tels que la justice pénale ou le recrutement.

Avant de commencer

Principes de la Délibération Démocratique

Pourquoi : Les élèves doivent comprendre les bases du débat argumenté et de la recherche de consensus pour aborder les questions éthiques complexes.

Notions de Justice et d'Égalité

Pourquoi : Une compréhension préalable des concepts de justice et d'égalité est nécessaire pour analyser les risques de discrimination liés aux biais algorithmiques.

Vocabulaire clé

Biais algorithmiqueTendance systématique d'un algorithme à produire des résultats injustes ou discriminatoires, souvent héritée des données d'entraînement ou des choix de conception.
Responsabilité de l'IAQuestion de savoir qui doit être tenu responsable des actions ou des décisions prises par un système d'intelligence artificielle, notamment en cas de préjudice.
Transparence (IA)Principe selon lequel le fonctionnement interne et les processus décisionnels d'un système d'IA devraient être compréhensibles par les humains.
Autonomie (IA)Capacité d'un système d'IA à prendre des décisions et à agir sans intervention humaine directe, soulevant des questions sur le contrôle et la supervision.

Attention à ces idées reçues

Idée reçue couranteL'IA est neutre et objective parce qu'elle se base sur des données.

Ce qu'il faut enseigner à la place

Les algorithmes d'IA ne sont neutres ni dans leur conception ni dans leurs effets : ils reflètent les choix de leurs concepteurs et les biais présents dans les données d'entraînement. Analyser des cas réels en groupe aide les élèves à dépasser cette croyance fréquente et à comprendre pourquoi l'audit algorithmique est nécessaire.

Idée reçue couranteLa responsabilité en cas d'erreur d'une IA revient automatiquement à la machine.

Ce qu'il faut enseigner à la place

La responsabilité demeure humaine : concepteur, déployeur ou utilisateur selon les circonstances juridiques. Aucun système juridique n'attribue à ce jour une personnalité morale ou pénale à une IA. Le jeu de rôles aide à identifier précisément quel acteur est imputable dans une situation donnée.

Idée reçue couranteRéguler l'IA freine nécessairement l'innovation.

Ce qu'il faut enseigner à la place

Des cadres comme l'AI Act européen montrent que régulation et innovation peuvent coexister. Des principes éthiques bien conçus orientent le développement vers des applications plus fiables et socialement acceptables, ce qui renforce la confiance des utilisateurs et l'adoption des technologies.

Idées d'apprentissage actif

Voir toutes les activités

Débat mouvant : L'IA peut-elle être responsable de ses décisions ?

Les élèves se positionnent sur une ligne allant de « totalement d'accord » à « totalement en désaccord ». Plusieurs affirmations successives (responsabilité du concepteur, du déployeur, de l'utilisateur) amènent les élèves à nuancer leur position et à argumenter en citant des exemples concrets. La discussion collective dresse la cartographie des acteurs responsables.

35 min·Classe entière

Jeu de rôle: Comité d'éthique de l'IA

Par groupes de cinq, les élèves incarnent des parties prenantes (ingénieur, juriste, sociologue, représentant d'association, décideur public) face à un cas fictif de biais dans un algorithme de sélection scolaire. Ils rédigent ensemble une recommandation éthique en trois points, qu'ils présentent à la classe.

50 min·Petits groupes

Penser-Partager-Présenter: Identifier les biais dans un jeu de données

À partir d'un extrait simplifié de données de recrutement, les élèves repèrent seuls les variables potentiellement discriminantes. En binômes, ils comparent leurs observations, puis la classe construit collectivement une grille d'analyse critique applicable à d'autres contextes d'IA.

30 min·Binômes

Galerie marchande: Chronologie de la régulation de l'IA

Des affiches présentent des étapes clés de la régulation internationale (RGPD, AI Act européen, recommandations de l'UNESCO). Les élèves identifient les principes éthiques communs et les lacunes persistantes, puis proposent chacun une recommandation manquante à la liste existante.

40 min·Petits groupes

Liens avec le monde réel

  • Les systèmes de reconnaissance faciale utilisés par certaines forces de police peuvent présenter des taux d'erreur plus élevés pour les personnes issues de minorités ethniques, soulevant des questions de biais et de justice.
  • Les plateformes de recrutement en ligne utilisent des algorithmes pour trier les candidatures. Ces algorithmes peuvent involontairement désavantager certains profils si les données d'entraînement reflètent des discriminations passées.

Idées d'évaluation

Question de discussion

Proposez aux élèves le scénario suivant : 'Une voiture autonome cause un accident. Qui est responsable : le propriétaire, le constructeur, le programmeur ?' Demandez-leur de débattre des différentes perspectives en s'appuyant sur les concepts de responsabilité et d'autonomie de l'IA.

Billet de sortie

Demandez aux élèves d'écrire sur un post-it un exemple concret de biais algorithmique qu'ils ont rencontré ou imaginé, et une proposition pour y remédier.

Vérification rapide

Présentez aux élèves une courte description d'un système d'IA (ex: IA pour le diagnostic médical). Posez la question : 'Quels sont les deux principaux défis éthiques que ce système pourrait poser ?' Les élèves répondent par écrit.

Questions fréquentes

Quels sont les principaux défis éthiques posés par l'intelligence artificielle ?
Les défis majeurs concernent l'autonomie décisionnelle (qui décide, qui contrôle), la responsabilité en cas de préjudice, la transparence des algorithmes (problème de la "boîte noire") et les biais discriminatoires. Ces enjeux touchent simultanément au droit fondamental, à la philosophie morale et à la conception technique des systèmes.
Comment les biais algorithmiques se forment-ils et comment les réduire ?
Les biais proviennent principalement de données d'entraînement non représentatives, de variables corrélées à des caractéristiques protégées (sexe, origine) ou d'équipes de conception peu diversifiées. Les réduire exige une démarche d'audit régulier, une diversification des données et une gouvernance inclusive des projets d'IA.
Quels principes éthiques guident le développement responsable de l'IA ?
Plusieurs cadres de référence (lignes directrices de l'UE, UNESCO) convergent autour de cinq principes : transparence, équité, responsabilité, respect de la vie privée et bien-être humain. L'AI Act européen traduit ces principes en obligations légales pour les systèmes classés à haut risque.
Pourquoi le jeu de rôles est-il efficace pour enseigner l'éthique de l'IA en classe ?
Se placer dans la position d'un ingénieur, d'un juriste ou d'une personne discriminée oblige à articuler des valeurs avec des contraintes réelles. Cette incarnation de perspectives différentes rend les questions d'imputabilité et de biais concrètes là où un cours théorique les laisserait abstraites.

Modèles de planification pour Enseignement moral et civique