Skip to content
Enseignement moral et civique · Terminale

Idées d’apprentissage actif

Éthique et Intelligence Artificielle

L'éthique de l'IA interroge des concepts abstraits comme la responsabilité ou l'autonomie algorithmique. Faire vivre ces questions par des activités concrètes permet aux élèves de s'approprier des notions complexes sans les réduire à des définitions théoriques. Les mises en situation rendent tangibles les enjeux juridiques et philosophiques, essentiels pour former des citoyens éclairés.

Programmes OfficielsMEN: Lycee - BioéthiqueMEN: Lycee - Responsabilité éthique
30–50 minBinômes → Classe entière4 activités

Activité 01

Panel d'experts35 min · Classe entière

Débat mouvant : L'IA peut-elle être responsable de ses décisions ?

Les élèves se positionnent sur une ligne allant de « totalement d'accord » à « totalement en désaccord ». Plusieurs affirmations successives (responsabilité du concepteur, du déployeur, de l'utilisateur) amènent les élèves à nuancer leur position et à argumenter en citant des exemples concrets. La discussion collective dresse la cartographie des acteurs responsables.

Analysez les défis éthiques posés par l'autonomie croissante de l'intelligence artificielle.

Conseil de facilitationPour le débat mouvant, placez physiquement les élèves dans l'espace selon leur position (pour/contre) pour visualiser les clivages et relancez les échanges avec des exemples précis comme les voitures autonomes ou les algorithmes de recrutement.

À observerProposez aux élèves le scénario suivant : 'Une voiture autonome cause un accident. Qui est responsable : le propriétaire, le constructeur, le programmeur ?' Demandez-leur de débattre des différentes perspectives en s'appuyant sur les concepts de responsabilité et d'autonomie de l'IA.

ComprendreAppliquerAnalyserÉvaluerAutogestionCompétences relationnelles
Générer une leçon complète

Activité 02

Jeu de rôle50 min · Petits groupes

Jeu de rôle: Comité d'éthique de l'IA

Par groupes de cinq, les élèves incarnent des parties prenantes (ingénieur, juriste, sociologue, représentant d'association, décideur public) face à un cas fictif de biais dans un algorithme de sélection scolaire. Ils rédigent ensemble une recommandation éthique en trois points, qu'ils présentent à la classe.

Expliquez les risques de biais et de discrimination dans les algorithmes d'IA.

Conseil de facilitationLors du jeu de rôles, fournissez aux élèves des fiches rôles détaillées avec des contraintes juridiques et des conflits d'intérêts pour simuler un vrai comité d'éthique plutôt qu'une simple discussion informelle.

À observerDemandez aux élèves d'écrire sur un post-it un exemple concret de biais algorithmique qu'ils ont rencontré ou imaginé, et une proposition pour y remédier.

AppliquerAnalyserÉvaluerConscience socialeConscience de soi
Générer une leçon complète

Activité 03

Penser-Partager-Présenter30 min · Binômes

Penser-Partager-Présenter: Identifier les biais dans un jeu de données

À partir d'un extrait simplifié de données de recrutement, les élèves repèrent seuls les variables potentiellement discriminantes. En binômes, ils comparent leurs observations, puis la classe construit collectivement une grille d'analyse critique applicable à d'autres contextes d'IA.

Concevez des principes éthiques pour le développement et l'utilisation de l'intelligence artificielle.

Conseil de facilitationPendant le Think-Pair-Share sur les biais, donnez à chaque binôme un jeu de données simplifié (ex: CV anonymisés avec des stéréotypes) pour qu'ils repèrent les discriminations avant de partager leurs découvertes avec la classe.

À observerPrésentez aux élèves une courte description d'un système d'IA (ex: IA pour le diagnostic médical). Posez la question : 'Quels sont les deux principaux défis éthiques que ce système pourrait poser ?' Les élèves répondent par écrit.

ComprendreAppliquerAnalyserConscience de soiCompétences relationnelles
Générer une leçon complète

Activité 04

Galerie marchande40 min · Petits groupes

Galerie marchande: Chronologie de la régulation de l'IA

Des affiches présentent des étapes clés de la régulation internationale (RGPD, AI Act européen, recommandations de l'UNESCO). Les élèves identifient les principes éthiques communs et les lacunes persistantes, puis proposent chacun une recommandation manquante à la liste existante.

Analysez les défis éthiques posés par l'autonomie croissante de l'intelligence artificielle.

Conseil de facilitationPour la galerie chronologique, affichez les étapes clés de la régulation de l'IA (ex: AI Act, recommandations de l'UNESCO) avec des questions ciblées pour guider leur lecture critique des textes institutionnels.

À observerProposez aux élèves le scénario suivant : 'Une voiture autonome cause un accident. Qui est responsable : le propriétaire, le constructeur, le programmeur ?' Demandez-leur de débattre des différentes perspectives en s'appuyant sur les concepts de responsabilité et d'autonomie de l'IA.

ComprendreAppliquerAnalyserCréerCompétences relationnellesConscience sociale
Générer une leçon complète

Modèles

Modèles qui complètent ces activités de Enseignement moral et civique

Utilisez, modifiez, imprimez ou partagez.

Quelques notes pour enseigner cette unité

Aborder l'éthique de l'IA exige de combiner rigueur conceptuelle et ancrage pratique. Évitez les discours trop techniques sur le fonctionnement des algorithmes : privilégiez les exemples accessibles (réseaux sociaux, recommandations musicales) pour ancrer les discussions. Utilisez des cas réels et controversés (ex: système de notation sociale en Chine) pour montrer que l'IA n'est pas une abstraction mais un outil qui impacte des vies. Les recherches en didactique soulignent que les élèves retiennent mieux quand ils sont acteurs de leur apprentissage, d'où l'importance des débats et des jeux de rôle.

Les élèves formulent des arguments nuancés, identifient des biais algorithmiques, et distinguent les responsabilités humaines dans des contextes d'IA. Ils mobilisent des cadres juridiques et éthiques pour justifier leurs positions, en s'appuyant sur des exemples concrets. La réussite se mesure à leur capacité à passer de l'opinion spontanée à une analyse structurée.


Attention à ces idées reçues

  • Pendant le Think-Pair-Share sur l'identification des biais, écoutez les échanges pour repérer les élèves qui affirment que 'les données parlent d'elles-mêmes' et recentrez la discussion sur les choix humains dans la collecte et l'étiquetage des données.

    Lors du Think-Pair-Share, demandez aux élèves d'expliciter les étapes de pré-traitement des données (ex: suppression de variables sensibles, normalisation) et montrez comment ces choix introduisent des biais cachés. Utilisez un exemple concret comme un algorithme de prêt bancaire qui exclut certaines zones géographiques.

  • Pendant le jeu de rôles du comité d'éthique de l'IA, observez si des élèves attribuent la responsabilité à la machine elle-même.

    Lors du jeu de rôles, insistez sur les contraintes juridiques en rappelant que le droit ne reconnaît pas de personnalité morale aux algorithmes. Demandez aux élèves de justifier leur choix de responsabilité en citant des articles du Code civil ou des jurisprudences similaires.

  • Pendant la Gallery Walk sur la régulation de l'IA, repérez les élèves qui pensent que 'plus de règles = moins d'innovation'.

    Lors de la galerie chronologique, mettez en évidence des exemples où la régulation a favorisé l'innovation (ex: développement de l'IA médicale en Europe grâce à des cadres clairs). Utilisez le cas de l'AI Act pour montrer que des règles équilibrées créent un environnement stable pour les entreprises.


Méthodes utilisées dans ce dossier