Skip to content
Enseignement moral et civique · 3ème

Idées d’apprentissage actif

L'intelligence artificielle et ses enjeux éthiques

Les enjeux éthiques de l'IA se prêtent mal à un enseignement théorique abstrait. Les élèves retiennent mieux quand ils analysent des situations réelles et confrontent leurs intuitions à des faits concrets. Travailler avec des cas documentés, des débats structurés et des cartes d'acteurs transforme une notion complexe en expérience d'apprentissage tangible et mémorable.

Programmes OfficielsMEN: Cycle 4 - Construire une culture civique
50–60 minBinômes → Classe entière3 activités

Activité 01

Étude de cas55 min · Petits groupes

Étude de cas: L'algorithme de recrutement biaisé

Présentez aux élèves le cas documenté d'Amazon (2018) dont l'algorithme de recrutement défavorisait les candidatures féminines parce qu'il avait été entraîné sur 10 ans d'embauches majoritairement masculines. Par groupes, ils identifient l'origine du biais, ses conséquences, et proposent des mesures pour l'éviter dans la conception et le déploiement de l'outil.

Expliquez les enjeux éthiques liés au développement de l'intelligence artificielle.

Conseil de facilitationPendant l'étude de cas sur le recrutement biaisé, demandez aux élèves de surligner dans le texte les mots ou phrases qui révèlent un biais, puis de les confronter aux données réelles fournies.

À observerPrésentez aux élèves un scénario : 'Un algorithme est utilisé pour décider de l'attribution des bourses étudiantes. Il a été entraîné sur les données des 10 dernières années.' Posez les questions : Quels sont les risques de biais dans ce cas ? Qui est responsable si une décision est injuste : le programmeur, l'université, ou l'algorithme lui-même ?

AnalyserÉvaluerCréerPrise de décisionAutogestion
Générer une leçon complète

Activité 02

Séminaire socratique60 min · Classe entière

Débat structuré : Peut-on confier des décisions judiciaires à une IA ?

Deux groupes préparent des arguments opposés sur l'utilisation des algorithmes de prédiction de récidive dans les décisions de justice. Un groupe argumente pour (cohérence, rapidité), l'autre contre (opacité, biais, irresponsabilité). Un ou deux élèves assurent la médiation. La classe rédige collectivement une conclusion distinguant les arguments factuels des arguments de valeur.

Analysez les risques de biais et de discrimination dans les algorithmes d'IA.

Conseil de facilitationPour le débat sur les décisions judiciaires, limitez chaque intervention à 2 minutes et utilisez un chronomètre visible pour maintenir la rigueur du format.

À observerDemandez aux élèves d'écrire sur un papier : 1) Un exemple concret d'enjeu éthique lié à l'IA. 2) Une question qu'ils se posent encore sur le sujet. 3) Une chose qu'ils ont apprise aujourd'hui.

AnalyserÉvaluerCréerConscience socialeCompétences relationnelles
Générer une leçon complète

Activité 03

Séminaire socratique50 min · Petits groupes

Carte des acteurs : Qui est responsable quand une IA discrimine ?

À partir d'un cas fictif (une IA d'attribution de logements sociaux qui discrimine selon le code postal), les élèves cartographient les acteurs impliqués (concepteur, acheteur public, utilisateur final, personne lésée, législateur) et attribuent des niveaux de responsabilité à chacun. La mise en commun révèle la complexité des chaînes de responsabilité.

Évaluez les responsabilités des concepteurs et des utilisateurs d'IA.

Conseil de facilitationLors de la création de la carte des acteurs, imposez l'utilisation de couleurs différentes pour chaque niveau de responsabilité (concepteurs, déployeurs, régulateurs) pour éviter les confusions.

À observerProjetez une courte vidéo ou un article de presse présentant une application d'IA (ex: voiture autonome, diagnostic médical assisté par IA). Demandez aux élèves de lever la main pour identifier un avantage potentiel et un risque éthique mentionné ou implicite.

AnalyserÉvaluerCréerConscience socialeCompétences relationnelles
Générer une leçon complète

Modèles

Modèles qui complètent ces activités de Enseignement moral et civique

Utilisez, modifiez, imprimez ou partagez.

Quelques notes pour enseigner cette unité

Commencez par des exemples simples et proches des élèves, comme les recommandations de contenus sur les réseaux sociaux, avant d'aborder des cas complexes. Évitez de présenter l'IA comme une boîte noire : décortiquez toujours les étapes entre les données d'entrée et la décision algorithmique. Privilégiez les travaux de groupe pour que les élèves verbalisent leurs raisonnements et corrigent mutuellement leurs erreurs.

Les élèves distinguent clairement les mécanismes des biais algorithmiques, identifient la répartition des responsabilités dans la chaîne de valeur de l'IA et formulent des arguments nuancés sur les risques et opportunités. Leur participation active montre une progression de la pensée critique, passant de l'intuition à l'analyse argumentée.


Attention à ces idées reçues

  • Pendant Étude de cas : L'algorithme de recrutement biaisé, certains élèves pourraient affirmer : 'L'IA est neutre parce qu'elle est fondée sur des mathématiques et des données.'

    Pendant cette activité, guidez les élèves vers la lecture des données d'entraînement fournies (CV historiques, descriptions de postes). Demandez-leur de repérer les déséquilibres (ex: surreprésentation de diplômés d'écoles prestigieuses) et de mesurer l'impact sur les scores de sélection.

  • Pendant Débat structuré : Peut-on confier des décisions judiciaires à une IA ?, des élèves pourraient déclarer : 'Seuls les ingénieurs sont responsables des problèmes causés par l'IA.'

    Utilisez la structure du débat pour amener les élèves à cartographier les responsabilités de chacun : les juges qui valident l'outil, les éditeurs qui commercialisent le logiciel, les pouvoirs publics qui légifèrent. Le règlement AI Act de 2024 doit servir de référence pour identifier ces acteurs.

  • Pendant Carte des acteurs : Qui est responsable quand une IA discrimine ?, certains pourraient estimer : 'L'IA va nécessairement remplacer tous les emplois dans les prochaines années.'

    Demandez aux élèves de comparer les projections sectorielles (ex: automatisation des tâches administratives vs création de nouveaux métiers dans la maintenance des IA). Utilisez des données de l'OCDE ou de Pôle Emploi pour illustrer les transformations concrètes plutôt que les scénarios catastrophistes.


Méthodes utilisées dans ce dossier