Skip to content

L'intelligence artificielle et ses enjeux éthiquesActivités et stratégies pédagogiques

Les enjeux éthiques de l'IA se prêtent mal à un enseignement théorique abstrait. Les élèves retiennent mieux quand ils analysent des situations réelles et confrontent leurs intuitions à des faits concrets. Travailler avec des cas documentés, des débats structurés et des cartes d'acteurs transforme une notion complexe en expérience d'apprentissage tangible et mémorable.

3èmeCitoyenneté, Démocratie et Engagement dans le Monde Contemporain3 activités50 min60 min

Objectifs d’apprentissage

  1. 1Analyser les sources potentielles de biais dans les ensembles de données utilisés pour entraîner des systèmes d'IA.
  2. 2Évaluer les implications éthiques de l'automatisation des décisions dans des domaines sensibles comme la justice ou la médecine.
  3. 3Comparer les cadres réglementaires actuels (ex: AI Act européen) concernant le développement et l'usage de l'IA.
  4. 4Expliquer les risques liés à la surveillance de masse permise par les technologies d'IA.
  5. 5Synthétiser les responsabilités éthiques des développeurs, des entreprises et des utilisateurs d'IA.

Vous souhaitez un plan de cours complet avec ces objectifs ? Générer une mission

55 min·Petits groupes

Étude de cas: L'algorithme de recrutement biaisé

Présentez aux élèves le cas documenté d'Amazon (2018) dont l'algorithme de recrutement défavorisait les candidatures féminines parce qu'il avait été entraîné sur 10 ans d'embauches majoritairement masculines. Par groupes, ils identifient l'origine du biais, ses conséquences, et proposent des mesures pour l'éviter dans la conception et le déploiement de l'outil.

Préparation et détails

Expliquez les enjeux éthiques liés au développement de l'intelligence artificielle.

Conseil de facilitation: Pendant l'étude de cas sur le recrutement biaisé, demandez aux élèves de surligner dans le texte les mots ou phrases qui révèlent un biais, puis de les confronter aux données réelles fournies.

Setup: Groupes de travail en îlots avec dossiers documentaires

Materials: Dossier d'étude de cas (3 à 5 pages), Grille d'analyse méthodologique, Support de présentation des conclusions

AnalyserÉvaluerCréerPrise de décisionAutogestion
60 min·Classe entière

Débat structuré : Peut-on confier des décisions judiciaires à une IA ?

Deux groupes préparent des arguments opposés sur l'utilisation des algorithmes de prédiction de récidive dans les décisions de justice. Un groupe argumente pour (cohérence, rapidité), l'autre contre (opacité, biais, irresponsabilité). Un ou deux élèves assurent la médiation. La classe rédige collectivement une conclusion distinguant les arguments factuels des arguments de valeur.

Préparation et détails

Analysez les risques de biais et de discrimination dans les algorithmes d'IA.

Conseil de facilitation: Pour le débat sur les décisions judiciaires, limitez chaque intervention à 2 minutes et utilisez un chronomètre visible pour maintenir la rigueur du format.

Setup: Chaises disposées en deux cercles concentriques

Materials: Question de départ ou problématique (projetée), Grille d'observation pour le cercle extérieur

AnalyserÉvaluerCréerConscience socialeCompétences relationnelles
50 min·Petits groupes

Carte des acteurs : Qui est responsable quand une IA discrimine ?

À partir d'un cas fictif (une IA d'attribution de logements sociaux qui discrimine selon le code postal), les élèves cartographient les acteurs impliqués (concepteur, acheteur public, utilisateur final, personne lésée, législateur) et attribuent des niveaux de responsabilité à chacun. La mise en commun révèle la complexité des chaînes de responsabilité.

Préparation et détails

Évaluez les responsabilités des concepteurs et des utilisateurs d'IA.

Conseil de facilitation: Lors de la création de la carte des acteurs, imposez l'utilisation de couleurs différentes pour chaque niveau de responsabilité (concepteurs, déployeurs, régulateurs) pour éviter les confusions.

Setup: Chaises disposées en deux cercles concentriques

Materials: Question de départ ou problématique (projetée), Grille d'observation pour le cercle extérieur

AnalyserÉvaluerCréerConscience socialeCompétences relationnelles

Enseigner ce sujet

Commencez par des exemples simples et proches des élèves, comme les recommandations de contenus sur les réseaux sociaux, avant d'aborder des cas complexes. Évitez de présenter l'IA comme une boîte noire : décortiquez toujours les étapes entre les données d'entrée et la décision algorithmique. Privilégiez les travaux de groupe pour que les élèves verbalisent leurs raisonnements et corrigent mutuellement leurs erreurs.

À quoi s’attendre

Les élèves distinguent clairement les mécanismes des biais algorithmiques, identifient la répartition des responsabilités dans la chaîne de valeur de l'IA et formulent des arguments nuancés sur les risques et opportunités. Leur participation active montre une progression de la pensée critique, passant de l'intuition à l'analyse argumentée.

Ces activités sont un point de départ. La mission complète est l’expérience.

  • Script de facilitation complet avec dialogues de l’enseignant
  • Supports élèves imprimables, prêts pour la classe
  • Stratégies de différenciation pour chaque profil d’apprenant
Générer une mission

Attention à ces idées reçues

Idée reçue courantePendant Étude de cas : L'algorithme de recrutement biaisé, certains élèves pourraient affirmer : 'L'IA est neutre parce qu'elle est fondée sur des mathématiques et des données.'

Ce qu'il faut enseigner à la place

Pendant cette activité, guidez les élèves vers la lecture des données d'entraînement fournies (CV historiques, descriptions de postes). Demandez-leur de repérer les déséquilibres (ex: surreprésentation de diplômés d'écoles prestigieuses) et de mesurer l'impact sur les scores de sélection.

Idée reçue courantePendant Débat structuré : Peut-on confier des décisions judiciaires à une IA ?, des élèves pourraient déclarer : 'Seuls les ingénieurs sont responsables des problèmes causés par l'IA.'

Ce qu'il faut enseigner à la place

Utilisez la structure du débat pour amener les élèves à cartographier les responsabilités de chacun : les juges qui valident l'outil, les éditeurs qui commercialisent le logiciel, les pouvoirs publics qui légifèrent. Le règlement AI Act de 2024 doit servir de référence pour identifier ces acteurs.

Idée reçue courantePendant Carte des acteurs : Qui est responsable quand une IA discrimine ?, certains pourraient estimer : 'L'IA va nécessairement remplacer tous les emplois dans les prochaines années.'

Ce qu'il faut enseigner à la place

Demandez aux élèves de comparer les projections sectorielles (ex: automatisation des tâches administratives vs création de nouveaux métiers dans la maintenance des IA). Utilisez des données de l'OCDE ou de Pôle Emploi pour illustrer les transformations concrètes plutôt que les scénarios catastrophistes.

Idées d'évaluation

Question de discussion

Après Étude de cas : L'algorithme de recrutement biaisé, présentez un extrait de CV et demandez : 'Si cet algorithme avait été entraîné sur ces données, aurait-il favorisé ce profil ? Pourquoi ?' Notez les réponses des élèves pour évaluer leur capacité à identifier les biais dans des données réelles.

Billet de sortie

Pendant Débat structuré : Peut-on confier des décisions judiciaires à une IA ?, demandez aux élèves de noter à la fin : 1) Un exemple d'avantage de l'IA en justice, 2) Un risque éthique qu'ils ont retenu, 3) Une question qui leur reste sur le sujet.

Vérification rapide

Après Carte des acteurs : Qui est responsable quand une IA discrimine ?, projetez une capture d'écran d'un chatbot discriminatoire (ex: refus de prêt bancaire). Demandez aux élèves d'écrire sur une feuille : un avantage de ce système et un risque éthique lié à la responsabilité, à rendre avant de sortir.

Extensions et étayage

  • Challenge : Proposez aux élèves de concevoir une charte éthique pour une application d'IA fictive de leur choix, en justifiant chaque principe.
  • Scaffolding : Fournissez un tableau à double entrée pour l'étude de cas, avec des colonnes 'Données utilisées', 'Biais identifiés', 'Conséquences possibles' et 'Responsables'.
  • Deeper exploration : Invitez un professionnel de l'éthique numérique (en visio ou en présentiel) à partager son expérience sur un projet concret.

Vocabulaire clé

Biais algorithmiqueTendance d'un algorithme à produire des résultats systématiquement erronés ou injustes, souvent en raison de données d'entraînement reflétant des stéréotypes ou des inégalités sociales.
Transparence algorithmiqueCapacité à comprendre comment un algorithme prend ses décisions. Le manque de transparence, ou 'boîte noire', pose des problèmes éthiques.
Autonomie de l'IADegré auquel un système d'IA peut agir et prendre des décisions sans intervention humaine directe, soulevant des questions de responsabilité.
Surveillance numériqueUtilisation de technologies pour collecter et analyser des données sur les individus, souvent à grande échelle, posant des risques pour la vie privée et les libertés civiles.
AI ActRèglement européen visant à encadrer l'usage de l'intelligence artificielle en fonction des risques qu'elle présente pour la sécurité et les droits fondamentaux des citoyens.

Prêt à enseigner L'intelligence artificielle et ses enjeux éthiques ?

Générez une mission complète avec tout ce dont vous avez besoin

Générer une mission