Skip to content
Technologie · 5ème

Idées d’apprentissage actif

IA et éthique : Questions et débats

Les élèves de 5e ont besoin d'expérimenter concrètement les enjeux éthiques pour passer d'une vision abstraite de l'IA à une compréhension active des dilemmes qu'elle pose. Ces activités les placent en position de questionner, d'analyser et de débattre, transformant des concepts complexes en expériences tangibles et mémorables.

Programmes OfficielsMEN: Cycle 4 - Developpement du comportement responsableMEN: Cycle 4 - Enjeux sociétaux du numérique
20–35 minBinômes → Classe entière4 activités

Activité 01

Chaises philosophiques25 min · Classe entière

Débat mouvant : L'IA doit-elle décider à notre place ?

L'enseignant lit une affirmation clivante (ex : 'Un algorithme devrait décider qui obtient un prêt bancaire'). Les élèves se placent physiquement d'un côté ou l'autre de la salle selon leur position. Après des échanges d'arguments, ils peuvent changer de camp. On conclut par une synthèse des arguments les plus convaincants.

Comment les biais humains peuvent-ils se retrouver dans les algorithmes d'IA ?

Conseil de facilitationPendant le débat mouvant, placez physiquement les élèves d'un côté ou de l'autre de la salle pour matérialiser leur position et faciliter les échanges.

À observerPrésentez aux élèves un scénario : 'Une IA est utilisée pour présélectionner les candidatures à un emploi. Elle privilégie systématiquement les candidats ayant fréquenté certaines écoles.' Demandez : 'Quels sont les risques éthiques ici ? Qui pourrait être responsable si des candidats qualifiés sont écartés à cause de l'IA ?'

AnalyserÉvaluerConscience de soiConscience sociale
Générer une leçon complète

Activité 02

Étude de cas30 min · Petits groupes

Étude de cas: Biais dans la reconnaissance faciale

Chaque groupe reçoit un dossier documentaire sur un cas réel de biais (ex : taux d'erreur plus élevé sur certaines populations). Les élèves identifient l'origine du biais (données d'entraînement), ses conséquences, et proposent des pistes de correction. Restitution croisée entre groupes.

Évaluez les enjeux éthiques liés à l'utilisation de l'IA dans la prise de décision.

Conseil de facilitationPour l'étude de cas sur la reconnaissance faciale, affichez les résultats d'audit des biais sous forme de tableau comparatif pour rendre les discriminations visibles.

À observerSur un post-it, demandez aux élèves d'écrire une question éthique importante qu'ils se posent sur l'IA, et une raison pour laquelle la transparence d'une IA est importante.

AnalyserÉvaluerCréerPrise de décisionAutogestion
Générer une leçon complète

Activité 03

Chaises philosophiques35 min · Petits groupes

Atelier d'écriture : Rédiger une charte éthique de l'IA

Par groupes de 4, les élèves rédigent une charte de 5 à 8 principes pour une utilisation responsable de l'IA dans leur collège. Chaque groupe présente sa charte. La classe vote pour les principes les plus pertinents et compose une charte collective.

Justifiez l'importance de la transparence et de l'explicabilité des systèmes d'IA.

Conseil de facilitationLors de l'atelier d'écriture de charte, imposez un temps strict de 5 minutes par section pour éviter que les élèves ne s'enlisent dans des détails techniques au détriment des principes éthiques.

À observerProposez une liste de courtes affirmations sur l'IA et l'éthique (ex: 'Les IA sont toujours objectives.', 'Les biais dans les IA viennent uniquement des programmeurs.'). Les élèves doivent indiquer si chaque affirmation est VRAI ou FAUX et expliquer brièvement leur choix pour une affirmation.

AnalyserÉvaluerConscience de soiConscience sociale
Générer une leçon complète

Activité 04

Penser-Partager-Présenter20 min · Binômes

Penser-Partager-Présenter: Qui est responsable quand l'IA se trompe ?

Chaque élève réfléchit individuellement à un scénario (voiture autonome qui cause un accident). En binôme, ils comparent leurs réponses sur la responsabilité (constructeur, programmeur, utilisateur, personne). La classe partage les différentes positions et identifie les arguments récurrents.

Comment les biais humains peuvent-ils se retrouver dans les algorithmes d'IA ?

Conseil de facilitationPour le Think-Pair-Share, donnez à chaque élève un rôle précis (expert technique, utilisateur, victime) pour varier les points de vue.

À observerPrésentez aux élèves un scénario : 'Une IA est utilisée pour présélectionner les candidatures à un emploi. Elle privilégie systématiquement les candidats ayant fréquenté certaines écoles.' Demandez : 'Quels sont les risques éthiques ici ? Qui pourrait être responsable si des candidats qualifiés sont écartés à cause de l'IA ?'

ComprendreAppliquerAnalyserConscience de soiCompétences relationnelles
Générer une leçon complète

Modèles

Modèles qui complètent ces activités de Technologie

Utilisez, modifiez, imprimez ou partagez.

Quelques notes pour enseigner cette unité

Commencez toujours par des exemples concrets tirés de leur quotidien : réseaux sociaux, jeux vidéo, moteurs de recherche. Évitez d'entrer dans des détails techniques trop tôt, cela brouille la compréhension des enjeux éthiques. Privilégiez les discussions en petits groupes pour désamorcer les blocages liés à la complexité du sujet. Les recherches montrent que les élèves retiennent mieux quand ils peuvent projeter les dilemmes sur leur propre vie.

Les élèves identifient au moins deux biais algorithmiques courants, formulent une critique argumentée d'un système d'IA et proposent des pistes concrètes pour améliorer son éthique. Ils sont capables d'expliquer pourquoi la neutralité algorithmique est une illusion et de défendre leur position avec des exemples précis.


Attention à ces idées reçues

  • During l'activité 'Débat mouvant : L'IA doit-elle décider à notre place ?', écoutez pour repérer les affirmations comme 'Les algorithmes sont objectifs par nature'.

    Interrompez le débat pour demander : 'Si un algorithme de recrutement exclut systématiquement les candidats d'une certaine origine géographique, est-ce vraiment de sa faute ?' Puis référez-vous aux résultats de l'étude de cas sur la reconnaissance faciale pour montrer que les biais viennent des données, pas de la machine.

  • During l'activité 'Étude de cas : Biais dans la reconnaissance faciale', repérez les réactions comme 'C'est aux entreprises de régler ça'.

    Demandez aux élèves de relire les conditions d'utilisation des services qu'ils utilisent (ex : Instagram, Snapchat) et de noter les clauses qui leur donnent un pouvoir de contrôle sur leurs données. Soulignez que chaque partage de photo est un choix éthique, même s'ils ne le voient pas ainsi.

  • During l'atelier 'Rédiger une charte éthique de l'IA', soyez attentif aux propositions qui visent à 'interdire tous les biais'.

    Arrêtez l'atelier pour expliquer que tous les systèmes comportent des biais, même les plus aboutis. Utilisez l'exemple d'un système de recommandation de musique qui favorise les artistes masculins simplement parce qu'ils sont mieux représentés dans les données d'entraînement. Guidez-les vers des solutions pragmatiques comme l'audit régulier ou la diversification des sources de données.


Méthodes utilisées dans ce dossier