Aller au contenu
Enseignement moral et civique · 3ème · Éthique et Enjeux de Société · 3e Trimestre

L'intelligence artificielle et ses enjeux éthiques

Les élèves abordent les questions éthiques soulevées par le développement de l'intelligence artificielle (IA) : biais, autonomie, emploi, surveillance.

Programmes OfficielsMEN: Cycle 4 - Construire une culture civique

À propos de ce thème

L'intelligence artificielle désigne des systèmes informatiques capables d'accomplir des tâches qui requièrent habituellement l'intelligence humaine : reconnaître une image, comprendre un texte, prendre une décision dans un jeu ou prédire un résultat. Ces systèmes apprennent à partir de grandes quantités de données. En France, le cadre réglementaire est en construction : le Règlement européen sur l'IA (AI Act, adopté en 2024) classe les applications d'IA selon leur niveau de risque et impose des obligations proportionnées aux concepteurs.

Les enjeux éthiques de l'IA se posent à plusieurs niveaux. Les biais algorithmiques surviennent lorsque les données d'entraînement reflètent des inégalités sociales existantes, conduisant à des discriminations automatisées. La question de l'autonomie se pose lorsque des décisions importantes (crédit bancaire, libération conditionnelle, médecine diagnostique) sont déléguées à des algorithmes dont le fonctionnement interne n'est pas transparent. La surveillance de masse à partir de données numériques et l'automatisation de l'emploi complètent ce panorama des enjeux civiques.

Ce thème se prête bien aux approches actives car les élèves ont souvent une représentation de l'IA façonnée par la culture populaire qui mérite d'être questionnée par des cas concrets. L'analyse de décisions algorithmiques réelles, le débat sur les responsabilités, ou la simulation d'un audit d'algorithme permettent de construire une compréhension nuancée.

Questions clés

  1. Expliquez les enjeux éthiques liés au développement de l'intelligence artificielle.
  2. Analysez les risques de biais et de discrimination dans les algorithmes d'IA.
  3. Évaluez les responsabilités des concepteurs et des utilisateurs d'IA.

Objectifs d'apprentissage

  • Analyser les sources potentielles de biais dans les ensembles de données utilisés pour entraîner des systèmes d'IA.
  • Évaluer les implications éthiques de l'automatisation des décisions dans des domaines sensibles comme la justice ou la médecine.
  • Comparer les cadres réglementaires actuels (ex: AI Act européen) concernant le développement et l'usage de l'IA.
  • Expliquer les risques liés à la surveillance de masse permise par les technologies d'IA.
  • Synthétiser les responsabilités éthiques des développeurs, des entreprises et des utilisateurs d'IA.

Avant de commencer

La société de l'information et ses usages

Pourquoi : Les élèves doivent avoir une compréhension de base des technologies numériques et de leur intégration dans la vie quotidienne pour saisir les enjeux de l'IA.

Principes de base de la citoyenneté et de la démocratie

Pourquoi : Une familiarité avec les concepts de droits, de responsabilités et de prise de décision collective est nécessaire pour aborder les questions éthiques et civiques soulevées par l'IA.

Vocabulaire clé

Biais algorithmiqueTendance d'un algorithme à produire des résultats systématiquement erronés ou injustes, souvent en raison de données d'entraînement reflétant des stéréotypes ou des inégalités sociales.
Transparence algorithmiqueCapacité à comprendre comment un algorithme prend ses décisions. Le manque de transparence, ou 'boîte noire', pose des problèmes éthiques.
Autonomie de l'IADegré auquel un système d'IA peut agir et prendre des décisions sans intervention humaine directe, soulevant des questions de responsabilité.
Surveillance numériqueUtilisation de technologies pour collecter et analyser des données sur les individus, souvent à grande échelle, posant des risques pour la vie privée et les libertés civiles.
AI ActRèglement européen visant à encadrer l'usage de l'intelligence artificielle en fonction des risques qu'elle présente pour la sécurité et les droits fondamentaux des citoyens.

Attention à ces idées reçues

Idée reçue couranteL'IA est neutre parce qu'elle est fondée sur des mathématiques et des données.

Ce qu'il faut enseigner à la place

Les algorithmes reflètent les choix de conception et les données sur lesquelles ils ont été entraînés. Si ces données contiennent des biais sociaux (discrimination historique dans l'emploi, la justice, le crédit), l'algorithme les reproduira et les amplifiera. L'étude de cas concrets de biais algorithmiques documentés démontre ce mécanisme de manière tangible.

Idée reçue couranteSeuls les ingénieurs sont responsables des problèmes causés par l'IA.

Ce qu'il faut enseigner à la place

La chaîne de responsabilité s'étend des concepteurs aux acheteurs, aux régulateurs et aux utilisateurs. Un acheteur public qui déploie un outil d'IA sans audit préalable engage sa responsabilité. L'AI Act européen de 2024 crée d'ailleurs des obligations précises pour chaque acteur de la chaîne, y compris pour les déployeurs.

Idée reçue couranteL'IA va nécessairement remplacer tous les emplois dans les prochaines années.

Ce qu'il faut enseigner à la place

Les impacts de l'IA sur l'emploi sont sectoriels et nuancés. Si certaines tâches routinières sont automatisables, l'IA crée aussi de nouveaux métiers et transforme d'autres. L'enjeu civique est d'anticiper ces transformations par des politiques publiques (formation, protection sociale) plutôt que d'adopter une posture fataliste.

Idées d'apprentissage actif

Voir toutes les activités

Liens avec le monde réel

  • Les systèmes de recrutement automatisé, utilisés par des entreprises comme Pôle Emploi ou des cabinets de recrutement privés, peuvent reproduire des biais de genre ou d'origine si les données historiques d'embauche sont déséquilibrées.
  • Les plateformes de streaming musical comme Spotify ou Deezer utilisent des algorithmes pour recommander du contenu. Ces algorithmes peuvent créer des 'bulles de filtres' limitant la découverte musicale des auditeurs.
  • Les dispositifs de reconnaissance faciale déployés dans certaines villes pour la sécurité publique soulèvent des questions sur la vie privée et le risque de surveillance généralisée.

Idées d'évaluation

Question de discussion

Présentez aux élèves un scénario : 'Un algorithme est utilisé pour décider de l'attribution des bourses étudiantes. Il a été entraîné sur les données des 10 dernières années.' Posez les questions : Quels sont les risques de biais dans ce cas ? Qui est responsable si une décision est injuste : le programmeur, l'université, ou l'algorithme lui-même ?

Billet de sortie

Demandez aux élèves d'écrire sur un papier : 1) Un exemple concret d'enjeu éthique lié à l'IA. 2) Une question qu'ils se posent encore sur le sujet. 3) Une chose qu'ils ont apprise aujourd'hui.

Vérification rapide

Projetez une courte vidéo ou un article de presse présentant une application d'IA (ex: voiture autonome, diagnostic médical assisté par IA). Demandez aux élèves de lever la main pour identifier un avantage potentiel et un risque éthique mentionné ou implicite.

Questions fréquentes

Comment expliquer concrètement ce qu'est un biais algorithmique à des élèves de 3ème ?
L'approche par l'exemple est la plus efficace. Un algorithme de tri de CV entraîné sur des embauches passées reproduit les préférences historiques de l'employeur. Si une profession était à 90 % masculine, l'algorithme privilégie statistiquement les candidatures masculines. Le cas Amazon (2018) est documenté, accessible, et directement compréhensible par des collégiens.
Quels textes réglementent l'IA en France et en Europe ?
L'AI Act européen (Règlement UE 2024/1689) est le premier cadre réglementaire complet au monde sur l'IA. Il classe les systèmes d'IA en quatre niveaux de risque (inacceptable, élevé, limité, minimal) et impose des obligations de transparence et d'audit pour les applications à haut risque comme le recrutement, la justice ou l'éducation. En France, la CNIL est impliquée dans l'application du règlement.
Comment distinguer IA générale et IA spécialisée dans le programme de 3ème ?
Les systèmes d'IA actuels sont des IA 'étroites' ou spécialisées : elles excellent dans une tâche précise (reconnaissance d'images, traduction, génération de texte) mais ne peuvent pas transférer leurs compétences à d'autres domaines. L'IA générale reste un objectif de recherche. Cette distinction évite les représentations apocalyptiques issues de la science-fiction.
Comment les méthodes actives aident-elles à construire une pensée critique sur l'IA ?
L'IA est un sujet où les représentations préconçues sont très fortes. Les activités de débat structuré ou d'analyse de cas obligent les élèves à confronter leurs intuitions à des faits documentés et à des arguments contradictoires, ce qui est la condition pour développer une posture citoyenne éclairée plutôt qu'une réaction émotionnelle.

Modèles de planification pour Enseignement moral et civique