L'intelligence artificielle et ses enjeux éthiques
Les élèves abordent les questions éthiques soulevées par le développement de l'intelligence artificielle (IA) : biais, autonomie, emploi, surveillance.
À propos de ce thème
L'intelligence artificielle désigne des systèmes informatiques capables d'accomplir des tâches qui requièrent habituellement l'intelligence humaine : reconnaître une image, comprendre un texte, prendre une décision dans un jeu ou prédire un résultat. Ces systèmes apprennent à partir de grandes quantités de données. En France, le cadre réglementaire est en construction : le Règlement européen sur l'IA (AI Act, adopté en 2024) classe les applications d'IA selon leur niveau de risque et impose des obligations proportionnées aux concepteurs.
Les enjeux éthiques de l'IA se posent à plusieurs niveaux. Les biais algorithmiques surviennent lorsque les données d'entraînement reflètent des inégalités sociales existantes, conduisant à des discriminations automatisées. La question de l'autonomie se pose lorsque des décisions importantes (crédit bancaire, libération conditionnelle, médecine diagnostique) sont déléguées à des algorithmes dont le fonctionnement interne n'est pas transparent. La surveillance de masse à partir de données numériques et l'automatisation de l'emploi complètent ce panorama des enjeux civiques.
Ce thème se prête bien aux approches actives car les élèves ont souvent une représentation de l'IA façonnée par la culture populaire qui mérite d'être questionnée par des cas concrets. L'analyse de décisions algorithmiques réelles, le débat sur les responsabilités, ou la simulation d'un audit d'algorithme permettent de construire une compréhension nuancée.
Questions clés
- Expliquez les enjeux éthiques liés au développement de l'intelligence artificielle.
- Analysez les risques de biais et de discrimination dans les algorithmes d'IA.
- Évaluez les responsabilités des concepteurs et des utilisateurs d'IA.
Objectifs d'apprentissage
- Analyser les sources potentielles de biais dans les ensembles de données utilisés pour entraîner des systèmes d'IA.
- Évaluer les implications éthiques de l'automatisation des décisions dans des domaines sensibles comme la justice ou la médecine.
- Comparer les cadres réglementaires actuels (ex: AI Act européen) concernant le développement et l'usage de l'IA.
- Expliquer les risques liés à la surveillance de masse permise par les technologies d'IA.
- Synthétiser les responsabilités éthiques des développeurs, des entreprises et des utilisateurs d'IA.
Avant de commencer
Pourquoi : Les élèves doivent avoir une compréhension de base des technologies numériques et de leur intégration dans la vie quotidienne pour saisir les enjeux de l'IA.
Pourquoi : Une familiarité avec les concepts de droits, de responsabilités et de prise de décision collective est nécessaire pour aborder les questions éthiques et civiques soulevées par l'IA.
Vocabulaire clé
| Biais algorithmique | Tendance d'un algorithme à produire des résultats systématiquement erronés ou injustes, souvent en raison de données d'entraînement reflétant des stéréotypes ou des inégalités sociales. |
| Transparence algorithmique | Capacité à comprendre comment un algorithme prend ses décisions. Le manque de transparence, ou 'boîte noire', pose des problèmes éthiques. |
| Autonomie de l'IA | Degré auquel un système d'IA peut agir et prendre des décisions sans intervention humaine directe, soulevant des questions de responsabilité. |
| Surveillance numérique | Utilisation de technologies pour collecter et analyser des données sur les individus, souvent à grande échelle, posant des risques pour la vie privée et les libertés civiles. |
| AI Act | Règlement européen visant à encadrer l'usage de l'intelligence artificielle en fonction des risques qu'elle présente pour la sécurité et les droits fondamentaux des citoyens. |
Attention à ces idées reçues
Idée reçue couranteL'IA est neutre parce qu'elle est fondée sur des mathématiques et des données.
Ce qu'il faut enseigner à la place
Les algorithmes reflètent les choix de conception et les données sur lesquelles ils ont été entraînés. Si ces données contiennent des biais sociaux (discrimination historique dans l'emploi, la justice, le crédit), l'algorithme les reproduira et les amplifiera. L'étude de cas concrets de biais algorithmiques documentés démontre ce mécanisme de manière tangible.
Idée reçue couranteSeuls les ingénieurs sont responsables des problèmes causés par l'IA.
Ce qu'il faut enseigner à la place
La chaîne de responsabilité s'étend des concepteurs aux acheteurs, aux régulateurs et aux utilisateurs. Un acheteur public qui déploie un outil d'IA sans audit préalable engage sa responsabilité. L'AI Act européen de 2024 crée d'ailleurs des obligations précises pour chaque acteur de la chaîne, y compris pour les déployeurs.
Idée reçue couranteL'IA va nécessairement remplacer tous les emplois dans les prochaines années.
Ce qu'il faut enseigner à la place
Les impacts de l'IA sur l'emploi sont sectoriels et nuancés. Si certaines tâches routinières sont automatisables, l'IA crée aussi de nouveaux métiers et transforme d'autres. L'enjeu civique est d'anticiper ces transformations par des politiques publiques (formation, protection sociale) plutôt que d'adopter une posture fataliste.
Idées d'apprentissage actif
Voir toutes les activitésÉtude de cas: L'algorithme de recrutement biaisé
Présentez aux élèves le cas documenté d'Amazon (2018) dont l'algorithme de recrutement défavorisait les candidatures féminines parce qu'il avait été entraîné sur 10 ans d'embauches majoritairement masculines. Par groupes, ils identifient l'origine du biais, ses conséquences, et proposent des mesures pour l'éviter dans la conception et le déploiement de l'outil.
Débat structuré : Peut-on confier des décisions judiciaires à une IA ?
Deux groupes préparent des arguments opposés sur l'utilisation des algorithmes de prédiction de récidive dans les décisions de justice. Un groupe argumente pour (cohérence, rapidité), l'autre contre (opacité, biais, irresponsabilité). Un ou deux élèves assurent la médiation. La classe rédige collectivement une conclusion distinguant les arguments factuels des arguments de valeur.
Carte des acteurs : Qui est responsable quand une IA discrimine ?
À partir d'un cas fictif (une IA d'attribution de logements sociaux qui discrimine selon le code postal), les élèves cartographient les acteurs impliqués (concepteur, acheteur public, utilisateur final, personne lésée, législateur) et attribuent des niveaux de responsabilité à chacun. La mise en commun révèle la complexité des chaînes de responsabilité.
Liens avec le monde réel
- Les systèmes de recrutement automatisé, utilisés par des entreprises comme Pôle Emploi ou des cabinets de recrutement privés, peuvent reproduire des biais de genre ou d'origine si les données historiques d'embauche sont déséquilibrées.
- Les plateformes de streaming musical comme Spotify ou Deezer utilisent des algorithmes pour recommander du contenu. Ces algorithmes peuvent créer des 'bulles de filtres' limitant la découverte musicale des auditeurs.
- Les dispositifs de reconnaissance faciale déployés dans certaines villes pour la sécurité publique soulèvent des questions sur la vie privée et le risque de surveillance généralisée.
Idées d'évaluation
Présentez aux élèves un scénario : 'Un algorithme est utilisé pour décider de l'attribution des bourses étudiantes. Il a été entraîné sur les données des 10 dernières années.' Posez les questions : Quels sont les risques de biais dans ce cas ? Qui est responsable si une décision est injuste : le programmeur, l'université, ou l'algorithme lui-même ?
Demandez aux élèves d'écrire sur un papier : 1) Un exemple concret d'enjeu éthique lié à l'IA. 2) Une question qu'ils se posent encore sur le sujet. 3) Une chose qu'ils ont apprise aujourd'hui.
Projetez une courte vidéo ou un article de presse présentant une application d'IA (ex: voiture autonome, diagnostic médical assisté par IA). Demandez aux élèves de lever la main pour identifier un avantage potentiel et un risque éthique mentionné ou implicite.
Questions fréquentes
Comment expliquer concrètement ce qu'est un biais algorithmique à des élèves de 3ème ?
Quels textes réglementent l'IA en France et en Europe ?
Comment distinguer IA générale et IA spécialisée dans le programme de 3ème ?
Comment les méthodes actives aident-elles à construire une pensée critique sur l'IA ?
Modèles de planification pour Enseignement moral et civique
Histoire-Géo
Un modèle conçu pour l'analyse de sources primaires, la pensée historique et l'éducation civique. Il propose des activités documentaires, des débats et des études de perspectives.
Planificateur d'unitéSéquence Histoire-Géo
Planifiez une séquence d'histoire-géographie-EMC fondée sur des sources primaires, la pensée historique et l'engagement civique. Les élèves analysent des documents et construisent des raisonnements argumentés sur des questions historiques et contemporaines.
Grille d'évaluationGrille Histoire-Géo
Créez une grille pour les questions sur documents, les argumentations historiques, les exposés ou les débats, qui évalue la pensée historique, l'usage de preuves et la prise en compte de perspectives multiples.
Plus dans Éthique et Enjeux de Société
Le changement climatique et la responsabilité collective
Les élèves discutent des causes et conséquences du changement climatique, et des responsabilités des États, des entreprises et des citoyens.
3 methodologies
La consommation responsable et le développement durable
Les élèves explorent les concepts de consommation responsable et de développement durable, et leur application dans les choix quotidiens.
3 methodologies
La protection de la biodiversité
Les élèves comprennent l'importance de la biodiversité, les menaces qui pèsent sur elle et les actions de conservation à l'échelle locale et mondiale.
3 methodologies
La vie privée à l'ère numérique
Les élèves analysent les enjeux de la protection des données personnelles, les risques liés à la surexposition en ligne et les droits des utilisateurs.
3 methodologies
La lutte contre le cyber-harcèlement
Les élèves identifient les formes de cyber-harcèlement, ses conséquences et les moyens de prévention et de lutte contre ce phénomène.
3 methodologies
Les défis de la bioéthique
Les élèves sont initiés aux questions de bioéthique (procréation, fin de vie, génétique) et aux débats de société qu'elles suscitent.
3 methodologies