Activité 01
Étude de cas: L'algorithme de recrutement biaisé
Présentez aux élèves le cas documenté d'Amazon (2018) dont l'algorithme de recrutement défavorisait les candidatures féminines parce qu'il avait été entraîné sur 10 ans d'embauches majoritairement masculines. Par groupes, ils identifient l'origine du biais, ses conséquences, et proposent des mesures pour l'éviter dans la conception et le déploiement de l'outil.
Expliquez les enjeux éthiques liés au développement de l'intelligence artificielle.
Conseil de facilitationPendant l'étude de cas sur le recrutement biaisé, demandez aux élèves de surligner dans le texte les mots ou phrases qui révèlent un biais, puis de les confronter aux données réelles fournies.
À observerPrésentez aux élèves un scénario : 'Un algorithme est utilisé pour décider de l'attribution des bourses étudiantes. Il a été entraîné sur les données des 10 dernières années.' Posez les questions : Quels sont les risques de biais dans ce cas ? Qui est responsable si une décision est injuste : le programmeur, l'université, ou l'algorithme lui-même ?