Attività 01
Analisi di casi di studio: Quando l'IA discrimina
In piccoli gruppi, gli studenti analizzano due o tre casi documentati di bias algoritmici (es. sistemi di selezione del personale che penalizzano le donne, algoritmi di riconoscimento facciale meno accurati su pelli scure, scoring creditizi che penalizzano aree geografiche specifiche). Identificano il tipo di bias, le cause e le conseguenze per le persone coinvolte.
Spiegare come i bias umani possono essere incorporati negli algoritmi di Intelligenza Artificiale.
Suggerimento per la facilitazioneDurante il *Case Study*, chiedi agli studenti di evidenziare nel testo almeno due indizi che mostrano la presenza di bias, non limitandosi a descriverlo.
Cosa osservarePresentare agli studenti uno scenario ipotetico: un sistema di IA utilizzato per la selezione del personale scarta sistematicamente candidati provenienti da determinate aree geografiche. Chiedere: 'Chi ritenete sia responsabile di questa discriminazione? Lo sviluppatore dell'algoritmo, l'azienda che lo utilizza, o i dati su cui è stato addestrato? Giustificate la vostra risposta.'