Attività 01
Circolo di indagine: Algoritmi e Pregiudizi
Gli studenti ricercano casi reali in cui l'IA ha mostrato bias (es. nel riconoscimento facciale o nella selezione del personale). Analizzano le cause del pregiudizio nei dati di addestramento e propongono correttivi etici per rendere il sistema più equo.
Valutare il ruolo del governo nel limitare l'uso di algoritmi discriminatori.
Suggerimento per la facilitazioneDurante la Collaborative Investigation, assegna a ogni gruppo un tipo di bias algoritmico diverso (es. razziale, di genere, socioeconomico) per evitare sovrapposizioni e garantire una ricerca mirata.
Cosa osservareOrganizzare un dibattito in classe con la seguente domanda: 'Chi dovrebbe essere legalmente responsabile se un'auto a guida autonoma causa un incidente: il produttore del software, il proprietario del veicolo, o l'IA stessa?'. Guidare la discussione verso la definizione di responsabilità e le sfide legali attuali.