Skip to content
Educazione civica · 5a Liceo

Idee di apprendimento attivo

Algoritmi e Democrazia

Gli studenti del quinto anno hanno bisogno di strumenti concreti per decriptare i meccanismi che stanno dietro ai contenuti che incontrano ogni giorno online. Attraverso attività collaborative e riflessioni guidate, possono trasformare la consapevolezza teorica in competenze attive di cittadinanza digitale, fondamentali per partecipare consapevolmente alla vita democratica.

Traguardi per lo Sviluppo delle CompetenzeMIUR: Sec. II grado - Libertà di espressioneMIUR: Sec. II grado - Analisi dei media
40–75 minCoppie → Intera classe4 attività

Attività 01

Circolo di indagine60 min · Individuale

Circolo di indagine: Analisi del Mio Feed

Gli studenti analizzano il proprio feed su una piattaforma a scelta per 10-15 minuti, annotando quante posizioni diverse su un tema politico compaiono, quanti contenuti provengono da fonti al di fuori della loro rete abituale e quale tipo di contenuto riceve maggiore visibilità. I risultati vengono aggregati in modo anonimo e discussi in classe per identificare pattern comuni.

Spiegare come gli algoritmi influenzano le 'bolle informative' e la percezione della realtà.

Suggerimento per la facilitazioneDurante l'Analisi del Mio Feed, chiedi agli studenti di annotare non solo i contenuti visualizzati ma anche i tempi di visualizzazione e le reazioni emotive generate, per collegare dati quantitativi a percezioni qualitative.

Cosa osservareAvvia una discussione guidata chiedendo agli studenti: 'Descrivete un esempio concreto di come il vostro feed di notizie su un social media potrebbe avervi mostrato contenuti che confermano le vostre idee preesistenti. Quali sono le conseguenze di questa esperienza per la vostra comprensione di opinioni diverse?'

AnalizzareValutareCreareAutogestioneAutoconsapevolezza
Genera lezione completa

Attività 02

Dibattito regolamentato75 min · Piccoli gruppi

Dibattito regolamentato: Le Piattaforme Devono Rispondere dei Contenuti?

Due squadre discutono la responsabilità legale ed etica delle piattaforme digitali per i contenuti pubblicati dagli utenti. Una sostiene la necessità di regolamentazione (Digital Services Act europeo), l'altra sottolinea i rischi per la libertà di espressione e le difficoltà tecniche della moderazione su larga scala. Entrambe usano dati e casi concreti a supporto.

Analizzare le responsabilità delle piattaforme digitali sui contenuti pubblicati dagli utenti.

Suggerimento per la facilitazioneNel dibattito strutturato sulle responsabilità delle piattaforme, assegna ruoli specifici (es. difensore delle piattaforme, rappresentante degli utenti, esperto di algoritmi) per stimolare argomentazioni più mirate e profonde.

Cosa osservareChiedi agli studenti di scrivere su un foglio: 1) Una definizione personale di 'bolla informativa'. 2) Un esempio di come un algoritmo potrebbe contribuire a crearla. 3) Una possibile strategia per 'uscire' da una bolla informativa.

AnalizzareValutareCreareAutogestioneProcesso Decisionale
Genera lezione completa

Attività 03

Think-Pair-Share40 min · Coppie

Think-Pair-Share: Sono Dentro una Bolla Informativa?

Dopo una breve spiegazione sul funzionamento degli algoritmi di raccomandazione, gli studenti riflettono individualmente su domande guida: quali voci politiche diverse dalla propria seguono, da quante fonti si informano, se le notizie che leggono confermano sempre le loro aspettative. Discutono in coppia e poi condividono strategie concrete per uscire dalla propria bolla informativa.

Valutare come gli algoritmi possono alimentare pregiudizi e discriminazioni sociali.

Suggerimento per la facilitazionePer la Think-Pair-Share sulla bolla informativa, fornisci una lista di fonti di diverso orientamento politico o culturale già selezionate, in modo che gli studenti possano confrontarle senza perdersi nella ricerca.

Cosa osservarePresenta agli studenti tre scenari ipotetici di interazione sui social media. Chiedi loro di identificare in ciascuno scenario se l'algoritmo sta potenzialmente creando una 'camera dell'eco' o una 'bolla informativa' e di spiegare brevemente il perché.

ComprendereApplicareAnalizzareAutoconsapevolezzaAbilità Relazionali
Genera lezione completa

Attività 04

Gallery Walk65 min · Piccoli gruppi

Gallery Walk: Algoritmi e Bias Sistematici

Casi studio di bias algoritmici documentati vengono affissi nell'aula: discriminazione negli algoritmi di selezione del credito, profilazione etnica in sistemi di riconoscimento facciale, amplificazione di contenuti estremisti. I gruppi analizzano ciascun caso identificando il meccanismo tecnico, il danno sociale e la risposta regolamentare o istituzionale adottata.

Spiegare come gli algoritmi influenzano le 'bolle informative' e la percezione della realtà.

Suggerimento per la facilitazioneNella Gallery Walk sui bias sistematici, posiziona ogni pannello con un esempio reale di discriminazione algoritmica e chiedi agli studenti di collegarlo a una notizia o a un fenomeno sociale che hanno osservato di recente.

Cosa osservareAvvia una discussione guidata chiedendo agli studenti: 'Descrivete un esempio concreto di come il vostro feed di notizie su un social media potrebbe avervi mostrato contenuti che confermano le vostre idee preesistenti. Quali sono le conseguenze di questa esperienza per la vostra comprensione di opinioni diverse?'

ComprendereApplicareAnalizzareCreareAbilità RelazionaliConsapevolezza Sociale
Genera lezione completa

Alcune note per insegnare questa unità

Insegnare questo tema richiede di partire dagli esempi concreti che gli studenti già vivono ogni giorno. Evita di presentare gli algoritmi come entità astratte: lavora su screenshot dei loro feed, notizie di cronaca su discriminazioni algoritmiche o discussioni su fenomeni virali. L'obiettivo è far emergere la consapevolezza che dietro ogni like o visualizzazione c'è una scelta progettuale precisa. Usa domande aperte che costringano a riflettere sulle conseguenze sociali, non solo tecniche, dei meccanismi algoritmici.

Gli studenti dimostrano di aver compreso come gli algoritmi influenzano la formazione delle opinioni e il dibattito pubblico, riconoscendo bias nei propri feed e discutendo responsabilmente delle responsabilità delle piattaforme. Sono in grado di proporre strategie per ampliare la propria esposizione a prospettive diverse e di argomentare con esempi concreti.


Attenzione a questi errori comuni

  • Durante l'Analisi del Mio Feed, alcuni studenti potrebbero affermare: 'Gli algoritmi sono neutrali perché sono programmi informatici e non hanno opinioni'.

    Durante l'Analisi del Mio Feed, chiedi agli studenti di esaminare insieme uno screenshot del proprio feed e di notare quali tipi di contenuti vengono promossi (es. notizie polarizzanti, pubblicità mirata, contenuti virali). Fate emergere come queste scelte riflettano obiettivi aziendali come il tempo di visualizzazione o l'engagement, non la neutralità.

  • Durante la Think-Pair-Share sulla bolla informativa, alcuni studenti potrebbero dire: 'Uscire dalle bolle informative è semplice: basta seguire più fonti'.

    Durante la Think-Pair-Share, distribuisci una lista di fonti con orientamenti politici o culturali diversi e chiedi agli studenti di confrontare come ciascuna tratta lo stesso argomento. Fate riflettere su come il bias di conferma porti a ignorare o criticare ciò che non corrisponde alle proprie convinzioni preesistenti.

  • Durante il dibattito strutturato sulle responsabilità delle piattaforme, alcuni studenti potrebbero sostenere: 'I social media hanno solo effetti negativi sulla democrazia'.

    Durante il dibattito, presenta esempi concreti di come le piattaforme abbiano facilitato la partecipazione politica (es. movimenti come Fridays for Future) o reso accessibili informazioni prima riservate a pochi. Invita gli studenti a bilanciare i benefici con i rischi, usando dati o casi di studio discussi durante la Gallery Walk sui bias sistematici.


Metodologie usate in questo brief