Oggi è fondamentale che docenti e allieve/i imparino a conoscere l’intelligenza artificiale (IA) tra algoritmi, etica e pensiero critico
Dagli algoritmi predittivi nei nostri smartphone, ai chatbot conversazionali come ChatGPT, passando per i sistemi di raccomandazione di Netflix e Youtube, le tecnologie basate sull’intelligenza artificiale sono ormai parte integrante del nostro quotidiano. Non si tratta più solo di una tecnologia di nicchia, che trova applicazioni specifiche in campi professionali come la sanità, la finanza, la giustizia e la formazione, ma di una realtà sempre più pervasiva a disposizione di chiunque. Negli ultimi anni, i progressi nei cosiddetti Large Language Model (LLM) hanno portato allo sviluppo di sistemi capaci di comprendere e generare testi con un grado di coerenza e complessità sorprendenti. Queste tecnologie possiedono il potenziale per trasformare il nostro modo di lavorare, studiare, comunicare e accedere alla conoscenza. Tuttavia, come ogni grande evoluzione tecnologica, anche l’IA solleva interrogativi cruciali di natura etica, sociale e culturale.
Tra le problematiche più note vi è per esempio la tendenza dei modelli di apprendimento automatico a riprodurre o addirittura amplificare pregiudizi e distorsioni presenti nei dati su cui sono stati addestrati (noti come bias). Ad esempio, gli LLM tendono a riproporre stereotipi sociali, mentre modelli usati per prendere decisioni in campo legale, medico o finanziario possono perpetuare discriminazioni etniche o di genere, se non adeguatamente validati e corretti. Un altro problema rilevante è quello delle “allucinazioni” dei modelli generativi, ovvero la produzione di informazioni false o inventate, ma presentate con toni autorevoli e convincenti, come accade talvolta con strumenti noti come ChatGPT o Gemini.
depositphotos
Conoscerla per non temerla
Molti dei rischi associati alle tecnologie di IA derivano, o sono rafforzati, dalla limitata comprensione del loro funzionamento che può portare chi li utilizza a due reazioni opposte e ugualmente problematiche: da un lato, un’eccessiva fiducia nelle risposte fornite dalle macchine; dall’altro, una sfiducia ingiustificata che ne limita i benefici potenziali. Per mitigare i rischi è quindi essenziale educare all’IA non solo chi opera come specialista, ma l’intera cittadinanza, a partire dalle allieve e dagli allievi delle scuole medie, che presto si troveranno a confrontarsi con un mondo in cui l’IA avrà un ruolo importante sia nella vita professionale che in quella quotidiana.
A questo proposito, il Dipartimento formazione e apprendimento / Alta scuola pedagogica (DFA/ASP) della SUPSI, in collaborazione con l’Istituto Dalle Molle di studi sull’intelligenza artificiale (IDSIA, USI-SUPSI), ha promosso una serie di iniziative formative rivolte sia ai/alle docenti che alle allieve e agli allievi delle scuole medie e medie superiori, con l’obiettivo di sviluppare competenze trasversali e critiche sull’uso dell’IA in ambito educativo.
Queste attività si articolano attorno a quattro pilastri fondamentali, ritenuti essenziali per una comprensione completa e sfaccettata dell’IA.
La prima è la ‘dimensione conoscitiva’. In quest’area, l’attenzione è posta sulla comprensione dei principi di base che regolano il funzionamento dell’IA, con attenzione particolare agli algoritmi di machine learning e ai modelli generativi come gli LLM. Si riflette, ad esempio, su come vengano addestrati i chatbot e su quanto (e perché) siano sensibili ai dati di addestramento. L’obiettivo non è diventare sviluppatrici o sviluppatori, ma acquisire consapevolezza di cosa ci si può e non ci si può aspettare da questi sistemi con cui si interagisce quotidianamente.
Una seconda area è la ‘dimensione etica’. Quando le tecnologie vengono integrate nella nostra vita quotidiana e professionale, sollevano diversi interrogativi. Da un lato, emergono questioni su ciò che è bene e male, giusto e ingiusto: è giusto che un/a docente faccia valutare i compiti a ChatGPT? O che uno studente/una studentessa gli faccia risolvere un problema? Oltre che giusto o sbagliato, questo fa bene o male? Dall’altro si aprono riflessioni più tecniche sulla correttezza di tali strumenti: i modelli sono equi? Perpetuano pregiudizi? Rispettano la privacy?
La dimensione etica riflette sugli effetti positivi o negativi sul piano educativo, sociale o personale introducendo concetti come i bias, l’equità, la privacy, la trasparenza e la sostenibilità.
Il terzo pilastro è la ‘dimensione critica’, ed è dedicato all’analisi dei limiti e dei rischi legati all’uso dell’IA, in particolare nel contesto scolastico. Si accompagnano allieve e allievi a valutare l’affidabilità delle risposte generate dai sistemi e a sperimentare di come un uso acritico dell’IA possa portare a una progressiva delega del pensiero, con una possibile riduzione dell’autonomia e delle capacità cognitive. L’obiettivo è stimolare il pensiero critico, evitando tanto l’entusiasmo acritico quanto il rifiuto ideologico.
Infine, nella ‘dimensione operativa’ si propone la sperimentazione diretta di alcuni strumenti di IA, attraverso attività pratiche. Queste esperienze aiutano a potenziare l’autonomia nell’utilizzo delle tecnologie e mostrano anche le possibilità creative ed educative dell’IA in aula.
depositphotos
Dove sono i confini nell’utilizzo dell’IA in ambito scolastico?
Partendo da queste prime esperienze il DFA/ASP e l’IDSIA, in collaborazione con la Fondazione Hasler che ha promosso e finanzia l’iniziativa, hanno dato vita a un ambizioso progetto quinquennale volto a promuovere l’alfabetizzazione all’IA nelle scuole medie del Canton Ticino.
Il progetto si articola in più fasi, a partire dalla definizione di profili di competenza: un lavoro di analisi e selezione delle conoscenze, abilità e atteggiamenti ritenuti fondamentali per una comprensione critica e responsabile dell’IA. A partire da questa base teorica, il progetto prevede poi la progettazione e la realizzazione di percorsi formativi rivolti a docenti in servizio nelle scuole medie, ma anche a insegnanti attualmente in formazione al DFA/ASP.
Parallelamente, un gruppo selezionato di docenti collaborerà con il team di ricerca per sviluppare assieme dei materiali didattici. Questi materiali, che affronteranno l’IA attraverso le quattro dimensioni citate sopra, saranno poi sperimentati in classe per valutarne l’efficacia. L’intero progetto sarà accompagnato da un’attenta valutazione dell’impatto, sia in termini di sviluppo professionale del corpo docenti sia in termini di apprendimento e consapevolezza delle allieve e degli allievi. L’obiettivo finale è contribuire alla formazione di allieve e allievi in grado di utilizzare con consapevolezza, autonomia e spirito critico gli strumenti di IA.
* Professori DFA/ASP
** Ricercatrice e ricercatore presso l’Istituto Dalle Molle di studi sull’intelligenza artificiale (IDSIA)
In collaborazione con il Dipartimento formazione e apprendimento/Alta scuola pedagogica