Nel 2011, l'ex giudice Kay Firth-Butterfield iniziò a riflettere su come gli esseri umani avrebbero potuto vivere e lavorare con l'intelligenza artificiale (IA). È ricercatrice senior presso l'Università del Texas, dove si occupa di studio dell'uso e della governance delle tecnologie (IA). Nel 2014 è diventata la prima responsabile al mondo per l'etica dell'IA (presso Lucid Holdings LLC) ed è una delle massime esperte in materia di IA responsabile. Per oltre cinque anni ha guidato il settore IA e apprendimento automatico presso il World Economic Forum, dove si è occupata di orientare nazioni e imprese verso un uso responsabile delle nuove tecnologie. Fa parte di un consiglio e di un comitato consultivo rispettivamente per l'amministrazione statunitense e per l'UNESCO.

Oggi è amministratrice delegata di Good Tech Advisory, un'organizzazione che collabora con governi, enti di beneficenza, aziende e istituzioni accademiche per contribuire all'implementazione di un utilizzo responsabile e produttivo dell'intelligenza artificiale, nel rispetto delle normative vigenti. Da tempo riconosciuta come una figura di spicco nella governance dell'IA, a febbraio di quest'anno ha ricevuto il premio TIME100 Impact Award.

Ha parlato con BOLD riguardo alle sfide che scuole e università, studenti e insegnanti si trovano ad affrontare nel confronto con l'avanzare dell'intelligenza artificiale.

Helena Pozniak: L'utilizzo dell'intelligenza artificiale in ambito educativo è inevitabile?

Kay Firth-Butterfield: Sì, non possiamo più tirarci indietro. Gli studenti lo useranno per i compiti. Dobbiamo concentrarci maggiormente su come renderlo sicuro per loro, piuttosto che vietarlo. L'intelligenza artificiale generativa sta rendendo le informazioni su Internet più accessibili. Man mano che migliora, diventa di fatto il cervello che ci sta accanto. Ma è fondamentale fare le cose per bene: i nostri figli devono essere educati a lavorare e vivere con l'intelligenza artificiale. Sono gli esseri umani che dovrebbero essere al comando. Ci sono molti pregiudizi nei modelli linguistici su larga scala. È essenziale che tutti gli utenti siano formati per comprendere cosa la macchina può fare per noi e quali sono i suoi limiti.

HP: Quali sono i pericoli dell'intelligenza artificiale per i bambini?

KFB: Una delle cose che mi preoccupano è che i bambini formano le loro convinzioni, i loro valori e i loro atteggiamenti prima dei sette anni, quindi dobbiamo riflettere attentamente sulle politiche per la prima infanzia.

Dobbiamo assolutamente comprendere l'impatto dei giocattoli educativi che diamo ai bambini. I computer sono probabilmente più abili degli esseri umani nell'influenzare, orientare e manipolare il comportamento. Dobbiamo inoltre sapere dove si trovano i dati dei bambini, se i dispositivi possono essere hackerati e se i bambini possono essere identificati.

"Ma è fondamentale farlo nel modo giusto: i nostri figli devono essere educati a lavorare e convivere con l'intelligenza artificiale."

La maggior parte dei giocattoli con intelligenza artificiale per bambini piccoli, come le "bambole intelligenti", sono prodotti in Cina. Se si desidera che un giocattolo connesso possa "conversare" con il proprio figlio, il giocattolo dovrà raccogliere dati dalle interazioni. Dove vengono archiviate queste informazioni e sono al sicuro? Non lo sappiamo, quindi sorgono enormi problemi di privacy dei dati.

Dobbiamo anche discutere fino a che punto siamo disposti a permettere alla tecnologia di "prendersi cura" dei nostri figli. Cosa succederebbe se questa bambola connessa diventasse la migliore amica di un bambino, ma poi "morisse"? Come reagirebbe il bambino? Una "morte" del genere sarebbe più difficile da sopportare rispetto alla rottura di un orsacchiotto? E se il tuo migliore amico fosse una macchina? Interagire con queste macchine è forse una preparazione al futuro? Non lo sappiamo ancora, ma stiamo mettendo alla prova queste ipotesi sui più vulnerabili tra noi: i bambini. Questo ci riporta alla necessità di una diffusa educazione sull'intelligenza artificiale, affinché i genitori possano prendere decisioni consapevoli sui giocattoli e gli strumenti che i loro figli utilizzano.

HP:E per quanto riguarda i bambini più grandi?

KFB: L'intelligenza artificiale deve essere considerata a tutti i livelli. Stiamo educando i bambini per il futuro e potenzialmente per molteplici carriere. Devono essere preparati a sfruttare al meglio la tecnologia man mano che si evolve. E dobbiamo educare tutti sull'intelligenza artificiale in modo da poter partecipare attivamente al dibattito sul futuro che vogliamo per i nostri figli e nipoti.

HP: Conosciamo già l'intelligenza artificiale, quindi perché abbiamo bisogno di formazione in questo campo?

KFB: Uno dei problemi più grandi è che le capacità dell'IA stanno superando la comprensione che quasi tutti hanno dell'IA. Quando viene utilizzata nell'istruzione, negli ospedali, nel nostro sistema di voto, le persone non necessariamente capiscono cosa sta succedendo. È estremamente importante che tutti, soprattutto gli insegnanti, capiscano. Gli insegnanti hanno urgente bisogno di formazione. Inoltre, stiamo assistendo a un aumento sfiducia nell'IAL'istruzione aiuterà le persone a sapere di cosa diffidare e cosa possono usare in sicurezza.

HP: Quali sono le componenti fondamentali di una politica responsabile sull'IA nelle scuole?

KFB: Una delle prime azioni da intraprendere sarebbe quella di educare i bambini a comprendere cosa significhi interagire con un modello di intelligenza artificiale generativa. Le scuole devono anche chiedersi: l'IA accresce le nostre conoscenze o ci rende solo più pigri? Se i bambini vogliono imparare qualcosa sull'IA, devono imparare a usarla correttamente.

Interagire con l'intelligenza artificiale è divertente per i bambini, ma cosa significa questo in termini di privacy e dati, e dove e come vengono archiviate le informazioni? Gli studenti devono essere consapevoli che alcuni di questi strumenti possono essere hackerati e le scuole devono implementare delle misure di sicurezza, soprattutto in materia di dati e privacy.

Ulteriori approfondimenti su etica, privacy e sicurezza nell'IA
Lo scienziato dei dati che mette gli esseri umani al centro dell'intelligenza artificiale applicata all'istruzione.

Abbiamo visto questo fenomeno ritorcersi contro di noi nel mondo aziendale: nell'aprile del 2023, gli ingegneri di Samsung in Corea del Sud hanno caricato codice sensibile su ChatGPT, spingendo l'azienda a vietare l'uso dell'intelligenza artificiale generativa sui suoi dispositivi e reti interne, e alcune banche statunitensi ne hanno limitato l'utilizzo. Qualsiasi modello generativo che si addestra a partire da dati provenienti da Internet utilizza dati caricati su Internet.

"Gli studenti devono essere consapevoli che alcuni di questi strumenti possono essere hackerati e le scuole devono installare delle misure di sicurezza, soprattutto in materia di dati e privacy."

Gli studenti devono essere consapevoli di poter ricevere informazioni errate a causa di "allucinazioni" [quando un modello linguistico di intelligenza artificiale di grandi dimensioni fa previsioni errate] e "cannibalismo" [quando un'IA "impara" da dati generati da altre IA, creando un ciclo di feedback potenzialmente di scarsa qualità].

Anche i genitori devono capire come viene utilizzata l'intelligenza artificiale. Ma la decisione finale sull'IA deve spettare alle scuole, non ai genitori, ai quali non deve essere permesso di dettare i contenuti. Abbiamo già visto negli Stati Uniti alcune scuole vietare determinati libri, e questo mette gli insegnanti in una situazione difficile.

Le scuole devono anche essere consapevoli che l'IA può essere utilizzata come forma di bullismo, ad esempio, tramite l'IA generativa, per creare immagini pornografiche deepfake di altri studenti. Il controllo di questo tipo di attività impone oneri aggiuntivi alle scuole.

HP: E per quanto riguarda il futuro? Sei ottimista?

KFB: Credo nel potere dell'IA per il bene. Non mi impegnerei per far sì che funzioni bene se non pensassi che ne valga la pena. Sono molto ottimista sul fatto che, se mettiamo in atto le giuste misure di sicurezza e comprendiamo che non è una bacchetta magica in grado di rendere tutto più facile o migliore, ci sia un enorme potenziale per fare grandi cose per l'umanità. Ma abbiamo bisogno di un approccio davvero innovativo all'istruzione del futuro.

HP: Che impatto avrà l'intelligenza artificiale sul ruolo degli insegnanti? Di quale supporto avranno bisogno?

KFB: Gli insegnanti hanno urgente bisogno di aiuto, supporto e formazione.

Gli studenti useranno l'IA se e quando potranno, e vietarla non è la soluzione. Ne abbiamo parlato classi capovolte per anni. Invece di insegnare contenuti, gli insegnanti possono usare il tempo di lezione per stimolare i loro studenti e incoraggiare il pensiero critico e analitico. A meno che non si verifichi ciò che gli studenti hanno affermato in un saggio, per il quale probabilmente si sono avvalsi dell'aiuto dell'intelligenza artificiale generativa, allora non si sta più insegnando loro nulla.

Più intelligenza artificiale in classe
In che modo gli insegnanti possono utilizzare l'intelligenza artificiale per supportare l'apprendimento dei propri studenti?

HP: L'intelligenza artificiale potrebbe alleggerire il carico di lavoro degli insegnanti e persino contribuire a risolvere la crisi di reclutamento?

KFB: Una delle mie grandi speranze è che possiamo applicare correttamente l'IA all'istruzione. Esistono già strumenti di IA per aiutare con la correzione, certamente per le scienze e la matematica, e potrei immaginare che si possa addestrare l'IA generativa per aiutare a correggere anche i lavori umanistici, anche se vale la pena notare che la legge dell'UE sull'IA Si conclude che l'utilizzo dell'IA per la valutazione è estremamente rischioso. Tuttavia, spero che l'IA possa essere d'aiuto anche per tutte le attività amministrative, per la "mansuetudine" dell'insegnamento, liberando così tempo prezioso da dedicare all'interazione con gli alunni. Naturalmente, questo è importante nel Regno Unito, ad esempio, ma lo è ancora di più se l'IA riuscirà a raggiungere i Paesi in via di sviluppo, dove gli insegnanti possono trovarsi a gestire classi composte da ben 60 bambini di età e capacità diverse.

Ulteriori informazioni sull'intelligenza artificiale a supporto degli insegnanti
La missione per salvare le domeniche sera degli insegnanti con l'intelligenza artificiale

Abbiamo anche bisogno di un completo cambiamento di mentalità su come e cosa gli esseri umani dovranno imparare. I bambini devono imparare a pensare in modo critico ai fatti e ad analizzarli. Nell'era dei deepfake e della disinformazione, non credo che dovremmo ridurre l'insegnamento ai bambini al semplice obbligo di memorizzare nozioni, ma piuttosto concentrarci sul fornire loro gli strumenti per mettere in discussione le cose.

HP: Secondo te, a che punto sono le scuole e le università nell'adozione dell'intelligenza artificiale?

KFB: La maggior parte delle università ha già introdotto una politica sull'IA. Gli studenti utilizzano l'IA e i professori stanno imparando a insegnare in un mondo in cui l'IA è presente. Ma è molto più facile per le università, che godono di maggiore libertà accademica rispetto alle scuole. Man mano che le macchine diventano sempre più capaci, ciò che ci rende umani diventerà importante, il che implica concentrarsi sulle discipline umanistiche (soprattutto per gli scienziati che creano l'IA).

"Man mano che le macchine diventano sempre più capaci, ciò che ci rende umani diventerà importante, il che implica concentrarsi sulle discipline umanistiche."

HP: Stiamo esagerando?

KFB: No, credo che dobbiamo sollevare la questione ora, perché stiamo prendendo decisioni fondamentali: a che età permetteremo ai nostri figli di avere giocattoli intelligenti? Qual è il loro ruolo nella socializzazione? Come collaboreranno l'IA e gli esseri umani in futuro? È questo il futuro che vogliamo? Capire veramente cosa gli esseri umani si aspettano dall'IA è forse più importante che preoccuparsi che l'IA diventi super intelligente. Dobbiamo riflettere su quanto l'IA dominerà il nostro futuro e su quanto ne saremo noi a controllarlo. L'istruzione è il punto di partenza di questa discussione, ma è una discussione che dobbiamo affrontare ora.

Le note

Kay Firth-Butterfield È amministratrice delegata di Good Tech Advisory, un'organizzazione che collabora con governi, enti di beneficenza, aziende e istituzioni accademiche per contribuire all'implementazione di un utilizzo responsabile e produttivo dell'intelligenza artificiale, nel rispetto delle normative vigenti. Riconosciuta da tempo come una figura di spicco nella governance dell'IA, ha ricevuto il premio TIME100 Impact Award nel febbraio di quest'anno.