In Estonia ChatGPT arriva in classe. La ministra dell’Istruzione Kallas ci spiega perché, anziché vietare l’AI, è meglio insegnare agli studenti a usarla Dopo i docenti, il progetto AI Leap in collaborazione con OpenAI arriva a 15mila studenti. Ecco come funziona il piano estone per applicare l’intelligenza artificiale all’apprendimento

da | Feb 17, 2026 | Università e ricerca

Cannes – In questi giorni in Estonia ChatGPT sta entrando nelle classi. A distanza di un anno dall’annuncio della collaborazione tra il governo di Tallinn e OpenAI per introdurre sistemi di intelligenza artificiale generativa a scuola, la ministra estone dell’Istruzione, Kristina Kallas, racconta a Wired in questa intervista gli sviluppi del piano, denominato AI Leap. “Abbiamo iniziato a distribuire le licenze a tutti gli studenti” delle superiori, spiega a margine del World AI Cannes Festival, una conferenza del settore organizzata nella città francese del cinema.
Incastonata tra il mar Baltico e la Russia, questa nazione conta 1,3 milioni di abitanti, quanti la città di Milano, ma è una delle più digitalizzate in Europa. Secondo l’ultimo rapporto della Commissione europea sul decennio digitale (attraverso cui misura i progressi dei 27), Tallinn vanta, tra le altre cose, un’adozione del cloud tra le aziende di una spanna sopra la media comunitaria (52,6% contro un 38,7%), il più alto tasso di specialiste donne in informatica e un raddoppio del tasso di adozione dell’AI nelle imprese (dal 5,19% nel 2023 al 13,89% nel 2024. E il 79% dei cittadini apprezza la digitalizzazione di servizi pubblici e privati perché semplifica la vita.
Non stupisce che Kallas (che non ha rapporti di parentela della precedente prima ministra, Kaja Kallas) abbia trovato terreno fertile per impostare un progetto che altrove avrebbe fatto sollevare più di un sopracciglio: insegnare l’AI a scuola. Compito che l’Estonia ha affidato a ChatGPT.

Ministra, partiamo dalla questione che oggi in Europa si percepisce come più delicata, quando si discute di intelligenza artificiale. Ossia la protezione dei dati. Questione ancora più delicata in questo caso, dato che interviene su dati di studenti. Quali sono le misure di protezione per mettere in sicurezza l’infrastruttura sottesa a questo progetto, soprattutto considerata l’instabilità che osserviamo nei rapporti tra Stati Uniti ed Europa?

Il nostro principale partner è OpenAI. Utilizziamo la versione ChatGPT Edu, ma abbiamo sviluppato insieme a OpenAI una licenza master separata appositamente per le nostre scuole, collaborazione tra i nostri scienziati e OpenAI.
I nostri scienziati hanno contribuito in modo determinante a definire il funzionamento di questo modello per l’ambito educativo. OpenAI rispetta le normative europee sulla protezione dei dati, il che significa che tutti i dati vengono conservati su server europei, non negli Stati Uniti né altrove. I dati inseriti dagli studenti estoni nel sistema sono protetti e non confluiscono comunque nei server statunitensi. In questo senso, ritengo che la questione dei dati non rappresenti il problema più rilevante di questo progetto. Le sfide maggiori attengono piuttosto al modo in cui riusciamo a far sì che gli studenti utilizzino lo strumento in modo significativo“.

Per chiudere questo argomento: dato che collaborate con un partner americano e considerata la divergenza che osserviamo tra la visione europea della propria sovranità digitale e quella statunitense, disponete di un piano di emergenza qualora sorgessero problematiche geopolitiche e OpenAI decidesse di interrompere il progetto dal proprio versante? Siete pronti eventualmente ad abbandonare o a proseguire autonomamente?

Magari avessimo un’intelligenza artificiale europea per sostituirla. Non l’abbiamo. Questa è la mia risposta. Non ne disponiamo.
Se non forniamo agli studenti le competenze e la capacità di utilizzare questi modelli linguistici nel processo di apprendimento in modo significativo, loro li useranno comunque. Crede forse che non li utilizzino già? Pensa che non usino Gemini o ChatGPT? Lo fanno. Ce l’hanno sui telefoni. A meno che l’Europa non li vieti completamente, impedendo a chiunque di scaricarli sui propri dispositivi, gli studenti li stanno già usando.
La ragione per cui l’Estonia ha lanciato il programma AI Leap risiede nel nostro timore principale. Ossia continuare a insegnare e apprendere, soprattutto a insegnare, esattamente come abbiamo fatto negli ultimi vent’anni, senza prestare attenzione al fatto che gli studenti hanno già ChatGPT sul telefono o sul computer.
Il modo in cui svolgono i compiti, scrivono i loro elaborati, studiano… Fingiamo semplicemente che tutto ciò non esista e ci limitiamo a punire gli studenti per aver copiato. Il problema è che dobbiamo riprogettare il modo in cui insegniamo, perché la tecnologia esiste e gli studenti la utilizzano.
Dobbiamo insegnare in modo diverso affinché questa tecnologia li aiuti dal punto di vista cognitivo a sviluppare il pensiero anziché diminuire la loro capacità di ragionamento. Purtroppo, e dico purtroppo, dobbiamo ricorrere alla tecnologia americana perché non disponiamo di alternative europee“.

Quando dice “in modo significativo” – e lo ha ripetuto due volte – cosa intende esattamente?

Significa che lo scopo principale dell’istruzione è insegnare ai bambini a crescere. A crescere nelle competenze socio-emotive, nelle capacità di autoregolazione e soprattutto nella conoscenza in termini di pensiero, memoria, analisi. Questi sono gli aspetti di crescita che promuoviamo attraverso l’istruzione.
Con l’avvento di ChatGPT o di altri modelli linguistici, la capacità di pensare in modo più profondo e ampio può essere facilmente delegata al computer. E ciò significa che gli studenti stessi non svilupperanno né cresceranno cognitivamente in termini di capacità di pensiero o analisi.
Gli esseri umani diventeranno, diciamolo chiaramente, più stupidi perché non saranno in grado di pensare. O avranno dati ma non saranno capaci di analizzarli o di trarne alcuna comprensione significativa. Tutta questa capacità cognitiva di pensare. Ecco, questo è il rischio maggiore di questa tecnologia. E “significativo” comporta che gli insegnanti comprendano che dobbiamo insegnare agli studenti a pensare con l’uso della tecnologia. Quindi si introduce la tecnologia nel processo di apprendimento per costringere gli studenti a imparare e a pensare con la tecnologia, non a delegare il pensiero alla tecnologia.
Questa è la sfida maggiore nell’istruzione: riprogettare l’intero processo di apprendimento. In modo da non dover dire agli studenti: “Leggi il libro e sulla base di quello scrivimi un saggio”. È un compito ormai inutile perché non leggerà il libro, dato che l’AI farà un riassunto del libro, e non scriverà il saggio perché l’AI scriverà il saggio.
Questo tipo di esercizio didattico che un tempo serviva per la memoria, la comprensione, l’analisi delle relazioni, è inutile. Ora l’insegnante deve riprogettare, ripensare il processo di apprendimento. Per esempio, dire ai ragazzi: studiate il libro, analizzate i personaggi del libro insieme a ChatGPT, venite in classe con l’analisi dei personaggi e poi in classe discutete con gli studenti come sono descritti i personaggi, cosa ha presentato ChatGPT come analisi, qual è la vostra interpretazione dell’analisi del libro. Devi riprogettare tutto questo processo. Devi ricominciare da capo“.

Come è arrivata a decidere di adottare ChatGPT in classe?

Nel 2023 sono diventata ministro. Alla fine del 2023 ho riunito un Consiglio sull’AI perché intuivo che avremmo dovuto fare qualcosa. Non sapevo cosa, perché non sono così brillante. Ho quindi coinvolto neuroscienziati, psicologi cognitivi dello sviluppo, e aziende tecnologiche. Per tutto il 2024 hanno sviluppato un progetto strategico completamente nuovo per l’istruzione basato sull’AI. Alla fine dell’anno era pronto.
Abbiamo quindi deciso che avremmo dovuto formare gli insegnanti. Abbiamo iniziato a progettare il programma di formazione per gli insegnanti, ma avevamo anche bisogno di fornire loro lo strumento, cioè l’AI. Dovevano averlo per le lezioni. Abbiamo contattato tutte le aziende tecnologiche: Anthropic, Microsoft, la francese Mistral, Google e OpenAI.
Solo OpenAI ha risposto immediatamente dicendo: “Sì, vogliamo far parte di questo progetto. Vogliamo sviluppare ChatGPT per una versione dedicata all’apprendimento”. Il giorno dopo erano al tavolo delle trattative e abbiamo iniziato a negoziare con loro per introdurre OpenAI nelle classi. A febbraio 2025 abbiamo iniziato a collaborare con OpenAI per progettato una versione specifica di ChatGPT per le scuole estoni e ad agosto 2025 abbiamo iniziato a formare tutti gli insegnanti“.

Quanti?

Cinquemila. Sono gli insegnanti delle scuole superiori delle classi 10, 11 e 12. Quindi studenti di 16, 17, 18 anni.
Tutti hanno ricevuto la formazione. Due giorni interi di formazione online su cos’è l’AI, come può essere distorta, quali sono le questioni etiche, qual è la capacità cognitiva degli esseri umani con la tecnologia. Poi abbiamo dato le licenze agli insegnanti. Nelle loro scuole hanno gruppi di apprendimento tra pari e ogni due o tre settimane si riuniscono e discutono di come l’hanno usata, cosa ha funzionato, cosa no. Questo da agosto 2025 a febbraio 2026.
Ora a febbraio abbiamo iniziato a distribuire le licenze a tutti gli studenti dalla classe 10 alla 11. Non la 12, perché si diplomano“.

Come monitorerete gli effetti nei prossimi mesi?

Gli stessi scienziati che hanno progettato questa versione di ChatGPT per le scuole stanno ora conducendo il monitoraggio. Si tratta di una cooperazione tra scienziati di Stanford e scienziati dell’Università di Tartu. Da febbraio a giugno gli studenti lo useranno, gli insegnanti lo useranno e gli scienziati monitoreranno l’intero processo.
Entro fine giugno avremo i primi risultati, molto preliminari, su cosa sta effettivamente accadendo nel processo di apprendimento. Per cosa lo usano gli studenti, come lo usano, se lo usano per processi più complessi per comprendere determinate cose o per progettare esercizi di apprendimento per sé stessi“.

E quanto durerà complessivamente il progetto dopo questo giugno?

Durerà tre anni. Vogliamo vedere gli studenti della classe 10 attraversare l’intero ciclo e quando si diplomeranno alla 12esima classe, vogliamo vedere dove sono effettivamente arrivati con l’ausilio della tecnologia”.

C’è qualcosa di inaspettato che state cercando?

Non si sa mai cosa possa emergere, ma immagino ci saranno molte sorprese, perché il modo in cui gli scienziati monitorano consiste nel sottoporre questionari a un campione di studenti che rispondono regolarmente su questioni relative all’apprendimento.
Ma per l’intero campione di questi 15mila studenti abbiamo i registri dei log alla versione di ChatGPT Edu, che vengono salvati in un database separato e protetto. OpenAI pulisce questi dati dalle informazioni private e i nostri scienziati analizzano come i ragazzi lo utilizzano. Cosa chiedono? Cosa fanno esattamente? Potrebbero emergere molte sorprese da questo utilizzo da parte dei ragazzi. Forse lo usano come un amico a cui dire: “Ciao, come stai oggi? Ieri mi hai fatto piangere perché non hai fatto questo o quello”. Sarà interessante vedere cosa emerge“.

Ci sono preoccupazioni su come gli adolescenti interagiscono con i chatbot e sul possibile sviluppo di una sorta di dipendenza, anche riguardo le loro relazioni affettive. State testando questa tecnologia, se ho capito bene, su 15mila ragazzi…

Anche di più. Quest’anno sono 15mila gli studenti che hanno esattamente quell’età”.

Ecco, avete negoziato con OpenAI alcune salvaguardie? Per esempio, se uno studente devia dall’interazione didattica verso qualcosa di più intimo, che potrebbe influire sulla sua salute mentale, si interrompe il processo, parte un alert alla famiglia o a un insegnante per prevenire conseguenze peggiori.

Penso che le grandi aziende lo stiano già facendo con i modelli linguistici. Sa, al netto di questo modello linguistico specifico che stiamo usando per le scuole non significa che i ragazzi non usino tutti gli altri modelli linguistici. Possono ancora usare ChatGPT generale.
Per noi si tratta di fare alfabetizzazione all’AI tra i ragazzi. Devono capire cos’è, che non è un amico, non è un essere umano. È solo una macchina basata su sistemi di probabilità statistica. Che ha distorsioni. Che in realtà non sa tutto. Queste sono le cose che impareranno quando useranno l’AI a scuola“.

Ci sono paesi che dopo la vostra decisione sono venuti a dirvi: “È interessante. Voglio fare qualcosa di simile“? E come gestite il rapporto con il fornitore di tecnologia? Come affrontate la negoziazione politica? Immagino ci sarà state qualche resistenza nella società di fronte a questo tipo di sperimentazione.

I ministri e i politici sono curiosi ma penso che ogni contesto nazionale sia diverso dagli altri. In molte nazioni europee vedo un’ansia tecnologica. Le persone provano una sorta di inquietudine di fronte a questo sviluppo tecnologico molto rapido.
Sono preoccupati per l’effetto di questo sviluppo tecnologico sui bambini, e vedo una pressione sui politici per regolamentare, per mettere in atto normative, per limitare, vietare, in qualche modo controllare l’evoluzione tecnologica.
Io ho una visione diversa. Non credo si possa controllare l’evoluzione tecnologica. O almeno non nella misura in cui alcuni politici immaginano di poterlo fare. Quello che si può fare è equipaggiare gli esseri umani per affrontare questa rivoluzione tecnologica. Ed è questa la chiave per i sistemi educativi.
La realtà estone è diversa da molti altri contesti europei. Innanzitutto, siamo una società completamente governata attraverso il digitale. Facciamo tutto online. Utilizziamo strumenti digitali ogni giorno per qualsiasi cosa: sposarci, votare alle elezioni, compilare le dichiarazioni fiscali, divorziare, registrare i nomi dei nostri bambini. Tutto è online“.

Molto lontano dal luogo da cui provengo…

Non devi andare con un documento cartaceo in mano a nessun ufficio. Gli estoni sono abituati al fatto che la tecnologia esiste per rendere la vita più facile se la usi in modo intelligente e saggio. Questa è l’esperienza della società estone negli ultimi vent’anni. Eravamo una società molto povera nel 1995. Ora siamo tra le nazioni ricche del mondo e questo solo perché abbiamo usato la tecnologia.
Non siamo stati noi a inventare la tecnologia, ma siamo stati noi ad applicarla molto rapidamente e abbiamo aumentato molto il nostro benessere grazie a questo. Gli estoni hanno quindi una storia positiva dell’uso della tecnologia per il proprio benessere e penso che l’ansia verso l’AI non sia così forte.
Le persone dicono: “Ok, questa tecnologia si sta sviluppando velocemente, pensiamo a come possiamo usarla a nostro vantaggio”. In questo senso, mi trovo forse in una posizione diversa da molti altri ministri. Non devo combattere per divieti sui social media o divieti di telefoni cellulari nelle scuole. Non abbiamo questi dibattiti in Estonia. Non esistono.
Non ne parliamo perché le persone sentono che sì, i social media possono avere un effetto negativo, ma la tecnologia stessa non scomparirà ed evolverà più velocemente, quindi è meglio usarla e insegnare ai ragazzi a usarla”.

Come affronta e cosa pensa della regolamentazione e della sicurezza della Commissione europea e delle istituzioni europee in materia di digitale?

Credo nella necessità di regolamentare le grandi aziende tecnologiche. Anziché dire ai nostri sedicenni che non dovrebbero usare i social media e fare leggi per loro, dovremmo fare leggi per le aziende. Abbiamo la capacità di imporre normative alle grandi aziende in termini di etica, rispetto dei diritti umani, distorsioni.
Siccome questo è più complicato e comporta spesso un confronto con gli Stati Uniti, di cui credo la maggior parte dei nostri politici abbia molta paura, andiamo a regolamentare i nostri teenager. Perché? Di cosa sono colpevoli? Io sono cresciuta nel comunismo, ero un’adolescente quando tutto era vietato. Cosa pensa che facessimo? Pensavamo a come aggirare i divieti e trovare una scorciatoia. E cosa ho imparato da questo? Ho imparato come ingannare il sistema. È questo che vogliamo insegnare ai nostri sedicenni? Non è colpa loro il fatto che queste aziende tecnologiche producano questo tipo di prodotti.
Ci sono molti lati positivi nei social media. Le persone sono connesse globalmente in tutto il mondo. Alcune persone che subiscono bullismo a scuola hanno amici sui social media con cui parlano, hanno una comunità a cui appartengono. E ora gliela stiamo togliendo. E pensiamo che questo migliorerà la vita di quei quattordicenni o tredicenni i cui unici amici sono nel mondo virtuale perché quello è il posto più sicuro per loro.
Invece di vietarlo, insegna loro a usarlo. E regolamenta le aziende dicendo che se mettono gli esseri umani in pericolo, finiranno in prigione“.

Intervista ripresa da  Wired Italia

Luca Zorloni. Direttore. Già a capo dell’area digitale di Wired Italia e delle sezioni legate a diritti e business del sito. Giornalista di inchiesta, si occupa dell’intreccio tra economia, innovazione digitale e politica, denunciando sprechi di denaro pubblico, abusi di dati, sistemi di sorveglianza e tendenze delle industrie tecnologiche. Cura lo sviluppo di podcast, prodotti video e altri contenuti editoriali in area digital. In precedenza ha lavorato per Il Giorno e collaborato con Business InsiderIl paese più bello del mondo è il suo romanzo d’esordio.