Al momento stai visualizzando Scuola e AI Act: nessun posticipo, nessuna deroga

Scuola e AI Act: nessun posticipo, nessuna deroga

  • Autore dell'articolo:
  • Categoria dell'articolo:News

Il 18 marzo il Parlamento Europeo ha approvato, con 101 voti a favore, una mozione che posticipa al 2027 l’attivazione del regolamento che disciplina le intelligenze artificiali ad alto rischio (high-risk AI). Queste ultime comprendono tutti i sistemi di sicurezza applicati a prodotti coperti da normativa europea, ma ancor di più le tecnologie che possono mettere a rischio salute, sicurezza o diritti fondamentali. Molto rigida è la normativa sul tema introdotta dall’AI Act nel 2024, che avrebbe dovuto trovare piena applicazione entro il 2 agosto 2026. Il rinvio, ufficializzato lo scorso mercoledì, prevede tempi ben diversi: per le high-risk AI l’adeguamento dovrà essere effettuato entro il 2 dicembre 2027, con l’eccezione dei software di sicurezza che dovranno essere implementati entro il 2 agosto 2028.

La decisione è stata presa su proposta della commissione parlamentare per il Mercato Interno e la Protezione del Consumatore (IMCO) con l’obiettivo di definire ulteriori standard tecnici e fornire strumenti chiarificatori che permettano di semplificare una regolamentazione articolata complessa. L’europarlamentare Arba Kokalari, relatrice della commissione, teme infatti la generazione di una frammentazione tra stati, aziende e amministrazioni pubbliche data dalla poca chiarezza e dalla difficoltà nel comprendere e applicare efficacemente le norme previste.

In questo panorama poco nitido non mancano, però, i punti di riferimento, a cominciare dalla “European Data Protection Supervisor” (EDPS), autorità europea che da vent’anni assicura ai cittadini europei protezione in termini di privacy e dati personali. Con l’emanazione dell’AI Act, all’EDPS è stato attribuito l’onere di occuparsi dell’adempimento e di monitorare l’applicazione della normativa da parte delle amministrazioni pubbliche europee. Proprio il 17 marzo è stato emesso il “EDPS Compass for its new role under the AI Act”, documento con il quale l’autorità ha chiarito con quali modalità e secondo quali principi adempirà al suo compito. Obiettivo principale è assicurare che le intelligenze artificiali vengano utilizzate in maniera congrua, tutelando salute e sicurezza e garantendo il rispetto dei diritti fondamentali. È l’uomo, dunque, a doversi mantenere perno di ogni algoritmo, affinché le innovazioni tecniche siano sostenute e bilanciate dai valori dell’Unione Europea. L’EDPS ha realizzato, nel 2025, una mappatura di tutti i sistemi di intelligenza artificiale, attualmente diffusi in Europa, che potrebbero comportare pericoli particolarmente elevati. A dominare sono i sistemi di AI generativa che possono comportare rischi consistenti in termini di libertà, sicurezza e giustizia. Essenziale è dunque un continuo monitoraggio, che tenga conto della rapida evoluzione tecnologica, dei continui aggiornamenti normativi e delle risorse a disposizione. Il tutto necessariamente calato in uno specifico contesto di riferimento.

La scuola costituisce, in questo, un ambiente particolarmente delicato e gravemente esposto ai rischi legati all’utilizzo di intelligenze artificiali.  Le high-risk AI non sono solitamente diffuse nel mondo dell’istruzione, che tende a dotarsi di tecnologie a medio e basso rischio. Questo però non ridimensiona il monito di responsabilità, controllo e cognizione che diviene forse ancora più urgente per le istituzioni scolastiche, dove l’utilizzo dell’intelligenza artificiale non può essere valutato esclusivamente in termini di innovazione didattica o semplificazione amministrativa. L’ecosistema scolastico si regge su equilibri precari, momentanei, soggetti a continui mutamenti nei quali sono numerosissimi gli elementi che intercorrono, le concause che si sovrappongono. Al di là degli adempimenti normativi, sarà necessario strutturare un percorso di consapevolezza profonda della quale l’alfabetizzazione digitale costituisce solo una parte. Integrare l’AI nella scuola senza comprometterne gli obiettivi formativi ed educativi, è un’operazione complessa, poiché “formare” ed “educare” non significa solo trovare un modo efficace per comunicare nozioni, ma soprattutto incoraggiare lo studente a coltivare legami affettivi, accompagnarlo nello sviluppo del pensiero critico, aiutarlo nella gestione delle proprie emozioni e di quelle degli altri. Per questo, una scuola che utilizzi l’AI in modo consapevole, sicuro e proficuo è in primo luogo una scuola che conosce in profondità non solo la normativa, ma anche il contesto nella quale verrà inserita. L’AI Act e le indicazioni che ne deriveranno, costituiscono punto di partenza imprescindibile per tutelarsi dalle minacce dell’algoritmo, ma non basta. Sarà necessario definire una strategia adeguata alle necessità di ogni istituzione scolastica, tanto degli studenti quanto del personale scolastico, che sappia inserirsi in maniera efficace nella realtà territoriale, sociale e culturale di riferimento.

Se da un lato è rassicurante sapere che le AI ad altro rischio difficilmente entreranno in aula, dall’altro è necessario mantenersi vigili mantenendo uno sguardo critico sugli algoritmi e prospettico sulle contingenze di applicazione. Ricercare, studiare, domandare, ascoltare: è solo in questo modo che norme e direttive non saranno più regole da rispettare passivamente, ma indicazioni da applicare coscientemente. Ricordando sempre che l’intelligenza artificiale non è la soluzione, ma uno strumento: quando e come utilizzarlo, sarà sempre un’intelligenza umana a deciderlo.

Per approfondire: