C’è più di un motivo per tranquillizzare coloro che temono che, nel breve-medio periodo, l’AIGen (Intelligenza Artificiale Generativa) diventi AGI (Intelligenza Artificiale Generale), sorta di superintelligenza capace di eguagliare, se non superare, l’uomo in tutte le attività cognitive, con esiti da sogno o da incubo secondo i due scenari proposti da AI 2027, un racconto tra analisi tecnica e fantascienza che ipotizza in soli due anni (2025-2027) la tabella di marcia verso la superintelligenza. Pubblicato ad aprile 2025 e scritto, tra gli altri, da Daniel Kokotajlo, ex ricercatore di OpenAI, AI 2027 stimola il dibattito e offre spunti di riflessione sul tema della responsabilità. Se per gli hyperscaler la superintelligenza non è più fantascienza, ma un appuntamento in agenda, la scelta della data passa tra “race” (correre per arrivare primi a tutti i costi) oppure “slowdown” (rallentare per capire).
Per il momento, la corsa sembra essere rallentata per ragioni fondamentalmente tecniche ed economiche, come approfondisce nell’articolo del 16/02/2026 “Quattro motivi per ridimensionare le aspettative sull’Intelligenza artificiale generativa” il Prof. Enrico Nardelli dell’Università di Roma “Tor Vergata”, Direttore del Laboratorio Nazionale “Informatica e Scuola” del CINI e già presidente di Informatics Europe (https://www.startmag.it/innovazione/quattro-motivi-ridimensionare-intelligenza-artificiale-generativa/).
Malgrado l’impressionante progressione (degli investimenti e) delle capacità computazionali dei Large Language Models, infatti, gli LLM non sono in grado di ragionare, di comprendere il mondo, di adattarsi, di apprendere e correggersi in tempo reale e autonomamente. Occorrerà integrarli con altri approcci per provare a colmare questo deficit ed è difficile prevederne tempi e costi. Nell’attesa, è fuor di dubbio che l’intelligenza artificiale è una tecnologia destinata ad evolvere e che si integrerà sempre di più con le nostre vite, migliorandole indubbiamente. Ma il modo in cui già la utilizziamo e continueremo ad utilizzarla impone la questione della responsabilità (orizzontale e verticale), poiché l’impatto positivo dipenderà solo dalla nostra capacità di governare la tecnologia affinché resti uno strumento al servizio dell’uomo e della verità.
I problemi sono etici prima ancora che tecnici ed economici.
