Il tempo dell’IA

La tecnologia vive nel tempo. Forse più di ogni altra cosa.

Ogni tecnologia innova la precedente e apre la strada alla successiva in un flusso continuo: versioni, aggiornamenti, obsolescenze. Il tempo è la struttura stessa del progresso tecnologico.

Eppure, la tecnologia più avanzata disponibile oggi — l’intelligenza artificiale generativa — non possiede una vera dimensione temporale.

Non distingue naturalmente tra ciò che è successo ieri e ciò che è successo dieci anni fa. Il tempo entra nel sistema solo quando viene scritto nel testo.

Se chiediamo a un modello di continuare una conversazione iniziata nel 2025 e ripresa nel 2026, per noi è passato un anno.

Per il sistema è semplicemente un nuovo turno, un nuovo percorso statistico, senza riferimenti cronologici.

Questo crea un paradosso curioso.

Noi viviamo immersi nel tempo, ma usiamo strumenti per cui il tempo è solo un concetto, non una vera quarta dimensione.

Il mondo come sequenza di parole

Il motivo è meramente tecnico.

I modelli linguistici moderni sono costruiti su un’architettura chiamata transformer, descritta nell’articolo Attention Is All You Need del 2017, che ha cambiato il modo di costruire i modelli generativi.

Il transformer è progettato per analizzare sequenze di simboli. Nel caso degli LLM questi simboli sono i token, cioè indici che rappresentano frammenti del linguaggio umano.

Per il modello il mondo appare più o meno così:

token1 token2 token3 token4 token5

Non così:

evento1 → evento2 → evento3 nel tempo

Il sistema non ragiona sugli eventi.

Ragiona sulle probabilità delle sequenze linguistiche.

Il meccanismo centrale si chiama self-attention: ogni parola guarda le altre parole della frase e valuta quanto siano utili per predire la parola successiva.

È un sistema straordinariamente potente per generare discorso — logos.

Ma non implica una rappresentazione del tempo.

Il modello non ha bisogno di sapere quando qualcosa accade. Gli basta sapere quanto è probabile che certe parole compaiano insieme.

Il tempo esiste… ma solo come testo

I transformer hanno un ordinamento, ma non è temporale.

È semplicemente l’ordine delle parole in una frase.

È la cosa più vicina a una timeline che possiedono.

Per esempio:

1 2 3 4 5
Il gatto dorme sul divano

Non:

1 5 3 4 2
Il divano dorme sul gatto

Questi numeri indicano solo la posizione delle parole nella frase, non una timeline reale.

Il modello sa che una parola viene prima o dopo un’altra.

Non sa che un evento avviene prima o dopo nel mondo.

In termini tecnici questo aspetto si chiama codifica posizionale (positional encoding).

Questo implica che parole come ieri, domani, tra due anni siano solo altre parole del discorso, non vere coordinate temporali.

I diversi tempi dell’AI

A complicare le cose c’è un altro dettaglio.

Se l’intelligenza artificiale non vive nel tempo, ha però più idee di tempo a disposizione.

Non una timeline, quindi, ma una piccola collezione di tempi diversi.

Il tempo dell’addestramento

È il tempo più lento.

Il modello è addestrato su enormi quantità di testo raccolte fino a un certo momento.

Questo crea la famosa soglia temporale chiamata knowledge cutoff.

Il mondo che il modello conosce direttamente è quello contenuto nel dataset di addestramento.

È il suo “passato”.

Anche se, in realtà, per il modello quel passato è tutto contemporaneo: è semplicemente una smisurata sequenza di token.

Il tempo di internet

Se il sistema può consultare il web, entra in gioco un secondo tipo di tempo.

Il modello può recuperare informazioni aggiornate:

In questo caso l’IA non conosce già le risposte.

Le recupera e le integra nel contesto della conversazione.

Ma questa nuova informazione non ricalibra ciò che il sistema ha già generato.

Cambia semplicemente la direzione del percorso statistico da quel momento in poi.

È il suo presente esterno.

Il tempo della memoria

Alcuni sistemi introducono anche una memoria persistente.

Qui l’IA può ricordare informazioni tra una conversazione e l’altra:

È una specie di diario.

Il sistema può ricordare qualcosa che gli abbiamo detto ieri o un mese fa.

Ma il “quando” non fa parte del ricordo.

Ricorda la frase come un fatto utile per le risposte future, non come un evento collocato nel tempo.

E soprattutto non c’è un modo semplice per sapere in anticipo cosa verrà ricordato e cosa no.

Il tempo della conversazione

Poi c’è il tempo della sessione di dialogo.

Durante una conversazione il modello vede solo i messaggi presenti nel contesto.

Se la conversazione diventa troppo lunga, le parti più vecchie possono sparire, spostarsi ai margini o perdere centralità.

Il tempo della generazione

Infine c’è il tempo più breve: quello della risposta.

Ogni risposta nasce da un singolo processo di inferenza.

Il modello calcola parola dopo parola quale token sia più probabile.

Dal punto di vista del sistema ogni risposta è un evento isolato.

E può usare — o ignorare — le altre idee di tempo senza alcun preavviso.

Il paradosso: tempi che non coincidono

Il problema è che questi tempi non sono allineati.

Un modello può:

ma generare una frase come se tutto accadesse nello stesso momento.

Il risultato è una specie di collage temporale. 

Per un essere umano il tempo è una linea continua. Per l’IA è una sovrapposizione di tempi diversi.

E quando questi tempi si mescolano, le risposte possono risultare temporalmente incoerenti.

Marty McFl-AI

Qui succedono cose curiose.

Ogni tanto l’IA sembra parlare dal futuro. Altre volte dal passato.

Prendiamo le Olimpiadi di Milano-Cortina 2026.

Nel dataset di addestramento compaiono molte frasi come:

le Olimpiadi di Milano-Cortina si terranno nel 2026.

Nei testi più recenti troviamo invece frasi come:

le Olimpiadi di Milano-Cortina si sono svolte nel 2026.

Entrambe esistono nel linguaggio.

Se il modello non ha una timeline interna, può usare l’una o l’altra.

Così può capitare che in una risposta le Olimpiadi siano nel futuro e in un’altra nel passato.

Non perché il sistema stia cambiando idea.

Ma perché sta semplicemente seguendo il percorso statistico più plausibile tra le parole.

È un po’ come parlare con qualcuno che salta continuamente tra passato e futuro senza accorgersene.

Il “Ritorno al Futuro” dell’intelligenza artificiale.

Cronache di un futuro passato

Il fenomeno diventa ancora più evidente con le previsioni.

Un modello addestrato su testi scritti prima di un evento può generare frasi come:

nel 2024 le elezioni americane potrebbero portare Trump alla presidenza.

Anche se chi legge quella frase vive già nel 2026 o nel 2035.

Per noi è un errore temporale evidente.

Per il modello è solo una frase plausibile nel linguaggio.

Causa ed effetto

Il tempo non serve solo a dire quando succedono le cose.

Serve anche a capire perché succedono.

La causalità è sempre una sequenza: qualcosa accade prima e qualcos’altro dopo.

Se vediamo una strada bagnata pensiamo subito alla pioggia.

Ma potremmo sbagliarci: magari qualcuno ha appena lavato la strada.

Il punto è che il ragionamento causale presuppone una timeline: prima succede qualcosa, poi succede qualcos’altro.

Se il tempo non è rappresentato in modo stabile, la causalità diventa solo un collegamento plausibile tra parole.

La ricerca sta provando a risolvere il problema

Il limite non è passato inosservato.

Negli ultimi anni diversi gruppi di ricerca stanno cercando di insegnare ai modelli a ragionare sul tempo.

Alcuni studi lavorano sul temporal reasoning, cioè la capacità di collocare eventi su una linea temporale.

Altri esplorano forme di memoria episodica artificiale, sistemi che registrano gli eventi lungo una timeline invece di trattarli come frammenti indipendenti di testo.

Un’altra direzione riguarda gli AI-agents, progettati per pianificare attività nel tempo invece di limitarsi a generare risposte immediate.

Sono tentativi ancora sperimentali, ma in sviluppo furioso.

E indicano una direzione chiara: se i modelli generativi vogliono diventare strumenti capaci di ragionare sul mondo reale, prima o poi dovranno imparare a fare qualcosa che oggi fanno solo per imitazione del linguaggio.

Immergersi nel tempo.

La bussola dei viaggiatori nel tempo

Se chiedi a un’AI informazioni aggiornate, può essere utile collocare la domanda nel tempo.

Per esempio:

Oggi è il 12 marzo 2026. Cerca online e dimmi…

Gli esseri umani danno per scontato il presente.

I modelli linguistici no.

Se non lo specifichi, il sistema può pescare frasi plausibili da epoche diverse del linguaggio e darti risposte credibili ma anacronistiche.

Per esempio, dirti che l’ultimo modello di smartphone è quello di due anni fa.

Il paradosso temporale dell’IA è che non ha bisogno del tempo. Ma noi sì.

I modelli linguistici sono straordinariamente bravi a trattare il linguaggio.

Ma il mondo non è fatto solo di linguaggio.

È fatto di eventi che accadono nel tempo.

Gli esseri umani vivono dentro una sola linea temporale.

I modelli linguistici invece non vivono nel tempo: navigano tra molte linee temporali del linguaggio senza mettere radici in nessuna.

Per questo a volte sembrano parlare dal futuro, altre dal passato, seguendo la traiettoria più probabile tra le parole.