Da quando Miami è vicino a Parigi?

Per Pasqua stavo pensando di andare a Disneyland Paris. Hotel, trasferimenti, qualche idea per una giornata fuori dal parco.
Tra le proposte per una gita nei dintorni è comparsa… Miami!
La prima reazione è stata istintiva: bel*n che allucinazione!
Poi ho riflettuto: Disneyland, nell’immaginario globale, è prima di tutto Orlando, Florida. E da Orlando una gita a Miami è perfettamente sensata, almeno per le distanze cui sono abituati in USA.
Non mi aveva proposto Pechino o Marte. Mi aveva proposto qualcosa di plausibile… in un altro frame.
Il testo era coerente. Il contesto no.

È peggio di un errore: è uno slittamento.

Quando parliamo di IA generativa, il dibattito si concentra sulle “allucinazioni”: dati inventati, citazioni inesistenti, fatti sbagliati.
Qui non è successo nulla di tutto questo.
Miami è contesto di Disneyland Orlando. Diventa coerente se si omette che stavamo già parlando di Parigi.
Il modello non ha prodotto nonsense assoluto. Ha ricalibrato il contesto senza dichiararlo.
E questo è molto più interessante dell’errore in sé.

L’effetto che vediamo: “non mantiene il contesto”

Dal punto di vista dell’operatore, la sensazione è chiara: “Il modello non mantiene il contesto.” Ma tecnicamente non è esatto.
Il testo precedente è presente, non viene cancellato, ma manca una gerarchia forte dei vincoli.
Un LLM non conserva il contesto come un oggetto logico stabile: lo ricostruisce a ogni turno sulla base dei segnali disponibili.
Se più interpretazioni sono compatibili, prevale quella statisticamente più saliente.
Anche se non è quella che avevamo in mente noi.

Il turno è l’unità minima

C’è una regola implicita nelle interazioni con l’AI che spiega molti comportamenti apparentemente strani: ogni conversazione è composta da turni.
Un turno comprende ciò che scriviamo e la risposta che riceviamo. Quando la risposta termina, quel turno è chiuso. Il messaggio successivo ne apre uno nuovo.
Il punto chiave è questo: l’AI non modifica ciò che ha scritto prima. Ogni volta genera una nuova risposta, ricalcolata sulla base del testo che ha davanti in quel momento.
Per noi la chat appare come un flusso continuo. Per l’AI è una sequenza di risposte indipendenti. Ed è per questo che vincoli, riferimenti e definizioni stabiliti prima non sono automaticamente garantiti nel turno successivo, se non vengono resi centrali di nuovo.
Se lavori con il codice, probabilmente l’hai già visto succedere: chiedi di modificare 1000 righe e l’AI restituisce 200, tagliando funzioni o cambiando struttura. Non sta “cancellando” il tuo lavoro: sta generando una nuova versione plausibile, basata su ciò che vede in quel turno.
La continuità che percepiamo è quindi un effetto emergente, che appare a noi fruitori, non una proprietà strutturale del sistema.

Non ci credi? Prova questo

Prendi una richiesta qualsiasi e inviala a un’AI. Poi, nel messaggio successivo, incolla esattamente lo stesso testo e invialo di nuovo.
L’AI non ti dirà che glielo hai già chiesto.
Non farà riferimento alla risposta precedente.
Produrrà una nuova risposta, come se fosse la prima volta.
Non è una questione di cortesia o di stile: è una conseguenza diretta del fatto che ogni turno è conclusivo.

Un esempio ancora più sottile di slittamento

Ora che conosci i turni, torniamo allo slittamento di contesto, perché dobbiamo testimoniare che può avvenire anche in un solo turno.
Immagina questo scambio: si parla di mitologia norrena.
Il modello propone Jomsborg, fortezza semi-leggendaria dei vichinghi.
Chiedo: “È dove ci sono tutte le isolette ravvicinate.” Non sto cambiando argomento. Sto chiedendo una precisazione; quindi, accetto implicitamente “Jomsborg” e chiedo conferma geografica.

Jomsborg è tradizionalmente collocata nell’area di Wolin, presso l’attuale laguna di Stettino, quindi in un contesto di lagune, bassifondi, isolette, canali, costa frastagliata.
La mia affermazione è perfettamente compatibile con Jomsborg.
Ma “isolette ravvicinate+mitologia norrena” attiva un altro cluster semantico molto forte.
Il modello ricalibra lì. Senza segnalare che ha cambiato riferimento.
Non ha dimenticato Jomsborg, ma sostituisce l’ancora referenziale con un’ancora più saliente: e di colpo mi trovo alle isole Lofoten nel mar di Norvegia.
Di questa interazione ho screenshot abbastanza interessante.

Perché il modello è andato alle Lofoten?

Non perché Jomsborg non fosse compatibile.
Ma perché, nell’ambito della storia vichinga:

Nell’immaginario globale e nei corpora testuali:

Il modello segue l’attrattore più forte perché non esiste un meccanismo che blocchi il riferimento stabilito nel turno precedente.

Per un umano:

Per un LLM:

L’interazione tra LLM e aspettative umane di continuità produce frizioni interpretative.

Più lunga l’interazione, maggiore il rischio

In una risposta breve, uno slittamento di contesto si nota facilmente.
In una conversazione lunga — o peggio ancora in un documento di molte pagine — molto meno.
Succede perché, man mano che il testo diventa coerente, fluido e sicuro nel tono, tendiamo a fidarci. La leggibilità aumenta, ma l’attenzione critica diminuisce. Se una premessa cambia lentamente, senza segnali evidenti, il testo continua a “suonare” giusto, anche quando non è più così.
Questo tipo di slittamento è stato osservato anche in studi sulle interazioni multi-turno (ad esempio in “Drift: No More? Context Equilibria in Multi-Turn LLM Interactions”): non emerge come un errore improvviso, ma come uno spostamento progressivo del centro del discorso.
In azienda è facile immaginare uno scenario simile.
Poniamo che si stia parlando di una nuova sede che aprirà a Genova, mentre l’HQ è a Roma. Se il sistema lavora su un contesto generalista, Roma, che è reale, consolidata, più presente nei dati, può tornare progressivamente dominante anche senza essere citata esplicitamente: nei riferimenti impliciti, nel tono, nelle assunzioni operative.

Il testo resta coerente, ma il contesto si è già spostato.

Perché è importante saperlo

Se usi l’IA per:

non puoi dare per scontato che il contesto resti stabile per inerzia.
L’IA non è concepita per rispettare vincoli concordati e, poiché essi non esistono come oggetti formali, non può nemmeno segnalare che li sta ignorando.
È progettata per generare testo plausibile a partire da segnali.
Noi la trattiamo come ghost writer e partner epistemico.
Se usi un cacciavite per tagliare il pane, nessuno ti vieta di farlo, ma devi adattare la tecnica.

Pratiche operative che riducono il rischio

Alcune abitudini aiutano molto:

Sono pratiche che non eliminano il fenomeno, forse, ma introducono controllo dove l’architettura non lo garantisce.

E il metaprompt?

Quando ci si accorge di questo tipo di slittamento, la reazione naturale è: “Scrivo un prompt migliore.”
Più precisamente: scrivo un metaprompt.
Un metaprompt è un’istruzione generale che definisce come il modello deve comportarsi nel corso della conversazione.
Non è una domanda sul contenuto. È una regola sul metodo.
Ad esempio:

L’idea è semplice: se il modello tende a ricalibrare il contesto, allora gli chiediamo esplicitamente di controllarlo.
È una buona idea, ma non (ancora) una soluzione strutturale.
Perché un metaprompt è comunque testo. Viene interpretato, pesato, integrato nel contesto come qualunque altro messaggio.
Non trasforma il sistema in un motore a stato persistente. Aumenta solo la probabilità che i vincoli vengano mantenuti attivi.
È una cintura di sicurezza. Non cambia il motore.

Un esempio di metaprompt utile

Ecco un esempio operativo, sobrio, non magico:

Durante le conversazioni, considera come vincoli attivi tutte le definizioni e le premesse esplicitamente accettate da entrambe le parti.

Prima di generare una risposta:

  • Riassumi brevemente i vincoli attivi rilevanti.
  • Verifica che la risposta sia coerente con essi.

Se emergono interpretazioni alternative compatibili ma diverse, dichiarale esplicitamente invece di sostituire silenziosamente il contesto.

Questo tipo di formulazione non impedisce ogni slittamento, ma introduce almeno un controllo intermedio.

In pratica:

Non è un “prompt definitivo”. È un esempio per introdurre inerzia procedurale in uno strumento che, per natura, genera. Di nuovo e di nuovo.

La consapevolezza è il vero vantaggio competitivo

L’IA generativa è un collaboratore affidabile se sai che è probabilistica.
Se la trattiamo come un interlocutore umano, rischiamo di attribuirle proprietà che non ha: continuità intenzionale, gerarchia implicita, stabilità referenziale.
Se invece comprendiamo il meccanismo, possiamo usarla con precisione.
Il vero rischio non è lo slittamento in sé. È non accorgersene.
Se non hai le categorie per riconoscerlo, accetti il nuovo frame e continui a ragionare dentro quello. A quel punto prenoti Parigi–Miami in treno e ti frustri perché non trovi i biglietti.
Perché l’IA rinegozia continuamente il perimetro. Se non lo presidi, lo farà lei.