DIRETTORE RESPONSABILE FRANCESCO CARRASSI

26 Febbraio 2026

Come l’IA e i deepfake plasmano il cervello

Prof. Sorci

AGIPRESS – PERUGIA – L’intelligenza artificiale non sta solo cambiando il modo in cui cerchiamo informazioni: sta modificando il modo in cui il nostro cervello le elabora. La potenza dei nuovi sistemi generativi, capaci di produrre immagini, voci e contenuti indistinguibili dal reale, introduce una sfida che non è solo tecnologica ma profondamente cognitiva. Perché anche quando un deepfake viene smontato o una fake news viene smentita, nella mente di chi l’ha vista resta spesso un’ombra di dubbio. È un meccanismo noto alle neuroscienze: ciò che il cervello percepisce per primo tende a sedimentarsi più in profondità della correzione successiva.

L’AI amplifica questo fenomeno. La velocità con cui i contenuti circolano, la loro apparente autorevolezza e la capacità di imitare perfettamente il linguaggio umano creano un ambiente informativo in cui la distinzione tra vero e falso diventa più fragile. Ne abbiamo parlato con il professor Guglielmo Sorci, Ordinario di Anatomia Umana all’Universiatà degli Studi di Perugia dell’Unipg, che sarà uno dei protagonisti degli eventi della decima edizione della “Settimana del Cervello” (16/20mrzo) dell’Umbria.

Professore quali sono i principali meccanismi neurocognitivi che spiegano perché un’informazione falsa, anche quando viene smentita, continua a lasciare una traccia nel cervello?

“Il nostro cervello ha delle proprietà molto particolari che lo rendono unico sotto diversi punti di vista, e si è soliti paragonare il cervello a un computer particolarmente performante. Contrariamente a quanto si potrebbe pensare, però, la complessa rete neuronale che è alla base delle attività cerebrali non funziona come un hard disk, in grado di cancellare e sovrascrivere dati, ma piuttosto come un sistema che stratifica le informazioni. Ogni volta che un’informazione entra, anche se falsa, lascia una traccia, più o meno marcata a seconda del carico emotivo associato all’informazione stessa. Anche la permanenza a livello di memoria dipende dal carico emotivo dell’informazione, che può essere intrinsecamente associato a questa o attribuito dalla persona che la riceve sulla base del proprio vissuto. In queste connessioni sono coinvolti centri nervosi come l’amigdala e l’ippocampo, che hanno un grande ruolo nella modulazione delle emozioni e nella creazione della memoria. Una volta che un’informazione è stata incisa più o meno marcatamente nella nostra rete neuronale, è difficile da rimuovere completamente anche perché, nel frattempo, e sempre in dipendenza del contenuto emotivo, avrà dato luogo a una serie di considerazioni, speculazioni e deduzioni che avranno generato ulteriori tracce tra loro collegate. Il risultato è che continuiamo inconsciamente a usare quell’informazione per interpretare la realtà, anche se abbiamo ricevuto successive informazioni che hanno dimostrato che è falsa”.

In che modo l’esposizione continua a contenuti generati dall’intelligenza artificiale – immagini, voci, video – può modificare la nostra percezione del reale e la nostra capacità di distinguere vero e falso?

“Un’altra proprietà del nostro cervello è che esso lavora per immagini. Anche nel contesto di un dialogo, il linguaggio verbale viene continuamente e istantaneamente tradotto in immagini dal cervello di chi ascolta, potendo acquisire sfumature diverse (spesso significativamente diverse) a seconda del proprio bagaglio educativo, culturale e sociale. Le immagini, pertanto, sono particolarmente incisive nel lasciare un segno a livello cerebrale. D’altronde, la visione ha acquisito un ruolo sempre più importante durante l’evoluzione a supporto della nostra vita di relazione tanto che il nostro cervello riserva un’ampia area, corrispondente al lobo occipitale, al ricevimento ed elaborazione delle informazioni visive, con profonde influenze su altre aree cerebrali di natura associativa e decisionale. L’intelligenza artificiale, dal canto suo, ha raggiunto un livello di sofisticatezza tale da generare immagini difficilmente distinguibili da quelle reali, e questo per il nostro cervello rappresenta un punto di estrema debolezza perché lo espone a una condizione di vulnerabilità rispetto ad informazioni visive false in entrata. Questa vulnerabilità aumenta se l’esposizione a certi contenuti fake è continua. E’ stato, ad esempio, dimostrato che vedere la stessa immagine più volte aumenta la propensione a credere che essa rifletta la realtà, aumenta cioè l’autenticità percepita di quell’immagine”.

Esistono evidenze scientifiche che mostrano come i deepfake possano alterare la memoria o influenzare la formazione delle convinzioni, anche dopo la loro smentita?

“I deepfake sono contenuti audio, visivi o audiovisivi creati o manipolati artificialmente in modo da sembrare reali, pur rappresentando qualcosa che non è mai accaduto o che è stato alterato. Esistono diversi studi sperimentali che mostrano come i deepfake possano indurre false memorie e influenzare le proprie convinzioni, soprattutto quando sono vividi, emotivamente coinvolgenti o ripetuti. I falsi contenuti generati dall’intelligenza artificiale hanno appunto queste caratteristiche, e vengono ripetuti più e più volte perché diffusi in maniera virale attraverso i social media. È interessante il fatto che i deepfake aumentano anche la probabilità di falsi ricordi; esperimenti controllati hanno mostrato che video remake di film inesistenti possono far sorgere false memorie in una frazione significativa di soggetti, che arriva a dichiarare di ricordare il film originale (inesistente) dopo aver visto il deepfake. Riguardo all’effetto della smentita, in letteratura è descritto il fenomeno del “continued influence effect”, per cui una volta che un’informazione falsa è stata integrata, la smentita non sempre ne elimina l’effetto sulla memoria e sul ragionamento. L’informazione falsa può, quindi, persistere anche dopo la correzione. Tutto ciò impone una profonda riflessione su quale sia la “verità vera” e su come questa possa essere alterata, soprattutto in certi contesti, come nella propaganda politica o nelle testimonianze processuali, soprattutto quando le testimonianze sono raccolte dopo molto tempo dal fatto accaduto e il fatto accaduto è stato oggetto di ripetute attenzioni da parte dei media”.

Quali rischi vede per la salute mentale e per i processi decisionali individuali in un contesto informativo dove l’AI può produrre contenuti altamente persuasivi e difficili da riconoscere come artificiali?

“La nascita dell’intelligenza artificiale è ancora troppo recente per stabilire con precisione l’entità e la gravità delle conseguenze dei contenuti da essa generati, e capire quali gruppi siano più vulnerabili e in quali contesti i deepfake influenzino decisioni importanti. Sulla base degli studi condotti finora, comunque, i rischi appaiono concreti. Un ambiente informativo ricco di contenuti altamente persuasivi ma falsi generati con l’intelligenza artificiale può incidere profondamente su come pensiamo e come decidiamo, potendo influenzare scelte politiche, decisioni sanitarie, investimenti economici e giudizi morali su persone o gruppi. Inoltre, in un contesto in cui diventa difficile capire cosa è autentico e cosa non lo è, cresce la sensazione di incertezza e l’idea che non ci si possa fidare di nulla, contribuendo a generare una condizione di fatica decisionale e stress. In contesti complessi, questa incertezza cronica rende più vulnerabili nei confronti di chi promette risposte semplici, anche se non necessariamente corrette”.

Dal punto di vista medico ed educativo, quali strategie dovrebbero essere adottate per rafforzare la resilienza cognitiva delle persone e ridurre l’impatto delle manipolazioni digitali?

“Questo è un aspetto molto importante. Dal punto di vista medico ed educativo, la resilienza cognitiva si può costruire rafforzando l’atteggiamento mentale in ambienti potenzialmente ostili alla verità. Accanto all’alfabetizzazione digitale, sarà importante insegnare a riconoscere un deepfake, la differenza tra testimonianza, evidenza e opinione, e gli elementi alla base di una conoscenza affidabile. Bisogna allenare le persone a un pensiero lento: rallentare il giudizio per separare la reazione emotiva dalla valutazione oggettiva. È soprattutto importante proteggere le fasce di popolazione vulnerabili, come bambini, adolescenti, anziani e soggetti in stato depressivo, perché più suscettibili alla persuasione emotiva. Strategie di resilienza per queste categorie potrebbero consistere nel limitare il tempo di esposizione alle news, evitare contenuti ad alta carica emotiva, e alternare input informativi con attività a bassa stimolazione. Un elemento che diventa essenziale nell’era della manipolazione digitale è la diversificazione delle fonti da cui attingere ai contenuti, che va di pari passo con la libertà di informazione.

Non si tratta solo di manipolazione: è un cambiamento nella nostra architettura mentale. L’esposizione continua a contenuti generati artificialmente può alterare la soglia di credibilità, rendendo più difficile attivare il pensiero critico e più facile affidarsi all’intuizione, alla familiarità, all’emozione.

Eppure, la stessa tecnologia può diventare uno strumento di conoscenza e consapevolezza. L’AI può aiutare a riconoscere contenuti manipolati, a verificare fonti, a costruire percorsi informativi più trasparenti. Può supportare la comunicazione scientifica, rendere accessibili concetti complessi, facilitare l’apprendimento personalizzato”.

Qual é dunque la sfida oggi?

“Governare questo doppio volto: sfruttare il potenziale dell’AI senza rinunciare alla capacità umana di interpretare, dubitare, contestualizzare. In un’epoca in cui vedere non significa più credere, la responsabilità non è solo degli algoritmi ma di chi li usa e di chi informa. Educare alla lettura critica dell’AI diventa parte integrante dell’alfabetizzazione contemporanea. Perché il futuro non dipenderà solo da ciò che l’intelligenza artificiale saprà generare, ma da ciò che noi sapremo comprendere”.

Donatella Miliani

(riproduzione riservata)

 

ARTICOLI CORRELATI
Torna in alto