Nel paese delle ultime cose
- Alice Rondelli
- 13 minuti fa
- Tempo di lettura: 6 min
Si parla di “debito cognitivo” riferendosi alle alterazioni e ai deficit di una o più funzioni cognitive responsabili dell’elaborazione e della memorizzazione delle informazioni. Una prestigiosa università di ricerca americana svela la realtà che si cela dentro la calotta cranica di chi utilizza quotidianamente l’Intelligenza Artificiale.

"In morte dell'Intelligenza Umana" di Tutto e Niente, 2025.
Che gran Paese delle Meraviglie è diventato il mondo! Il Bianconiglio direbbe: «Matti! Qui sono tutti matti!». È questa la sensazione che pervade le persone di buon senso guardandosi intorno. E per “intorno” si intente un po’ qui e un po’ là, nel mondo reale e in quello virtuale, che ormai è più realtà di quello tangibile. Ma la “realtà” di chi?
Questo pezzo è il frutto – totalmente casuale – dalla domanda postami stamane da un amico: «Hai letto il nuovo studio del MIT sull’impatto dell’utilizzo delle intelligenze artificiali sul cervello umano?».
No, non ero a conoscenza del recente studio del Massachusetts Institute of Technology, università di ricerca fondata a Boston nel 1861, che ha ora sede a Cambridge nel Massachusetts, appunto.
Il MIT è diviso in diversi dipartimenti: Architettura e pianificazione del territorio, Ingegneria, Management, Scienze, Scienze umane e Arte e scienze sociali. Nel 2003 dall’unione fra l’Artificial intelligence laboratory e il Laboratory for computer science è nato il Computer science and artificial intelligence laboratory (CSAIL).
Lo studio al quale faceva riferimento il mio amico titola: Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task (Il tuo cervello su ChatGPT: accumulo di debito cognitivo quando si utilizza un assistente AI per la scrittura di saggi).
L’Abstract della ricerca si concentra sulla valutazione del costo cognitivo relativo all’utilizzo di un Large Language Model (LLM), ovvero una tecnologia AI avanzata incentrata sulla comprensione e sull’analisi del testo nel contesto educativo della scrittura di un saggio.
Per spiegarlo in maniera sintetica, i ricercatori hanno assegnato i 54 partecipanti a tre gruppi (18 per ogni gruppo), denominati: “Gruppo LLM”, “Gruppo Motore di Ricerca” (Search Engine group), “Gruppo Solo Cervello” (Brain only), in cui ogni partecipante ha utilizzato uno strumento designato (o nessuno strumento nell’ultimo caso) per scrivere un saggio. Sono state condotte tre sessioni con lo stesso compito di gruppo per ogni partecipante e in una quarta è stato chiesto ai partecipanti del “Gruppo LLM” di non utilizzare alcuno strumento (denominando il gruppo “LLM-to-Brain”); mentre ai partecipanti del “Gruppo solo Cervello” è stato chiesto di utilizzare LLM (denominando il gruppo “Brain-to-LLM”).
Dunque è stata utilizzata l’elettroencefalografia per registrare l’attività cerebrale dei partecipanti al fine di valutare il loro coinvolgimento cognitivo e il carico cognitivo, e per acquisire una comprensione più approfondita delle attivazioni neurali durante il compito di scrittura del saggio.
Gli altri strumenti di analisi utilizzati sono stati: l’analisi NLP (acronimo di Natural Language Processing), una branca dell’intelligenza artificiale che permette ai computer di comprendere, interpretare e generare testo e parlato umano); l’intervista dopo ogni sessione; e la valutazione con l’aiuto di insegnanti umani e di un giudice AI (un agente appositamente creato).
L’analisi elettroencefalografica ha fornito solide prove che i tre gruppi presentavano modelli di connettività neurale significativamente diversi, che riflettevano strategie cognitive divergenti.
La connettività cerebrale, infatti, è risultata sistematicamente ridotta con l’aumentare della quantità di supporto esterno. Il gruppo Brain-only ha mostrato le reti più forti e ampie, il gruppo Search Engine ha mostrato un coinvolgimento intermedio e il gruppo LLM è risultato complessivamente il più debole.
Insomma, tra l’utilizzo di AI, l’utilizzo di un motore di ricerca come Google e nessun utilizzo di supporti esterni sembra esserci un vero e proprio abisso.
Nella quarta sessione i partecipanti LLM-to-Brain hanno mostrato una connettività neurale più debole e i partecipanti Brain-to-LLM hanno dimostrato una maggiore capacità di richiamo mnestico, ovvero il processo di recupero di informazioni dalla memoria, sia essa a breve termine o a lungo termine. Non solo, in essi è stato rilevato un rinnovato coinvolgimento di nodi occipito-parietali e prefrontali diffusi, probabilmente a supporto dell’elaborazione visiva.
Il senso di appartenenza dei saggi del gruppo LLM nelle interviste è stato basso, mentre il gruppo Search Engine ha mostrato un forte senso di appartenenza, ma inferiore rispetto al gruppo Brain-only. Inoltre, il gruppo LLM è risultato in ritardo nella capacità di citare i saggi scritti pochi minuti prima.
In questo studio viene dimostrato come esista un problema urgente relativo ad una probabile diminuzione delle capacità di apprendimento, poiché l’impatto educativo dell’uso dei Large Language Model dell’AI inizia solo ora a manifestarsi nella popolazione generale.
L’uso dell’Intelligenza Artificiale ha avuto un impatto misurabile sui partecipanti e, sebbene i benefici fossero inizialmente evidenti, è stato dimostrato che nel corso di 4 mesi i partecipanti del gruppo LLM hanno ottenuto i risultati peggiori a tutti i livelli: neurale, linguistico e di punteggio.
Il gruppo LLM-to-Brain (passato dall’uso delle AI all’uso del solo cervello) ha dimostrato di possedere uno sforzo neurale meno coordinato nella maggior parte delle bande, nonché una distorsione nel vocabolario specifico dell’LLM. Sebbene abbiano ottenuto punteggi elevati sia dal giudice AI che dagli insegnanti umani, i loro saggi si sono distinti meno in termini di distanza nell’uso di NER/n-grammi rispetto agli altri gruppi.
La NER è il processo che consiste nel prendere una stringa di testo (cioè una frase, un paragrafo o un intero documento) e identificare e classificare le entità che si riferiscono a ciascuna categoria.
Cosa si intende per “distanza” nell’uso di NER/n-grammi, lo spiega in maniera piuttosto complessa per noi profani il professore e ricercatore Grzegorz Kondrak (del Department of Computing Science dell’Università di Alberta, Canada) nel suo saggio intitolato: N-Gram Similarity and Distance.
Tenterò di semplificare.
La Distanza di Levenshtein è definita da un numero minimo di operazioni di modifica elementari necessarie per trasformare una stringa di testo in un’altra.
Ecco, secondo lo studio del MIT il gruppo che ha utilizzato l’AI per formulare dei testi scritti non ha brillato nell’utilizzo di questa “distanza”, che è stata messa a paragone in termini di NER/n-grammi con quella performata dagli altri due gruppi.
In soldoni, sia il giudice AI che l’insegnate umano hanno concordato nel dire che i testi formulati dal gruppo LLM fossero buoni, tuttavia mancavano di quella che a molti potrà apparire come una sfumatura, ma per chi si intende di letteratura, non lo è affatto. Noi, lo consideriamo un vero e proprio abisso nel quale si misura la differenza tra una mente umana e una “mente” artificiale. Quella “sfumatura” è la peculiarità. Un testo che presenza una distanza troppo corta tra una stringa e l’altra può anche essere esaustivo, ma non brilla. È lì, funziona ma non coinvolge.
Quando crea, l’AI accozza nozioni e lo fa in modo certamente funzionale al raggiungimento dell’obbiettivo, questo è fuor di dubbio; l’individuo (pittore, letterato o musicista che sia), invece, crea in un modo che non è replicabile dalla tecnologia in termini che per l’essere umano sono illimitati, come lo è la mente umana.
So che alcuni dissentirebbero e risponderò in un modo che potrebbe apparire strano, ma provate a seguire il mio ragionamento. Pensiamo a quanto si espande la coscienza umana con l’assunzione di uno psichedelico come, ad esempio, un fungo allucinogeno. Ecco, l’AI non è in grado di fare questa operazione perché non possiede coscienza di sé e non è quindi in grado di espandersi in termini illimitati, ma solo di ampliare le nozioni che l’algoritmo accumula sistematicamente attingendo dalle produzioni umane, come ho spiegato nel mio pezzo Allevamenti intensivi di AI, di cui vi suggerisco la lettura.
Peggio ancora, l’elettroencefalografia ha evidenziato che quando una persona utilizza sistematicamente LLM per la creazione di testi e poi gli viene chiesto di farlo senza il supporto della tecnologia, il suo cervello risulta regredito in termini di capacita di espansione. In sostanza, l’utilizzo prolungato delle AI per creare provoca nell’uomo l’effetto inverso di un fungo allucinogeno, ovvero: attiva un restringimento delle capacita intellettive (debito intellettivo) e con esse, a mio avviso, della coscienza.
Alcuni di voi potrebbero ribattere: «Chi se ne frega! Tu quanto ci metti a scrivere un pezzo rispetto a me che lo faccio utilizzando LLM?». La risposta è: «Ci impiego il doppio (se non di più) del tempo, ma io sarò in grado di farlo in maniera non solo costante, ma in costante miglioramento, mentre tu lo fai in maniera altrettanto funzionale, nella metà del tempo, ma come lo farebbero altre decine di migliaia di persone. Ergo, la mia produzione, a tratti snervante e lenta, è anche unica e irripetibile. Proprio in quell’unicità è deposto un seme che non può germogliare dove non esiste coscienza umana e, soprattutto, io potrei farlo con il solo supporto di un foglio ed una penna, senza elettricità e senza connessione internet, tu no».
Questo vale per qualsiasi tipo di prodotto venga creato con l’utilizzo di AI: musica, design, disegno, pittura, letteratura, ricette di cucina… Quello che oggi definiamo “artigianato” si estinguerebbe completamente se tutti si affidassero all’Intelligenza Artificiale per creare qualcosa di nuovo. Perché nulla che sia “nuovo” può nascere da un’AI: si tratta solo dell’infinita rielaborazione e codificazione di cose già esistenti. E dunque quando tutto sarà solo un mescola e rimescola degli algoritmi, come potranno nascere nuove idee? Che ne sarà del mondo quando il cervello degli umani sarà così intorpidito dall’utilizzo incessante delle LLM da perdere la prerogativa di saper creare qualcosa di assolutamente innovativo?
L’AI overview di Google mi suggerisce che: «Il genio è colui che possiede una creatività originale ed eccezionale, capace di superare le aspettative e stabilire nuovi standard in un’arte, una scienza o un’impresa».
Se getto uno sguardo al futuro vedo un mondo di matti che vivono in un paese che sembrava meraviglioso, facile e immediato, ma che non sono più in grado di creare meraviglie.