top of page

iscriviti

Riceverai un aggiornamento quando viene pubblicato un nuovo articolo

INVIATO!

Cerca
  • Immagine del redattoreAlice Rondelli

L'algoritmo dell'insicurezza


Il programma RIO del MIT lavora attraverso l’intelligenza artificiale per individuare e analizzare gli account social che diffondono disinformazione con una precisione del 96%. Ma chi decide cos’è considerabile hostile influence operation?

Ph. Orchidee urlanti, 2013 (Alice Rondelli)


Il Massachusetts Institute of Technology (meglio conosciuto come MIT) è una delle più importanti università di ricerca del mondo con sede a Cambridge, nel Massachusetts, ed è sorto nel 1861 come istituto dedito alla ricerca applicata all’industria. L’Artificial Intelligence (AI) Software Architectures and Algorithms Group del MIT Lincoln Laboratory (un centro di ricerca e sviluppo del MIT) sta cercando di guidare gli Stati Uniti nell’applicazione delle tecnologie di intelligenza artificiale e apprendimento automatico, per soddisfare le esigenze critiche di sicurezza nazionale. Spiega il sito web: «Ci stiamo concentrando su applicazioni che riguardano l’antiterrorismo, il contrasto alla tratta di esseri umani, l’assistenza umanitaria e la risposta alle catastrofi, la protezione della patria e la sicurezza globale. In collaborazione con l’industria e il mondo accademico, stiamo lavorando alle frontiere dell’intelligenza artificiale per sviluppare prototipi che possano aiutare a risolvere i problemi di sicurezza nazionale che riguardano i settori terrestre, marittimo, aereo e spaziale».

Steven Thomas Smith, membro senior del gruppo, è un esperto di radar, sonar ed elaborazione dei segnali con esperienza ventennale, ed è tra coloro che nel 2014 hanno lanciato il programma RIO (acronimo di Reconnaissance of Influence Operations), definito: «un nuovo software che sfrutta le tecniche di intelligenza artificiale per automatizzare il rilevamento e la valutazione delle operazioni di influenza aggressiva».

Una prestampa relativa all’approccio del programma RIO rimanda ad un file di archivio della Cornell University, che al gennaio 2021 titolava: «Rilevamento automatico di attori influenti nelle reti di disinformazione» ed è firmato, tra gli altri da Steven T. Smith. Nel documento si legge: «l’utilizzo delle comunicazioni digitali e dei social media come arma per condurre campagne di disinformazione veloci e su vasta scala presenta nuove sfide per identificare e contrastare le hostile influence operations (IOs). Questo documento fornisce un quadro end-to-end per automatizzare il rilevamento di narrazioni, reti e attori influenti di disinformazione. Il framework integra l’elaborazione del linguaggio naturale, l’apprendimento automatico, l’analisi dei grafici e un nuovo approccio di inferenza causale di rete per quantificare l’impatto dei singoli attori nella diffusione delle narrazioni IO.» Per dimostrare le capacità di RIO su campagne IO ostili nel mondo reale, sono stati utilizzati set di dati Twitter raccolti durante le elezioni presidenziali francesi del 2017 e account IO noti, divulgati da Twitter in un’ampia gamma di campagne IOs, da maggio 2007 a febbraio 2020). Si tratta di oltre 50.000 account in 17 paesi, inclusi account troll e bot. Il sistema è stato in grado di rilevare gli account IOs con una precisione del 96% e di scoprire account ad alto impatto che sfuggono alla lente delle tradizionali statistiche di impatto, basate su conteggi e centralità della rete. 

Insomma, RIO è in grado di rilevare sia le narrazioni di disinformazione, sia le persone che ne sono veicolo molto più efficacemente di quanto riescano a fare gli strumenti attualmente utilizzati dai gestori dei social network.

Un altro documento, intitolato: «Automatic Detection of Influential Actors in Disinformation Networks» spiega che i risultati ottenuti da RIO sono corroborati da fonti indipendenti di account IOs noti provenienti da rapporti del Congresso degli Stati Uniti, dal giornalismo investigativo e da set di dati forniti da Twitter.

Nel gennaio 2021, in un articolo apparso sul sito web del World Economic Forum in collaborazione con MIT news, Anne McGovern (scrittrice scientifica e agenda contributor del Lincoln Laboratory del MIT) spiega che la rilevanza di RIO risiede non semplicemente nell’individuare le false informazioni e gli account che le divulgano, ma nel rilevare e quantificare l’impatto che esse hanno sugli utenti.

Il team di RIO sta lavorando con lo studente di West Point (United States Military Academy) Joseph Schlessinger, che è anche uno studente laureato al MIT e militante al Lincoln Laboratory, per capire come le narrazioni si diffondono nei media europei. A questo proposito, è in corso un nuovo programma di follow-up per approfondire gli aspetti cognitivi delle operazioni di influenza e il modo in cui gli atteggiamenti e i comportamenti individuali sono influenzati dalla disinformazione. McGovern auspica che RIO venga utilizzato da governi e multinazionali sia nel regno dei social media che in quello dei media tradizionali, come giornali e televisione.

Rilevare notizie false utilizzando automatic machine learning techniques (AutoML techniques) significa avere un sistema di rilevamento automatico che esamina un pezzo di testo e determina quanto è probabile che sembri una notizia falsa. Il sistema si basa su un modello di apprendimento automatico addestrato su un set di dati sufficientemente ampio da contenente esempi di notizie vere e false provenienti da varie fonti. I modelli che utilizza RIO eseguono la classificazione binaria addestrati su questo set di training. L’elaborazione del natural language processing eseguirà la pulizia dei dati utilizzando una delle tante tecniche disponibili; le frasi verranno convertite in uno dei vettori di numeri, e i modelli di apprendimento automatico consentiranno a RIO di evolvere. Il Natural language processing (NLP) si riferisce al ramo dell’informatica che riguarda l’intelligenza artificiale, interessato a dare ai computer la capacità di comprendere testi e parole pronunciate più o meno allo stesso modo in cui possono farlo gli esseri umani. L’NLP combina la linguistica computazionale (ovvero la modellazione del linguaggio umano basata su regole) con modelli statistici di machine learning e di deep learning. Insieme, queste tecnologie consentono ai computer di elaborare il linguaggio umano sotto forma di testo o dati vocali e di “comprenderne” il significato completo, le intenzioni e i sentimenti di chi parla o scrive. L’NLP guida programmi per computer che traducono testi da una lingua a un’altra, rispondono a comandi vocali (come fanno SIRI, i sistemi GPS a comando vocale, gli assistenti digitali, i software di dettatura vocale, le chatbot del servizio clienti e via dicendo) e sono in grado di riassumere rapidamente grandi volumi di testo, anche in tempo reale. L’NLP è, inoltre, in grado di semplificare le operazioni aziendali, aumentare la produttività dei dipendenti e semplificare i processi aziendali mission-critical. Tutto questo è possibile previo un programming language, che è il modo attraverso il quale gli sviluppatori comunicano con i computer e settano gli algoritmi che sono alla base di un programma come RIO.

I linguaggi di programmazione sono costituiti da un insieme di regole che consentono di convertire gli string values in vari modi, di generare codici macchina o – nel caso dei linguaggi di programmazione visuali – elementi grafici. Gli algoritmi sono il nucleo di qualsiasi programma software, poiché definiscono la logica e i passaggi per risolvere un problema o eseguire un’attività. Tuttavia, alcuni programming language potrebbero avere caratteristiche, sintassi e paradigmi diversi che influiscono sul modo in cui si progettano e si implementano gli algoritmi. Le prime applicazioni NLP non potevano facilmente adattarsi a un flusso infinito di eccezioni, o ai crescenti volumi di dati testuali e vocali. Questa è la sfida che ha deciso di affrontare RIO, perfezionando un processo conosciuto come deep learning, con il quale ha imparato a classificare ed etichettare automaticamente elementi di testo e dati vocali e assegnare loro una probabilità statistica.

Questo modello di deep learning – abbinato a tecniche di apprendimento basati sui convolutional neural networks (CNNs) e sui recurrent neural networks (RNNs) – consente ai sistemi NLP di “imparare” mentre funzionano, così da estrarre significati sempre più accurati da enormi volumi di testo grezzo, non strutturato e senza etichetta e da set di dati vocali.

Il convolutional neural network (CNN) è un tipo regolarizzato di rete neurale feed-forward, che apprende da sola l’ingegneria delle funzionalità tramite l’ottimizzazione dei filtri; e il recurrent neural network (RNN) è uno dei due grandi tipi di rete neurale artificiale caratterizzata dalla direzione del flusso di informazioni tra i suoi strati.

A differenza della CNN – che è unidirezionale – la RNN è una rete neurale artificiale bidirezionale, il che significa che consente all’output di alcuni nodi di influenzare l’input successivo agli stessi nodi.

Quindi, non solo RIO fornisce un’indicazione tempestiva delle hostile influence operations (IOs), avvisando i fornitori di piattaforme di social media e il pubblico, ma ha anche il potenziale per prevedere gli effetti di contro risposte mirate.

Edward K. Kao, ingegnere elettronico e membro del gruppo di ricerca RIO, sostiene che: «Difendersi dalla disinformazione non è solo una questione di sicurezza nazionale, ma anche di protezione della democrazia». Tuttavia, occorre domandarsi se la parola “difesa” non possa essere fin troppo facilmente sostituita con il termine “controllo”, “protezione “con “conservazione” e “democrazia” con “narrativa”.

Parafrasando Kao: Controllare l’informazione non è solo una questione di sicurezza nazionale, ma anche di conservazione della narrativa. Sì, perché è innegabile che la condivisione selvaggia di opinioni in merito a questo e quell’altro argomento possano, alla lunga, generare instabilità sociale. Come? Attraverso la graduale acquisizione della consapevolezza che la maggior parte delle informazioni che ci vengono sistematicamente fornite dai governi e dalle élite economiche abbiano scopi molto meno altruistici e filantropici di quello che ci viene paventato. Azzerare qualunque critica, o voce discordante che si levi attorno ad un argomento di interesse economico-politico, anche quando corroborata da prove incontrovertibili, sotto la falsa bandiera della tutela della sicurezza e della democrazia, sembra essere diventata la vera missione degli ingeneri informatici. Occorre, però, capire chi è il mandante di tale missione.

Il MIT Lincoln Laboratory, creato nel 1951, è il centro di ricerca e sviluppo del MIT ed è finanziato dal Dipartimento della Difesa degli Stati Uniti. Da questa semplice informazione si deduce che sia il governo americano a supportare lo sviluppo di nuove tecnologie che consentano di individuare e censurare coloro i quali usano internet, e in particolare i social network, per diffondere notizie che il governo stesso ritiene false o, per meglio dire, inopportune.

Una domanda sorge spontanea: cosa avrebbe significato per il mondo il lavoro di Wikileaks se RIO (che all’epoca ancora non esisteva) avesse classificato le informazioni dei whistleblowers come hostile influence operations (IOs), annoverandole in quel 96% di certezza che si trattasse di informazioni false, seppure false non erano – come dimostrano i documenti?

“Influenze ostili” questo è il termine che viene usato. Ma ostili a chi? Ai finanziatori programmi come RIO, il cui solo scopo è quello di scovare i divulgatori sgraditi alla narrativa del governo americano.

La domanda più importante, però, è questa: cosa accadrà a chi terrà online comportamenti considerati hostile influence operations da RIO? La risposta ha un sapore amaro come il fiele ed è priva di parole, a definirla basta un’immagine: Julian Assange.

 

Ho scritto al dottor Steven T. Smith, membro del team che ha progettato RIO, chiedendogli di rispondere a tre semplici domande. La prima: RIO lavora attraverso algoritmi e nasce con il proposito di individuare e analizzare gli account dei social media che diffondono disinformazione, rilevando quelli che operano hostile influence con una precisione del 96%. Può spiegarmi, in parole semplici, come lei e il suo team impostate il paniere dinamico degli algoritmi di RIO e i programing language?; la seconda: cosa significa che, cito dall’articolo: «I risultati di RIO sono supportati da resoconti riguardanti account che operano “influenze ostili” forniti da fonti indipendenti, rapporti del Congresso americano, giornalisti investigativi e IOs data sets forniti da Twitter?; l’ultima: lei e il suo team avete mai riflettuto sulla questione relativa alla libertà d’espressione in relazione al vostro lavoro?

Attendo ancora una risposta.


Sostieni l'indipendenza di (F)ATTUALE



bottom of page