top of page

iscriviti

Riceverai un aggiornamento quando viene pubblicato un nuovo articolo

INVIATO!

Cerca
  • Immagine del redattoreAlice Rondelli

Allevamenti intensivi di AI

«L’intelligenza artificiale non esiste, esiste solo l’intelligenza umana» ha detto il filosofo Alva Noë. Ma le AI hanno un enorme potenziale economico, quindi numerose aziende stanno cercando il modo di allenarle, affinché possano sostituire gli esseri umani in numerosi campi. Come? Come usa fare il capitalismo: rubando da noi, per sfamare loro.

Ph. Museo Cyberpunk, Cluj-Napoca, 2023 (Alice Rondelli)

Il 24 giugno 2024, Meta Platforms Inc, fondata nel 2004 da Mark Zuckerberg (impresa statunitense che controlla i servizi di rete sociale Facebook e Instagram, i servizi di messaggistica istantanea WhatsApp e Messenger, e che sviluppa i visori di realtà virtuale Oculus Rift) aggiornerà ufficialmente la propria informativa sulla privacy. Per farlo, sta inviando agli utenti una notifica che spiega come, da quel momento in poi, si affiderà «su base giuridica denominata “interesse legittimo” per l’uso delle tue informazioni, al fine di sviluppare e migliorare l’AI di Meta». Ovviamente, la compagnia offre il cosiddetto: «right to object» al trattamento delle informazioni dei fruitori dei loro servizi per le finalità sopra descritte. In altre parole, compilando l’apposito modulo, abbiamo il diritto di specificare se non desideriamo che le AI generative (che sono in grado di creare testo, immagini, video, musica, o altri media in risposta a delle richieste) utilizzino le nostre informazioni (tratte da post, foto e relative didascalie, nonché dai messaggi che inviamo ad un’AI); in caso di mancato diniego, Meta potrà automaticamente cogliere a piene mani tutti i dati che abbiamo da offrire.

 

Qualcuno potrebbe obiettare che è da quando ci siamo iscritti ad uno dei servizi offerti da Meta, che gli regaliamo i nostri dati sensibili, quindi ora di cosa possiamo lamentarci? Ci offrono anche la possibilità di rifiutare la condivisione dei dati!

Tuttavia, la faccenda è più complessa di così e lo spiega bene lo scandalo Cambridge Analytica, nel quale Zuckerberg è incappato nel, non lontano, 2018. Parlerò di questo argomento alla fine di questo pezzo.

 

Occorre cominciare con una definizione: l’AI, ovvero l’Intelligenza Artificiale, è una specialità dell’informatica che si occupa della creazione di sistemi in grado di replicare l’intelligenza umana e le capacità di risoluzione dei problemi. Lo fanno raccogliendo una miriade di dati, elaborandoli e imparando dal passato per semplificarli e migliorarli in futuro.

Nei tempi antichi, gli inventori realizzavano oggetti meccanici, chiamati “automi”, che si muovevano indipendentemente dall’intervento umano. La parola “automa” deriva dal greco antico e significa “agire secondo la propria volontà”. Una delle prime testimonianze di un automa risale al 400 a.C. e si riferisce a un piccione meccanico creato da un amico del filosofo Platone. Molti anni dopo, uno degli automi più famosi fu creato da Leonardo da Vinci, intorno all’anno 1495.

 

Agli inizi del 1900 gli scienziati hanno iniziato a porsi la domanda: è possibile creare un cervello artificiale? Alcuni creatori realizzarono interessanti versioni di quelli che oggi chiamiamo “robot” (parola che fu coniata in un’opera teatrale ceca, nel 1921), sebbene la maggior parte di essi fossero relativamente semplici. Questi erano per la maggior parte alimentati a vapore e alcuni potevano esprimere le espressioni facciali e persino camminare.

Nel 1921 il drammaturgo ceco Karel Čapek pubblicò un’opera di fantascienza, intitolata “Rossum’s Universal Robots”, in cui introdusse l’idea di “persone artificiali”, a cui dà il nome di “robot”.

Nel 1929 il professore giapponese Makoto Nishimura costruì il primo robot, che chiamò Gakutensoku.

Nel 1949 l’informatico Edmund Callis Berkley pubblicò il libro “Giant Brains, or Machines that Think”, che confrontava i nuovi modelli di computer con il cervello umano.

L’anno successivo il matematico inglese Alan Turing pubblicò: “Computer Machinery and Intelligence”, che proponeva un test di intelligenza artificiale chiamato The Imitation Game.

Due anni dopo, un informatico di nome Arthur Samuel sviluppò un programma per giocare a dama, che è stato il primo ad imparare il gioco in modo indipendente.

Nel 1955 l’informatico statunitense John McCarthy tenne un seminario a Dartmouth sull’intelligenza artificiale, coniando per primo il termine.

Il periodo intercorso tra la creazione del termine “intelligenza artificiale” e gli anni Ottanta fu un periodo sia di rapida crescita, che di lotta per la ricerca sull’intelligenza artificiale, in cui vediamo: la creazione di LISP (acronimo di List Processing), il primo linguaggio di programmazione per la ricerca sull’intelligenza artificiale; il primo robot industriale, Unimate, che cominciò a lavorare su una catena di montaggio della General Motors nel New Jersey; Edward Feigenbaum e Joshua Lederberg crearono il primo “sistema esperto” , una forma di intelligenza artificiale programmata per replicare le capacità di pensiero e decisionali degli umani; Joseph Weizenbaum creò il primo “chatterbot” (ovvero, un software che simula ed elabora le conversazioni umane); James L. Adams creò lo Standford Cart, che divenne uno dei primi esempi di veicolo autonomo e nel 1979 venne fondata quella che è ora conosciuta come Association for the Advancement of Artificial Intelligence (AAAI).

 

La maggior parte degli anni Ottanta ha mostrato notevoli progressi compiuti nella ricerca, grazie ai finanziamenti governativi. Le tecniche di deep learning sono diventate più popolari, consentendo ai computer di imparare dai propri errori e di prendere decisioni indipendenti.

Gli anni dal 1987 al 1993 videro scarso interesse dei consumatori, del pubblico e del privato per l’intelligenza artificiale, cosa che portò a una diminuzione dei finanziamenti alla ricerca e il conseguente rallentamento dei i progressi.

Tuttavia, il 1997 vide un repentino balzo in avanti con lo sviluppo di Deep Blue da parte di IBM, il software che batté il campione mondiale di scacchi Gary Kasparov; nello stesso anno, Windows rilasciò un software di riconoscimento vocale; nel 2000 la professoressa Cynthia Breazeal sviluppò il primo robot in grado di simulare le emozioni umane con il suo volto, si chiamava Kismet; tre anni più tardi, la Nasa fece atterrare due rover su Marte (Spirit e Opportunity), che navigarono sulla superficie del pianeta senza intervento umano; nel 2006 Twitter, Facebook e Netflix hanno iniziato a utilizzare l’intelligenza artificiale come parte dei loro algoritmi pubblicitari e di esperienza utente; nel 2010 Microsoft ha lanciato Xbox 360 Kinect, il primo hardware di gioco progettato per tracciare i movimenti del corpo e tradurli in direzioni di gioco e nel 2011 Apple rilasciò Siri, il primo assistente vocale virtuale.

 

La vera svolta per l’AI arriva con il rapido sviluppo del Deep Learning e dei Big Data.

Due ricercatori di Google (Jeff Dean e Andrew Ng) hanno addestrato una rete neurale a riconoscere i gatti, mostrando immagini senza etichetta e senza informazioni di base; Hanson Robotics ha creato un robot umanoide chiamato Sophia, il primo ad avere un aspetto umano realistico e la capacità di vedere e replicare le emozioni, oltre a comunicare; Facebook ha programmato due chatbot per conversare e imparare a negoziare; un gruppo tecnologico cinese chiamato Alibaba ha battuto l’intelletto umano in un test di lettura e comprensione di Stanford;  OpenAI ha avviato il beta testing di GPT-3, un modello che utilizza il Deep Learning per creare poesia e altre attività simili di linguaggio e scrittura, quasi indistinguibili da quelli creati dagli esseri umani e DALL-E, in grado di elaborare e comprendere le immagini, abbastanza da produrre didascalie accurate, avvicinando l’intelligenza artificiale alla comprensione del mondo visivo.

 

Meta ha individuato nel settore AI un terreno fertilissimo per accumulare nuovi guadagni.

Infatti, il mercato dell’intelligenza artificiale ha, ad oggi, un valore di oltre 196 miliardi di dollari e si prevede che il valore del settore aumenterà di oltre 13 volte nei prossimi 7 anni.

Il mercato statunitense dell’AI raggiungerà quasi 300 miliardi di dollari entro il 2026 e si espanderà a un CAGR (ovvero, il tasso medio di crescita dei ricavi) del 38,1% tra il 2022 e il 2030.

Entro il 2025, ben 97 milioni di persone lavoreranno nel settore dell’intelligenza artificiale e le dimensioni del mercato cresceranno almeno del 120% su base annua.

L’83% delle aziende americane, attualmente, afferma che l’intelligenza artificiale è una priorità assoluta nei propri piani aziendali e il 48% di esse ne utilizza già una qualche forma, per gestire i big data in modo efficace.

Basti pensare che Netflix guadagna 1 miliardo di dollari l’anno grazie ai consigli personalizzati automatizzati.

Quest’anno, gli assistenti vocali dotati di tecnologia di elaborazione del linguaggio naturale potrebbero superare la razza umana, con una previsione che sfiora gli 8 miliardi e mezzo di dispositivi.

Il Natural Language Processing (NLP), ovvero l’elaborazione del linguaggio naturale, aiuta i computer a tradurre il linguaggio umano, in informazioni che comprendono, manipolando i dati.

Al momento, le aziende sono impegnate nel tentativo di colmare il divario tra il linguaggio umano e l’intelligenza artificiale.

Le entrate globali del mercato della NLP previste per il 2024 sono di 37,33 miliardi di dollari e di 43,29 miliardi per il 2025.

La BBC ha reso noto che il machine learning consente al sistema di intelligenza artificiale dell’Università di Oxford di leggere le labbra con un livello di precisione del 93% e questo rende il sistema più accurato dei lettori labiali umani.

 

Whatsapp, l’app di messaggistica più popolare al mondo (di proprietà di Meta), produce ogni giorno oltre 100 miliardi di messaggi elaborati dall’intelligenza artificiale, dei quali solo il 10% è considerato “strutturato”. Ciò significa che il 90% dei dati non è attualmente strutturato e senza la tecnologia adatta ad elaborare i big data, le aziende non sono in grado di concentrarsi su dati importanti.

Pertanto, le aziende potrebbero perdere l’opportunità di aumentare le proprie entrate.

 

Un articolo del The New York Times, pubblicato il 6 aprile 2024, spiega che alla fine del 2021, OpenAI (laboratorio di ricerca con l’obiettivo di promuovere e sviluppare un’intelligenza artificiale amichevole, in modo che l'umanità possa trarne beneficio) ha dovuto affrontare un problema di approvvigionamento.

Il laboratorio, infatti, aveva esaurito ogni riserva di testi affidabili in lingua inglese su Internet, mentre sviluppava il suo ultimo sistema di intelligenza artificiale. L’azienda ha, dunque, bisogno di più dati per addestrare la versione successiva della sua tecnologia, molti di più.

«La corsa per guidare l’intelligenza artificiale è diventata una caccia disperata ai dati digitali necessari per far avanzare la tecnologia. Secondo un’analisi del The New York Times, per ottenere tali dati le aziende tecnologiche tra cui OpenAI, Google e Meta stanno percorrendo scorciatoie, ignorando le proprie politiche aziendali e discutendo su come modificare la legge (…).»

Secondo le registrazioni di riunioni interne ottenute dal The New York Times, nel 2023 manager, avvocati e ingegneri di Meta, hanno concordato di raccogliere dati protetti da copyright da tutta Internet, anche se ciò significava affrontare azioni legali, affermando che negoziare le licenze con editori, artisti, musicisti e l’industria dell’informazione richiederebbe troppo tempo.

 

Nel frattempo, secondo fonti interne, Google, come OpenAI, ha trascritto i video di YouTube, per raccogliere testi per i suoi modelli di intelligenza artificiale. Ciò ha potenzialmente violato i diritti d’autore dei video, che appartengono ai loro creatori.

L’anno scorso, Google ha ampliato i suoi termini di servizio. Una delle motivazioni del cambiamento, secondo i membri del team privacy dell’azienda, riguardava il consentire a Google di poter accedere a documenti disponibili pubblicamente, recensioni di ristoranti e altro materiale online per ulteriori informazioni. La stessa cosa è stata fatta da Spotify (ne parlo nel pezzo intitolato “Spotify, addio!”) e a giugno 2024, anche gli aggiornamenti di Meta in proposito entreranno in vigore automaticamente.

 

Google e Meta, che hanno miliardi di utenti che ogni giorno producono domande di ricerca e post sui social media, erano in gran parte limitati dalle leggi sulla privacy e dalle loro stesse politiche ad attingere a gran parte di quei contenuti sfruttabili dall’intelligenza artificiale generativa.

Adesso, con i nuovi aggiornamenti alle norme sulla privacy – che noi tutti implicitamente accettiamo, quando non ci premuriamo di esplicitare il nostro dissenso compilando l’apposito form – secondo Epoch (un istituto di ricerca), le aziende tecnologiche potrebbero esaminare dati di alta qualità su Internet già nel 2026, utilizzando i dati più velocemente di quanto non vengano prodotti.

Ovviamente, tutto ciò senza pagare assolutamente nulla a coloro i quali, usando le piattaforme, forniscono dati che serviranno ad accrescere le competenze delle AI generative, che vengono utilizzate dalle aziende per fare un mucchio, ma davvero un mucchio, di soldi.

 

«L’unico modo pratico perché questi strumenti possano esistere è che vengano addestrati su enormi quantità di dati, senza doverne acquistare la licenza», ha detto Sy Damle (un avvocato che rappresenta Andreessen Horowitz, una società di venture capital della Silicon Valley) l’anno scorso, durante una discussione pubblica riguardante la legge sul diritto d’autore. «I dati necessari sono così massicci che nemmeno le licenze collettive possono davvero funzionare».

Staremo a vedere, nel frattempo, le aziende i nostri dati se li prendono, soprattutto perché sanno che, a fronte – come accadde a Zuckerberg nel caso Cambridge Analytica – di una eventuale multa, i guadagni supererebbero di gran lunga le perdite.

 

Lo scorso anno il The New York Times ha citato in giudizio OpenAI e Microsoft per aver utilizzato articoli di notizie protetti da copyright senza autorizzazione, per addestrare i propri chatbot. Le due aziende si sono giustificate affermando che l’utilizzo degli articoli era fair use, consentito dalla legge sul copyright, perché hanno trasformato le opere per uno scopo diverso.

Un fair use è qualsiasi copia di materiale protetto da copyright effettuata per uno scopo limitato e “trasformativo”, come commentare, criticare, o parodiare un’opera protetta da copyright. Tali usi possono essere effettuati senza il permesso del proprietario del copyright.

 

«Nel gennaio 2020, Jared Kaplan, fisico teorico della Johns Hopkins University, ha pubblicato un articolo rivoluzionario sull’intelligenza artificiale, che ha alimentato l’appetito per i dati online.

La sua conclusione è stata inequivocabile: più dati ci sono per addestrare un grande modello linguistico – la tecnologia che guida i chatbot online – migliore sarà il suo rendimento. Proprio come uno studente impara di più leggendo più libri, i modelli linguistici di grandi dimensioni possono individuare meglio i modelli nel testo ed essere più accurati con più informazioni.»

Il dottor Kaplan oggi lavora presso la start-up di intelligenza artificiale Anthropic.

 

Sam Altman, amministratore delegato di OpenAI, e i suoi dipendenti sapevano che stavano entrando in un’area grigia dal punto di vista legale, quando hanno cominciato ad utilizzare Whisper (uno strumento di riconoscimento vocale) per trascrivere video e podcast di YouTube.

Nonostante questo, nel 2023 OpenAI ha rilasciato GPT-4, che ha attinto ad oltre un milione di ore di video di YouTube trascritti da Whisper e il signor Brockman, presidente di OpenAI, ha guidato il team che lo ha sviluppato.

«Alcuni dipendenti di Google erano a conoscenza del fatto che OpenAI aveva raccolto video di YouTube per ricavare dati», hanno detto due persone che lavorano nell’azienda, «ma non hanno fermato OpenAI perché Google aveva fatto lo stesso per addestrare i suoi modelli di intelligenza artificiale (…). Quindi, se Google avesse fatto storie su OpenAI, ci sarebbe stata una protesta pubblica contro i suoi stessi metodi.»

Matt Bryant, portavoce di Google, ha affermato che la società non era a conoscenza delle pratiche di OpenAI e ha vietato lo scraping e i download non autorizzati di contenuti di YouTube.

 

«Il team dedicato alla privacy ha riscritto i termini di utilizzo, in modo che Google potesse sfruttare i dati per i suoi “modelli di intelligenza artificiale e creare prodotti e funzionalità come Google Translate e altre funzionalità del cloud”, che sono una raccolta più ampia di tecnologie di intelligenza artificiale.»

Al team è stato detto specificamente di pubblicare i nuovi termini nel fine settimana del 4 luglio, quando le persone sono generalmente concentrate sulle vacanze.

 

All’inizio del 2023, Meta aveva dovuto affrontare lo stesso ostacolo dei suoi rivali: l’insufficienza dei dati. Secondo le registrazioni di riunioni interne (che sono state condivise con il The New York Times da un dipendente), Ahmad Al-Dahle, vicepresidente dell’AI generativa di Meta, ha detto ai dirigenti che il suo team ha utilizzato quasi tutti i libri, i saggi, le poesie e gli articoli in lingua inglese disponibili su Internet, per sviluppare un modello; ma Meta non poteva eguagliare ChatGPT, a meno che non ottenesse più dati.

Così, nei mesi di marzo e aprile 2023, alcuni leader dello sviluppo aziendale, ingegneri e avvocati di Meta si sono incontrati, quasi quotidianamente, per affrontare il problema. Tra e altre cose, hanno parlato di come avevano riassunto libri, saggi e altri lavori da Internet senza permesso e hanno discusso di come assorbirne ancora di più, anche se ciò significava affrontare azioni legali.

Un avvocato ha espresso preoccupazioni “etiche” riguardo alla sottrazione della proprietà intellettuale agli artisti, ma pare che nessuno abbia dato seguito alla conversazione.

Durante le discussioni registrate, i dirigenti di Meta hanno raccontato di come avevano assunto appaltatori in Africa per aggregare riassunti di narrativa e saggistica, che includevano contenuti protetti da copyright «perché non abbiamo modo di non raccoglierli», ha detto un manager durante una riunione. «Siccome OpenAI sta prendendo materiale protetto da copyright, Meta potrebbe seguire questo “precedente di mercato”», ha aggiunto.

Anche Meta sembra volersi appellare al fair use, poiché un modello di intelligenza artificiale può produrre testo simile a quello umano – come ha già sostenuto Altman di OpenAI – i sistemi possono creare dati aggiuntivi per sviluppare versioni migliori di sé stessi. Ciò aiuterebbe gli sviluppatori a creare tecnologie sempre più potenti e a ridurre la loro dipendenza dai dati protetti dai diritti d’autore.

 

«I ricercatori dell’intelligenza artificiale esplorano i dati sintetici da anni, ma costruire un sistema di intelligenza artificiale in grado di auto-addestrarsi è più facile a dirsi che a farsi. I modelli di intelligenza artificiale che imparano dai propri risultati possono rimanere intrappolati in un circolo vizioso, in cui rafforzano le proprie peculiarità, errori e limiti. (…). Per contrastare questo problema, OpenAI e altri stanno studiando come due diversi modelli di intelligenza artificiale potrebbero lavorare insieme per generare dati sintetici più utili e affidabili.»

 

Per comprendere a fondo il perché sia necessario riflettere sul dare, o meno il proprio consenso all’utilizzo dei dati che condividiamo sulle piattaforme di Meta, bisogna analizzare lo scandalo Cambridge Analytica, in cui la società di Zuckerberg è incappata nel 2018.

 

Cambridge Analytica è una società di analisi dei dati fondata nel 2014 e di cui Robert Mercer possiede il 90% e SCL il 10%. L’azienda ha realizzato importanti campagne di targeting digitale per la campagna di Donald Trump e numerose altre campagne repubblicane statunitensi – per lo più finanziate da Mercer – e dato “aiuto” al Leave.EU di Nigel Farage durante il referendum per la Brexit).

Fu rivelato che Cambridge Analytica aveva raccolto i dati personali di 87 milioni di account Facebook, senza il consenso degli utenti e dell’azienda, e che li aveva usati per scopi di propaganda politica.

La raccolta illecita venne segnalata per la prima volta nel dicembre 2015, da un giornalista di The Guardian, ma lo scandalo scoppiò solo a marzo 2018, a causa delle rivelazioni di un ex dipendente di Cambridge Analytica, Christopher Wylie.

 

In un articolo firmato da Carole Cadwalladr, pubblicato nel maggio 2017 dal The Guardian, intitolato: «The Great British Brexit Robbery», il whistleblower dice: «Nel gennaio 2013, una giovane laureata americana a Londra, fu contattata dal capo di un’azienda dove aveva precedentemente svolto uno stage. La SCL Elections era stata acquistata da Robert Mercer, un miliardario di hedge fund, e ribattezzata SCL/Cambridge Analytica. All’epoca eravamo ancora solo un’azienda di guerra psicologica.» 

SCL Group (Strategic Communication Laboratories) è un’azienda britannica con 25 anni di esperienza nelle “operazioni psicologiche” militari e nella “gestione elettorale”.

Insomma, tutto doveva ancora cominciare.

«Gli Psyops (acronimo di Psychological operations) sono gli stessi metodi utilizzati dai militari per effettuare un cambiamento del mass sentiment». Le aziende utilizzano le informazioni derivanti dell’analisi del sentiment per migliorare il servizio clienti e aumentare la reputazione del marchio. «Questo è ciò che intendono per conquistare “cuori e menti”. Lo scopo era quello di vincere le elezioni in quei Paesi in via di sviluppo che non hanno molte regole. (…) Era come lavorare per l’MI6 (il servizio segreto britannico).»

Nel gennaio 2013 la stagista incontrò l’amministratore delegato della SCL, Alexander Nix, e gli suggerì l’idea di entrare nei dati degli utenti di un’azienda che apparteneva a qualcuno di cui era a conoscenza, tramite suo padre. Palantir è una società di data mining che ha contratti con i governi di tutto il mondo ed è di proprietà di Peter Thiel, il miliardario co-fondatore di PayPal, nonché importante investitore in Facebook, che è diventato il primo sostenitore di Trump nella Silicon Valley.

L’informatore ha rivelato: «ciò che sta accadendo in America e ciò che sta accadendo in Gran Bretagna sono intrecciati. La Brexit e Donald Trump sono intrecciati. I legami dell’amministrazione Trump con la Russia e la Gran Bretagna sono intrecciati. E Cambridge Analytica è un punto focale attraverso il quale possiamo come si sviluppano tutte queste relazioni in gioco. L’elefante nella stanza è la Gran Bretagna che lega il suo futuro a un’America che viene ridisegnata – in modo radicale e allarmante – da Donald Trump».

 

La vicenda, ha gettato le basi di uno stato di sorveglianza autoritario negli Stati Uniti.

Secondo Jonathan Albright (professore di comunicazione alla Elon University, nella Carolina del Nord) l’algoritmo di Google era stato ingannato da siti estremisti. Egli è stato la prima persona a mappare e scoprire un intero ecosistema di notizie e informazioni dell’alt-right e ad informarsi su Cambridge Analytica, definendola come punto centrale nella macchina della propaganda della destra. Robert Mercer e Steve Bannon, l’aiutante chiave di Trump nel 2017, erano in missione strategica per distruggere i media mainstream e sostituirli con fatti alternativi.

Mercer è un brillante informatico, un pioniere della prima intelligenza artificiale e comproprietario di uno degli hedge fund di maggior successo del pianeta (con un rendimento annuo del 71,8%), nonché buon amico di Nigel Farage. È stato proprio Mercer ad ordinare alla sua società, Cambridge Analytica, di spingere la campagna Vote Leave, per il referendum riguardante la Brexit.

Ma il ruolo di Mercer nel referendum è andato ben oltre.

 

Scrive la giornalista Carole Cadwalladr: «La chiave per capire come un miliardario motivato e determinato possa aggirare le leggi elettorali britanniche risiede in AggregateIQ, un’oscura società di analisi web con sede in un ufficio sopra un negozio a Victoria, in Canada».

È stato con AggregateIQ che Vote Leave ha scelto di spendere 3,9 milioni di sterline (più della metà del suo budget ufficiale). Così come hanno fatto altre tre campagne affiliate al Leave: BeLeave, Veterans for Britain e il Partito Democratico Unionista, spendendo quasi altre 800 mila sterline.

Il “coordinamento” tra campagne è vietato dalla legge elettorale del Regno Unito, a meno che le spese non vengano dichiarate congiuntamente, e non era quello il caso.

Vote Leave afferma che la Commissione elettorale ha esaminato la questione e ha dato “un certificato di buona salute”, ovvero: non c’era nulla che non andasse.

 

Martin Moore, direttore del centro studi di comunicazione, media e potere del King’s College di Londra, si domanda come ha fatto un’oscura azienda canadese a svolgere un ruolo così cruciale nella Brexit. Esaminando tutte le fatture della campagna per il Leave, Moore continuava a scoprire che somme enormi andavano ad un’azienda di cui non aveva mai sentito parlare e di cui su Internet non si trovava praticamente nulla. Erano stati spesi più soldi con AggregateIQ che con qualsiasi altra azienda, in qualsiasi altra campagna, durante l’intero referendum.

 

Moore ha contribuito a un rapporto della London School of Economics, pubblicato ad aprile, in cui si concludeva che le leggi elettorali del Regno Unito erano “deboli e indifese” di fronte alle nuove forme di campagna digitale. Società offshore, denaro versato nei database, terze parti senza vincoli, limiti alla spesa rimossi… Le leggi relative alle elezioni non erano più adatte allo scopo e necessitavano urgentemente di una revisione parlamentare.

 

AggregateIQ era la chiave per svelare un’altra complicata rete di influenza creata dal finanziatore di Facebook, Robert Mercer. La giornalista venne informata da una fonte che l’indirizzo e il numero di telefono di AggregateIQ corrispondevano ad una società elencata sul sito web di Cambridge Analytica come ufficio estero: SCL Canada. Il giorno dopo, quel riferimento scomparve dalla rete.

 

Tuttavia, il legame tra AggregateIQ, Cambridge Analytica, Leave.EU e Vote Leave è sempre stato negato; non c’era nulla che potesse smentire che AggregateIQ era stato solo un appaltatore a breve termine di Cambridge Analytica; ma una fonte interna all’azienda ha spiegato alla giornalista che i canadesi di AggregateIQ erano il back office di Cambridge Analytica, che avevano creato il software che usavano e che detenevano il loro database.

SCL/Cambridge Analytica non era una startup creata da una coppia di ragazzi con un Mac PowerBook, ma faceva effettivamente parte dell’establishment della difesa britannico e, ora, anche l’establishment della difesa americano. Chris Naler, ex comandante del centro operativo del Corpo dei Marines degli Stati Uniti, era recentemente entrato a far parte della Iota Global, partner del gruppo SCL.

Un altro ex dipendente di Cambridge Analytica, che lavorava presso l’azienda quando questa introdusse la raccolta in massa di dati nelle sue tecniche di guerra psicologica, ha affermato: «Ha unito psicologia, propaganda e tecnologia in un modo nuovo e potente».

 

È stato Facebook a renderlo possibile, perché è stato da Facebook che Cambridge Analytica ha ottenuto il suo vasto set di dati.

In precedenza, gli psicologi dell’Università di Cambridge raccoglievano dati di Facebook (legalmente) per scopi di ricerca e pubblicavano lavori pionieristici sottoposti a revisione paritaria sulla determinazione dei tratti della personalità, della faziosità politica, della sessualità e molto altro dai “Mi piace” cliccati delle persone su Facebook. Cambridge Analytica ha incaricato uno scienziato dell’università, il dottor Aleksandr Kogan, di raccogliere nuovi dati da Facebook, e lo ha fatto pagando le persone per rispondere a un quiz sulla personalità, che ha permesso di raccogliere non solo i propri profili Facebook, ma anche quelli dei loro amici – un processo allora consentito dal social network.

Facebook è stata la fonte delle intuizioni psicologiche che hanno consentito a Cambridge Analytica di prendere di mira gli individui ed è stato anche il meccanismo che ha consentito loro di essere distribuiti su larga scala.

L’azienda ha anche acquistato (in modo perfettamente legale) set di dati sui consumatori – su tutto, dagli abbonamenti alle riviste ai viaggi aerei – e li ha aggiunti ai file degli elettori, insieme ai dati psicologici. Tutte queste informazioni venivano abbinate agli indirizzi delle persone, ai loro numeri di telefono e, spesso, ai loro indirizzi email.

«L’obiettivo era quello di catturare ogni singolo aspetto dell’ambiente informativo di ogni elettore», ha affermato il whistleblower. «E i dati sulla personalità hanno consentito a Cambridge Analytica di creare messaggi individuali».

La chiave risiedeva nel trovare stimoli emotivi per ogni singolo elettore.

 

Afferma Tamsin Shaw, professore associato di filosofia alla New York University: «La capacità di questa scienza di essere utilizzata per manipolare le emozioni è ben consolidata. Si tratta di una tecnologia finanziata dai militari, che è stata sfruttata da una plutocrazia globale e viene utilizzata per influenzare le elezioni in modi che le persone non possono nemmeno immaginare, di cui non si rendono nemmeno conto. Si tratta di sfruttare fenomeni esistenti come il nazionalismo e poi usarlo per manipolare gli individui. Che così tanti dati siano nelle mani di un gruppo di plutocrati internazionali, che ne fanno ciò che vogliono, è assolutamente agghiacciante».

 

Proprio quando Robert Mercer iniziò le trattative con il capo della Cambridge Analytica, Alexander Nix, per un’acquisizione, l’azienda fu scelta da diversi ministri del governo a Trinidad e Tobago.

Spiega una fonte anonima: «Il metodo standard Cambridge Analytica prevede che si ottenga un contratto governativo dal partito al potere. In questo caso, i nostri contatti governativi erano con il consiglio di sicurezza nazionale di Trinidad».

I documenti, che l’Observer per primo ha visionato, mostrano che si trattava di una proposta per catturare in massa la cronologia di navigazione dei cittadini, registrando le conversazioni telefoniche e applicando l’elaborazione del linguaggio naturale ai dati vocali registrati, per costruire un database della polizia nazionale, completo di punteggi per ciascun cittadino, basati sulla sua propensione a commettere un crimine.

I dettagli del progetto Trinidad hanno finalmente svelato il mistero di AggregateIQ. Trinidad è stato il primo progetto di Cambridge Analytica che utilizzava i big data per il micro-targeting, prima che l’azienda fosse acquisita da Mercer. Era il modello su cui Mercer stava puntando.

Una mappa mostrata all’Observer ha rivelato i luoghi nel mondo in cui SCL e Cambridge Analytica avevano lavorato: Russia, Lituania, Lettonia, Ucraina, Iran, Moldavia, Russia, ecc…

Perché per capire dove e come la Brexit sia collegata a Trump, bisogna analizzare le relazioni che si intrecciano tra Cambridge Analytica e diversi, importanti attori internazionali che sono il risultato di una partnership transatlantica di vecchia data.

Questo articolo non entrerà ulteriormente nello specifico. Ciò che interessa sapere è che dietro questa estesa manipolazione dell’opinione pubblica c’è, in primis, Facebook.

 

Mattathias Schwartz, in un pezzo pubblicato il 30 marzo 2018 per The Intercept, ha spiegato come la problematica risalisse al 2014.

«Le tracce di un insolito sondaggio, collegato a Facebook, hanno cominciato a comparire sulle bacheche di Internet. I forum erano frequentati da lavoratori freelance che facevano offerte per “human intelligence tasks” in un mercato online, chiamato Mechanical Turk, controllato da Amazon. I “turker” sono lavoratori impiegati nella segnalazione di immagini pornografiche, o di ricerca di indirizzi email nei risultati dei motori di ricerca, per poco più di un dollaro l’ora.

Il compito assegnato da Global Science Research sembrava ordinario, almeno in superficie. Mechanical Turk offriva ai turchi 1 o 2 dollari per completare un sondaggio online. Ma c’erano anche un paio di requisiti aggiuntivi. Innanzitutto, la Global Science Research era interessata solo ai turchi americani; in secondo luogo, essi dovevano scaricare l’app Facebook prima di poter riscuotere il pagamento. Global Science Research spiegava che: «l’app scaricherà alcune informazioni su di te e sulla tua rete... dati demografici di base e preferenze di categorie, luoghi, personaggi famosi, ecc. Da te e dai tuoi amici».

Nel 2014 tutto ciò che potevano vedere gli amici di un utente di Facebook era potenzialmente visibile anche agli sviluppatori di qualsiasi app che scegliessero di scaricare. Alcuni turchi hanno notato che l’app Global Science Research sembrava sfruttare la poderosità delle informazioni raccolte da Facebook. Nel 2015, Amazon interruppe l’attività di Mechanical Turk, sostenendo che: «I nostri termini di servizio vietano chiaramente l’uso improprio».

Il meccanismo era ormai venuto a galla. Infatti, già l’anno precedente il The Guardian aveva pubblicato un rapporto che rivelava esattamente per chi lavoravano i turchi. I loro dati venivano raccolti dal già citato Aleksandr Kogan, un giovane docente dell’Università di Cambridge.

Kogan era anche il fondatore di Global Science Research.

Proprio nel 2014, dopo che il dipartimento di psicologia dell’università si era rifiutato di consentirgli di utilizzare il proprio pool di dati per scopi commerciali, la raccolta che Kogan aveva intrapreso indipendentemente dall’università venne effettuata per conto di un appaltatore militare: la SCL.

La divisione elettorale dell’azienda affermò candidamente di utilizzare la “messaggistica basata sui dati” come parte del “conseguimento del successo elettorale”.

Come già detto, all’epoca SCL aveva uno spin-off americano in crescita, chiamato Cambridge Analytica, che ricevette milioni di dollari dalla campagna di Donald Trump. Gran parte del denaro proveniva dai comitati finanziati dal miliardario degli hedge fund Robert Mercer, che possedeva il 90% di Cambridge Analytica e che finanziava Facebook.

Per un certo periodo, uno dei funzionari di Cambridge Analytica fu Stephen K. Bannon, consigliere senior di Trump. Anche mesi dopo che Bannon aveva affermato di aver reciso i legami con la società, gli assegni della campagna di Trump per i servizi di Cambridge Analytica continuavano ad arrivare a uno degli indirizzi di Bannon a Los Angeles.

 

Una fonte interna a SCL affermò che Global Science Research aveva ottenuto dati da 185.000 partecipanti al sondaggio e dai loro amici di Facebook, che avevano prodotto a loro volta 30 milioni di profili utilizzabili. Nessuna di queste persone era a conoscenza del fatto che i “mi piace” e i dati demografici dei loro profili Facebook venivano raccolti da agenti politici, assunti per influenzare gli elettori americani.

Aleksandr Kogan (proprietario di Global Science Research) si era rifiutato di commentare l’accaduto.

Poco dopo che The Guardian pubblicò il suo articolo del 2015, Facebook contattò Global Science Research e chiese di cancellare i dati che aveva preso dai suoi utenti. La società sostenne che SCL aveva rispettato la richiesta, avanzata durante le primarie repubblicane, prima che Cambridge Analytica passasse ad occuparsi della campagna di Donald Trump.          

The Observer ha lavorato con Christopher Wylie, uno dei primi dipendenti di Cambridge Analytica, per più di un anno prima di riportare le informazioni al The New York Times, che nel marzo del 2018 ha riportato la notizia che i dati di quei 30 milioni di utenti erano ancora disponibili online.

 

Appena un mese dopo, precisamente il 10 aprile 2018, Mark Zuckerberg è comparso davanti alle commissioni Commercio e Giustizia del Senato americano per discutere della privacy dei dati e della disinformazione russa sul suo social network.

L’amministratore delegato di Facebook ha ammesso: «ora è chiaro che non abbiamo fatto abbastanza per impedire che gli strumenti che mettiamo a disposizione degli utenti venissero utilizzati anche a scopo dannoso. E questo vale» anche «per gli sviluppatori e la privacy dei dati. (…) Non abbiamo avuto una visione sufficientemente ampia delle nostre responsabilità e questo è stato un grosso errore».

Poi, entrando nel merito della questione, Zuckerberg ha aggiunto: «Per prima cosa, stiamo andando a fondo su ciò che ha fatto Cambridge Analytica e lo diremo a tutte le persone coinvolte. Quello che sappiamo ora è che un’azienda ha avuto accesso impropriamente ad alcune informazioni su milioni di membri di Facebook, acquistandole da uno sviluppatore di app. Si tratta di informazioni che le persone generalmente condividono pubblicamente sulle loro pagine» minimizza «come i nomi e l’immagine del profilo e le pagine che seguono. Quando abbiamo contattato per la prima volta Cambridge Analytica, ci hanno detto che avevano cancellato i dati. Circa un mese fa, siamo venuti a conoscenza di nuovi rapporti che suggerivano che non fosse vero, e ora stiamo lavorando con i governi degli Stati Uniti, del Regno Unito e di tutto il mondo per effettuare un audit completo di ciò che hanno fatto, per assicurarci che si sbarazzino di tutti i dati ancora in loro possesso».

 

Il 24 luglio 2019 la Federal Trade Commission americana ha imposto a Facebook una sanzione da 5 miliardi di dollari e nuove restrizioni sulla privacy. Nonostante si tratti della più cospicua sanzione mai imposta ad un’azienda per aver violato la privacy dei consumatori, analizzando gli introiti di annuali di Facebook si può vedere come si tratti di una cifra irrisoria:

 

Year

Net income ($bn)

2018

22.1

2019

18.4

2020

29.1

2021

39.3


Naturalmente, non c’è alcuna menzione del fatto che agli utenti sia stato destinato alcun tipo di risarcimento. Il ricavo della sanzione, per la precisione 5,8 miliardi di dollari, è entrato nelle casse del governo americano. Non solo, il presunto utilizzo dei dati personali al fine di creare campagne di propaganda politica ad hoc per ogni singolo utente, non viene neanche menzionato.

La Federal Trade Commission fece causa anche a Cambridge Analytica, con la quale si accordò, tramite lo sviluppatore di app Aleksandr Kogan e l’ex CEO di dell’azienda Alexander Nix, che hanno accettato ordini amministrativi, che limitano il modo in cui avrebbero condotto qualsiasi attività in futuro e richiedono loro di distruggere qualsiasi tipo di informazione personale da loro raccolta.

In seguito, Cambridge Analytica dichiarò fallimento.

 

La faccenda “Cambridge Analytica” deve fungere da monito a riporre la propria fiducia incondizionata nella Meta Platforms Inc. di Mark Zuckerberg. Soprattutto quando si tratta di lasciargli utilizzare a piacimento le nostre informazioni personali, e i dati che produciamo sulle numerose piattaforme online di cui facciamo uso quotidianamente, per allenare l’intelligenza artificiale generativa.

 

 

Il premio Nobel per la Fisica, Roger Penrose ha detto: «Dietro l’espressione “Intelligenza artificiale” ci sono almeno tre parole alle quali dovremmo prestare attenzione. La prima parola è, ovviamente, “intelligenza”. La seconda è “comprensione”. La terza parola è “consapevolezza”. Ma dietro questa apparente semplicità si celano i problemi. (…) Quando parliamo di sistemi controllati da algoritmi, sistemi di calcolo molto potenti e veloci, dobbiamo sempre ricordare che non sono dotati di consapevolezza. Se dunque prenderanno il sopravvento in molti ambiti della nostra società — lavoro, salute, istruzione — sarà proprio perché abbiamo dato deleghe in bianco su questa consapevolezza.»

 

Il fine di questo articolo è di farci riflettere su chi sono, effettivamente, le persone a cui lasciamo carta bianca e quali sono i loro scopi.


Contribuisci all’indipendenza di (F)ATTUALE


 

 

 

Comments


bottom of page