Skip to Main Content
Immagine di copertina

La tua faccia ci appartiene. Conversazione con Kashmir Hill

Di Andrea Daniele Signorelli • marzo 14, 2024

I segnali per capire che qualcosa non tornasse c’erano fin dall’inizio. Ancora nel gennaio 2020, quando uscì l’articolo per il New York Times della giornalista Kashmir Hill da cui poi è nato il saggio La tua faccia ci appartiene, la società ClearviewAI era completamente avvolta dall’anonimato: il sito internet era quasi inesistente, così come era irrintracciabile l’indirizzo della sede lì riportato e che indicava un numero civico di Manhattan. Su Linkedin, l’unico dipendente elencato era tale John Good, responsabile delle vendite. Tutte le email o le telefonate restavano sistematicamente senza risposta.

Eppure, grattando sotto questa superficie da “scantinato digitale”, emergeva una realtà molto diversa. La realtà di un’azienda con alle spalle finanziatori del calibro di Peter Thiel (uno dei più importanti venture capitalist della Silicon Valley), all’avanguardia nel settore dell’intelligenza artificiale e il cui software di riconoscimento facciale – che permette di identificare praticamente ogni persona di cui si possiede una fotografia o una ripresa video – stava venendo venduto senza dare troppo nell’occhio a decine, centinaia, di dipartimenti della polizia statunitense e non solo.

La tua faccia ci appartiene è il resoconto – più da non-fiction che da saggio tradizionale – di come Kashmir Hill sia riuscita a individuare questa azienda, a entrare in contatto con i fondatori e con gli investitori, a svelare come mai nei loro database fossero archiviate le immagini di miliardi di persone, come le forze dell’ordine potessero abusare di queste informazioni e come, negli obiettivi di ClearviewAI, ci siano iniziative che potrebbero mettere fine alla privacy di ciascuno di noi.

La tua faccia ci appartiene di Kashmir Hill

Di qui a qualche mese, può essere che uno sconosciuto vi rubi uno scatto col cellulare per strada, o al ristorante: e che da quello scatto, in pochi secondi, ricavi il vostro nome, il vostro indirizzo, e l’accesso a tutti i vostri social...

Visualizza eBook


Prima di tutto, è importante fare una premessa: il riconoscimento facciale non è nulla di nuovo. Da quando gli algoritmi di deep learning – ovvero quei sistemi che oggi vanno generalmente sotto il nome di “intelligenza artificiale” – hanno iniziato a diffondersi, l’applicazione del riconoscimento immagini e del riconoscimento facciale è sempre stata una delle più comuni. Il funzionamento dell’algoritmo che consente a una app come Blossom di riconoscere gli alberi che fotografate, o a Google Lens di identificare la marca di un paio di scarpe a partire da una loro immagine, è, alla sua base, lo stesso che permette di abbinare un volto a un’identità.

Già nel 2013, Facebook aveva per esempio introdotto una funzionalità (poi rimossa nel 2021) che riconosceva e taggava automaticamente gli amici presenti in una foto, a patto che avessero pubblicato sul social abbastanza immagini personali da permettere all’algoritmo di riconoscerli. Le forze dell’ordine sfruttano invece il riconoscimento facciale (con risultati altalenanti) da almeno vent’anni, ma nei loro database sono storicamente presenti solo i volti di pregiudicati a cui è stata scattata una foto segnaletica.

ClearviewAI univa le due funzionalità. Il suo database è costituito da miliardi di immagini e informazioni personali setacciate dall’intero world wide web: a meno che non abbiate nessun profilo social abbinato al vostro vero nome, che non abbiate nessun account in cui compare una vostra foto, che non siate presenti su nessuna pagina web: a meno insomma che non siate completamente tagliati fuori dalla rete, è quasi certo che ClearviewAI abbia una vostra immagine. E che quindi ce l’abbiano anche i tantissimi dipartimenti delle forze dell’ordine a cui ClearviewAI ha venduto il suo servizio.

Un servizio che, stando alle testimonianze raccolte da Kashmir Hill tra investigatori privati e forze dell’ordine, ha dimostrato in più di un’occasione di funzionare molto bene, consentendo di risolvere casi rimasti aperti e di identificare sospetti che fino a quel momento erano stati irrintracciabili.

E allora perché dovremmo preoccuparci così tanto dell’esistenza di un database e di un software di questo tipo? “Un agente senza scrupoli potrebbe usarlo per stalkerare la ragazza o il ragazzo su cui ha messo gli occhi”, scrive Hill nel prologo. “Un governo straniero potrebbe procurarsi materiale per ricattare gli oppositori, o sbatterli in galera. La polizia potrebbe identificare all’istante chi partecipa alle manifestazioni, e questo anche in paesi noti per reprimere o uccidere i dissidenti, come Cina e Russia. Con telecamere di sorveglianza a ogni angolo o quasi, un despota potrebbe tracciare i suoi rivali, seguirne movimenti e conversazioni, e procurarsi immagini compromettenti, o mettere insieme dossier da usare contro di loro. E in prospettiva potrebbe diventare impossibile avere segreti per una ragione qualsiasi, sicurezza inclusa”.

È forse proprio questa la ragione per cui, pur avendone la possibilità, i colossi della Silicon Valley si sono astenuti dal progettare sistemi di questo tipo. Da quando invece l’indagine di Kashmir Hill ha portato alla luce l’inquietante sistema progettato da ClearviewAI – sollevando un enorme scandalo di cui si è parlato in tutto il mondo – questa azienda non solo ha continuato a portare avanti il suo business, ma ha anche smesso di nascondersi. Anzi, adesso pubblicizza apertamente il suo sistema. Non è paradossale? “Non penso. Dopo essere stati esposti, la loro condizione è completamente cambiata”, mi racconta Kashmir Hill, collegata via Zoom da New York. “L’obiettivo è ora quello di giustificare la loro esistenza, difendendo il lavoro svolto e sottolineando quanto sia utile questo sistema per le forze dell’ordine e come sia un bene per il mondo che esista”.

È proprio per rafforzare questa interpretazione che ClearviewAI si è anche lanciata in spregiudicate operazioni di PR: “Quando è iniziata l’invasione russa, i dirigenti di ClearviewAI hanno offerto il loro servizio gratuitamente all’Ucraina, allo scopo di identificare per esempio spie o infiltrati russi”, prosegue Hill. “Il software è stato impiegato anche in modi inquietanti: per esempio per riconoscere i soldati russi uccisi in battaglia e inviare ai loro cari le fotografie dei cadaveri, allo scopo di smuovere l’opinione pubblica russa”.

Essere arrivati a giocare un ruolo – almeno propagandistico – nella guerra in Ucraina mostra quanta strada abbia fatto il software creato nel 2017 dall’allora 32enne Hoan Ton-That, australiano di origine vietnamita. Programmatore autodidatta, le prime esperienze nella Silicon Valley di Ton-That risalgono al 2007, quando si specializza nella creazione di giochi e quiz a cui gli utenti possono accedere tramite Facebook.

Dopo aver creato qualche altra app di scarso successo, Ton-That si trasferisce nel 2016 a New York. Qui considera la possibilità di dedicarsi ad altro, tentando anche la carriera di modello. È in questa fase che entra in contatto con il mondo dell’alt-right (l’estrema destra statunitense molto attiva online), e in particolare con Richard Schwartz: ex assistente di Rudolph Giuliani (già sindaco di New York, ma più recentemente noto per essere stato l’avvocato e braccio destro di Donald Trump) e persona dai tantissimi contatti.

Affascinati dalla fisiognomica (la pseudoscienza secondo cui è possibile riconoscere i tratti caratteriali di una persona sulla base delle caratteristiche del volto, e di cui nel libro si fa una lunga disamina), Ton-That, Schwartz e un altro loro socio, il faccendiere Charles Johnson, iniziano a lavorare a delle app basate sul riconoscimento facciale. È così che nasce prima Smartcheckr e poi ClearviewAI, il cui database viene alimentato raccogliendo automaticamente immagini di persone da siti di agenzie di collocamento, testate giornalistiche, social network, sistemi di pagamento online come Venmo e tantissimi altri. Le immagini personali di miliardi di persone vengono raccolte e archiviate a scopi di sorveglianza senza che loro nemmeno lo sappiano.

Com’è possibile che sia legale? “In verità, i regolatori europei hanno decretato che il sistema di ClearviewAI è illegale nella UE. In altre zone del mondo possono invece operare”, precisa Hill. “Il modo in cui hanno sempre giustificato il loro operato, comunque, è affermando di non star raccogliendo immagini private, visto che sono tutte state pubblicate online. Si paragonano a Google, dicendo che se il motore di ricerca indicizza il web tramite i testi, Clearview invece lo fa tramite i volti”.

Le implicazioni relative alla privacy non sono mai sembrate interessare più di tanto Ton-That, i suoi soci e nemmeno gli investitori. Uno di essi, David Scalzo della società Kirenaga Partners, offre nel libro il suo punto di vista: “Con la costante crescita dell’informazione, la privacy è destinata comunque a sparire. E mettere al bando la tecnologia è impossibile. Può essere che ti porti dritta in un futuro distopico, o una cosa così. Ma non importa, non puoi bandirla”.

Questo futuro – distopico per ammissione stessa delle persone che lo stanno finanziando – rischia di essere particolarmente minaccioso per alcune specifiche categorie di persone. Come noto da ormai parecchi anni, gli algoritmi di riconoscimento facciale tendono infatti a essere molto meno accurati quando si tratta di identificare uomini e donne non bianchi (essendo addestrati tramite database che contengono in larga parte immagini di persone bianche). Una forma di “discriminazione algoritmica” che, negli anni, ha portato più di una volta all’arresto e alla temporanea detenzione di persone innocenti, a causa dell’errata identificazione dei vari sistemi di riconoscimento facciale usati dalle forze dell’ordine.

“Questo è sempre stato un enorme problema per il riconoscimento facciale”, conferma Hill. “Ma è un problema che gli sviluppatori possono risolvere, addestrando i loro sistemi su database maggiormente diversificati. Ed è qualcosa che in effetti hanno fatto: i sistemi sono diventati sempre più accurati. Proprio perché questa è stata una delle principali critiche da parte di chi si oppone ai sistemi di riconoscimento facciale, adesso chi vende questi servizi può affermare di aver risolto il problema e quindi di avere una ragione in meno per non diffonderli. Penso quindi che la minaccia posta dal riconoscimento facciale sia più che altro relativa alla privacy e al grado di controllo che questi sistemi potrebbero esercitare su di noi. C’è anche un altro punto: anche se diventeranno completamente accurati, saranno comunque razzisti, perché la sorveglianza non è mai, in ogni caso, distribuita equamente”.

Tutti i rischi posti da questo sistema non cancellano però un fatto: come dimostrato anche dalle persone interpellate da Hill nel suo libro, ClearviewAI funziona. E ha effettivamente permesso di arrestare colpevoli che forse, altrimenti, non sarebbero stati trovati. Non è possibile trovare una forma di equilibrio tra le opportunità e i rischi che questi sistemi presentano? “Penso dì sì, lo spero”, prosegue Hill. “Anche perché questa tecnologia non è destinata a sparire e sarà parte della società. Una delle ragioni per cui ho scritto questo libro è per spronare a stabilire delle leggi, in modo che la sorveglianza non sia ubiqua e non sia ovunque. Penso che possa essere un software che dà dei benefici alle forze dell’ordine e li aiuta a risolvere crimini, ma questo non significa che ciascuno di noi debba essere soggetto a sorveglianza in ogni luogo e in qualunque momento, perdendo completamente la possibilità di muoverci nel mondo anonimamente”.

Come ricordato sempre nel saggio, il “diritto a essere lasciati in pace” è il “principio di ogni libertà”, come scrisse il giudice William O’Douglas nel 1948. Un diritto che, però, rischiamo di perdere per sempre: per quanto abbia negato di voler concretamente mettere in pratica questo progetto, ClearviewAI ha anche sperimentato una tecnologia per unire il suo sistema ai visori in realtà aumentata (che permettono di sovrapporre elementi digitali al mondo fisico che ci circonda) rendendo possibile identificare in tempo reale tutte le persone attorno a noi.

Considerando la rapida espansione di visori dotati della tecnologia necessaria – basti pensare al Vision Pro di Apple – il rischio è che una app di questo tipo, se non ci saranno legiferazioni adeguate, si diffonda davvero: “Il responsabile della tecnologia di Meta, Andrew Bosworth, ha già affermato che vorrebbe inserire il riconoscimento facciale nei visori in realtà aumentata a cui stanno lavorando, in modo che quando sei a un party e non ricordi il nome di qualcuno potrai avere un supporto immediato”.

Nel romanzo The Circle di Dave Eggers si delinea proprio un futuro di questo tipo, in cui nessuno è più al riparo dalla sorveglianza posta da mille occhi che ci inquadrano in ogni momento. L’unico modo per difendersi, nel romanzo, diventa quello di autoescludersi completamente dal mondo online, trasformandosi in reietti analogici della società digitale.

Una scelta radicale, che però potrebbe diventare l’unica possibile se i nostri diritti non saranno difesi: “Dal punto di vista pratico, le persone potrebbero non pubblicare le loro immagini online. Ma è molto difficile, soprattutto per figure pubbliche come i giornalisti o anche per chiunque sia stato ripreso in un’immagine postata online. Possiamo però almeno esserne consapevoli. È importante, per esempio, che le persone che sfruttano servizi come OnlyFans o simili sappiano che se mostrano il loro volto saranno individuabili. Ma tutto dipende dai legislatori. La domanda è: chi ha accesso a queste tecnologie di riconoscimento facciale? Chi ha il permesso di usarle? Dobbiamo anche far sapere alle aziende che non vogliamo che Meta integri questi sistemi nei visori in realtà aumentata. Se segnaleremo chiaramente a chi fa le leggi e a chi sviluppa software che non vogliamo questi prodotti, che non è questo il mondo in cui vogliamo vivere, allora dovranno prendere decisioni che riflettano tutto ciò”.

La tua faccia ci appartiene di Kashmir Hill

Difficile dire cosa attragga e inquieti di più, in questo libro, se uno dei grandi cattivi degli ultimi anni – l’inafferrabile Ton-That, che si segnala per le giacche preferibilmente rosa ei capelli lunghissimi, eppure sfugge a Hill fin quasi all’ultima scena – o il mondo che, nei garage e negli open space della Valley, i Ton-That che vivono in mezzo a noi stanno costruendo senza che ce ne rendiamo conto. Un mondo dove vecchie abitudini come l’identità si trasformano in un pulviscolo di dati che la polizia stessa usa per conto di non si sa chi, e dove i programmatori disegnano macchine sempre più sofisticate e potenti senza sapere cosa potranno o vorranno fare, una volta rilasciate. E senza che, a quanto apprendiamo con terrore una pagina dopo l’altra, neanche le macchine lo sappiano. Non fino in fondo, almeno.

Visualizza eBook

Andrea Daniele Signorelli è giornalista freelance, si occupa del rapporto tra nuove tecnologie, politica e società. Scrive per Domani, Wired, Repubblica, Il Tascabile e altri. È autore del podcast “Crash - La chiave per il digitale”.

Hai bisogno di contattarci?

If you would like to be the first to know about bookish blogs, please subscribe. We promise to provided only relevant articles.