Anno IX - Numero 25
La guerra non è mai un atto isolato.
Carl von Clausewitz

sabato 14 settembre 2024

Riconoscimento Facciale: il Caso Klette e i pericoli di uno Stato di Sorveglianza

Il governo federale tedesco vuole dare via libera a polizia e autorità migratorie per raccogliere e sfruttare ogni foto del volto presente online. AlgorithmWatch lancia l’allarme contro questa nuova forma di sorveglianza di massa, definendola una minaccia alla privacy

di Pia Sombetzki*

Cos’hanno in comune milioni di tedeschi e un ex membro della Raf, l’organizzazione terroristica che operò nella Repubblica Federale tra il 1970 e la fine degli anni Novanta? Probabilmente almeno una foto di bassa qualità su Facebook e un post con soli tre like. Daniela Klette, ex membro della Frazione Armata Rossa, è stata arrestata a febbraio di quest’anno dopo oltre 30 anni di latitanza. Ma come è stata trovata dopo così tanto tempo?

I giornalisti aiutano le Forze dell'Ordine
Un team investigativo della Ard, guidato da Khesrau Behroz, si era avvicinato molto a Klette nel corso delle ricerche per il podcast Legion: Most Wanted, a dicembre 2023. Il team è stato supportato dal network di ricerca Bellingcat, che ha utilizzato il database di riconoscimento facciale PimEyes per rintracciarla. In meno di 30 minuti, sono state trovate immagini di Klette su un sito di un’associazione di Capoeira a Kreuzberg.

Contrariamente a quanto si pensava, Klette non viveva nell’ombra, ma partecipava attivamente alla vita pubblica. Poco dopo la pubblicazione di queste ricerche, è stata arrestata, sollevando molte questioni sui metodi di indagine.

Metodi investigativi controversi
La polizia aveva mancato qualcosa? Klette avrebbe potuto essere trovata prima, dato che si muoveva liberamente a Berlino? I sindacati di polizia hanno affermato che, se avessero potuto utilizzare strumenti come PimEyes, l’arresto sarebbe avvenuto molto prima.

Tutti noi possiamo essere rintracciati in rete, che lo vogliamo o meno. Aziende come Clearview AI e PimEyes hanno creato banche dati di immagini pubbliche, che permettono di cercare volti. Tuttavia, queste pratiche sono illegali, come dimostrano le numerose multe inflitte nel tempo. Ad esempio, Clearview AI è stata recentemente multata per 30,5 milioni di euro per la creazione di una banca dati illegale.

Quando i sindacati di polizia chiedono di poter utilizzare tali strumenti, stanno implicitamente sostenendo una pratica illegale.

Un futuro di sorveglianza biometrica?
Le richieste di maggiori poteri per la sorveglianza biometrica non sono nuove. Durante le proteste del G20 nel 2017, circa 100.000 persone sono state tracciate attraverso il software Videmo 360, che ha monitorato i loro movimenti per giorni senza che ne fossero a conoscenza.

Questo tipo di sorveglianza mette a rischio i diritti fondamentali delle persone, inclusa l’autodeterminazione informativa e l’anonimato. Ancora peggio, i profili biometrici delle persone coinvolte rimangono nei database della polizia.

Il caso di Porcha Woodruff negli Stati Uniti
I rischi del riconoscimento facciale sono evidenti nel caso di Porcha Woodruff, una donna afroamericana arrestata a Detroit nel 2023 mentre era all’ottavo mese di gravidanza. La polizia ha usato la tecnologia di riconoscimento facciale per confrontare l’immagine di un sospetto con il database. Il risultato? Woodruff è stata arrestata erroneamente e sottoposta a 11 ore di interrogatorio.

Questo dimostra come la tecnologia di riconoscimento facciale possa danneggiare persone innocenti, in particolare quelle di colore, che sono soggette a tassi più alti di falsi positivi.

L’espansione dei poteri della polizia
Nonostante le obiezioni, il Ministro dell’Interno tedesco, Nancy Faeser, ha accolto le richieste di maggiori poteri per la polizia. Il suo pacchetto di sicurezza include l’uso del riconoscimento facciale, estendendo i poteri investigativi della polizia per confrontare dati biometrici con immagini pubblicamente accessibili su Internet. Questi poteri non riguarderanno solo i sospetti, ma anche vittime, testimoni e richiedenti asilo.

Verso uno stato di sorveglianza?
Il pacchetto di sicurezza proposto dal governo include l’uso di tecnologie invasive, che permetterebbero il tracciamento di movimenti, voce e persino i modelli di linguaggio delle persone. Questo rappresenta una nuova forma di sorveglianza su larga scala. Non si tratta più solo di conservare i dati di telecomunicazione, ma di dati personali estremamente sensibili. Cosa rischiamo? Se queste tecnologie di sorveglianza verranno introdotte, le persone innocenti potrebbero diventare sospettati a causa di errori nei database facciali. Le loro foto private, magari scattate durante una vacanza, potrebbero finire in un database oscuro, senza che loro ne siano consapevoli.

È fondamentale che il governo federale rispetti il divieto dell’uso di riconoscimento facciale contenuto nel regolamento sull’Ia dell’Ue, invece di avviare uno stato di sorveglianza.
Cosa dovrebbe fare il governo tedesco? Collaborare con i partner dell’Ue per garantire il rispetto delle nuove norme e porre fine all’uso di motori di ricerca facciale come Clearview AI e PimEyes. Il riconoscimento facciale rappresenta una minaccia significativa per i diritti individuali, e dobbiamo vietarlo per evitare abusi futuri.

Pia Sombetzki* per Netzpolitik. Traduzione italiana a cura di Voci dalla Germania

*Pia Sombetzki è Policy & Advocacy Manager presso AlgorithmWatch, un’organizzazione non governativa che si occupa della regolamentazione dell’uso di algoritmi in Germania, in particolare nel settore pubblico.

Nessun commento:

Posta un commento