L’epidemia del nuovo coronavirus è nata nei paesi economicamente più avanzati, e si è diffusa velocemente grazie agli spazi condivisi che i paesi sviluppati hanno creato per moltiplicare l’accumulazione del capitale a livello globale. Eppure il nuovo coronavirus grava in maniera decisamente più pesante sui paesi meno sviluppati, come l’Africa, complice anche le politiche vaccinali dei paesi sviluppati che rendono più difficile produrre i vaccini in quel continente. Il virus è bianco, ma il vaccino diventa funzionale alla conservazione del peso egemonico degli attori statali piuttosto che alla risoluzione della pandemia.
Questo paradossale effetto è la conseguenza delle politiche di colonizzazione da parte dei paesi più sviluppati, non solo quelli occidentali ovviamente. L'imposizione della cultura dei colonizzatori e la completa sottomissione del colonizzato, porta quest’ultimo a diventare uno strumento dell’imperialismo culturale, che progressivamente convince il colonizzato che egli è tale per una giusta ragione, perché inferiore. In una sorta di sindrome di Stoccolma collettiva, i colonizzati aiutano i colonizzatori a mantenere uno status di inferiorità culturale e di incapacità politica. I meccanismi dell'oppressione bianca, del colonialismo, sono studiati da secoli, eppure continuano ad applicarsi tutt’oggi. Quello che è cambiato sono gli strumenti. Se un tempo il colonialismo era armato, oggi è prevalentemente culturale ed economico.
Le conseguenze di ciò non sono subito evidenti, ma è palese dagli studi che esistono delle profonde differenze tra, ad esempio, la realtà americana ed europea e quella dell’Africa. Uno studio che ha esaminato le pratiche di rilevamento precoce del cancro al seno tra l'Africa subsahariana e i paesi ad alto reddito, ha scoperto che ciò che funziona in Occidente, cioè le mammografie, in Africa non è efficace nel ridurre la mortalità per cancro al seno. I fattori incidenti sono un profilo di età inferiore, una presentazione con malattia avanzata e opzioni terapeutiche disponibili limitate. Tutto ciò suggerisce che l'autoesame e l'esame clinico del seno nell’Africa subsahariana funzionano meglio della pratica medica progettata per le loro controparti in paesi ad alto reddito. Questa esempio ci fa capire come la semplice importazione di strumenti tecnologici occidentali (AI di supporto o consulenza medica) potrebbe portare più danni che benefici. Non solo, tale importazione finirebbe anche per sottrarre risorse preziose a strumenti locali più adatti alla realtà del luogo e al contesto specifico.
Nel cuore delle AI
La tecnologia del momento è l’intelligenza artificiale, quella che ha spodestato la blockchain e il metaverso nell’immaginario collettivo e sulle prime pagine dei giornali. In effetti l’impressione è che questa tecnologia abbia effettivamente maggiori possibilità di incontrare quanto meno la curiosità del pubblico. Del resto i “creatori” come Sam Altman non lasciano passare giorno senza ricordarci la distruzione di massa che la sua tecnologia è in teoria capace di provocare. Argomenti del genere trovano facile sponda nei mass media affamati di sensazionalismo e sempre pronti a spingere sul filtro techlash alimentando l’indignazione costante contro le nuove tecnologie. E così ogni giorno leggiamo che le AI potrebbero portare addirittura all’estinzione della civiltà umana, e se da un lato questo ci terrorizza, dall’altro è evidente la fascinazione per una tecnologia così dirompente tanto da essere paragonata alla tecnologia nucleare.
Ma nonostante le mirabolanti descrizioni che magnificano sistemi ritenuti ormai quasi senzienti, alla base delle AI non c’è altro che una quantità enorme di dati raccolti e lavorati da sottopagati operatori spesso residenti in paesi sottosviluppati come l’Africa o l'Asia orientale. Il loro compito è di immettere dati e informazioni in enormi database che saranno poi ingurgitati da software complessissimi che si occuperanno di creare quello che noi oggi chiamiamo, impropriamente, sistemi di intelligenza artificiale. Sono schiere di “contractor”, persone che attraverso delle piattaforme sviluppate apposta, lavorano a progetti con nomi improbabili come Yukon o Crescent, e il cui compito consiste nell’etichettare immagini e video, nel verificare quale tra i risultati di ricerca proposti a video risulta effettivamente più efficace in relazione ad una specifica query, nel verificare se il risultato ha la corretta formattazione e così via.
Il lavoro di questi sottopagati operai serve anche a correggere gli errori e i bias dei dataset utilizzati per l’addestramento degli algoritmi, e quindi dei sistemi di intelligenza artificiale. Perché uno dei più grandi problemi di questi sistemi complessi non è la loro capacità di distruggere la civiltà umana, quanto piuttosto l’amplificazione delle discriminazioni sociali. Quel lavoro serve per evitare errori come quello che accadde nel luglio del 2015, quando una persona di colore venne etichettata come gorilla dall’algoritmo di Google. Ma perché accadono errori del genere?
Continua la lettura su Valigia Blu
Nessun commento:
Posta un commento