Per quanto elaborate, le macchine non potranno mai fare ipotesi di ricerca e interpretare criticamente i dati. Ingabbiare la realtà in un dato binario rappresenta un rischio, quello di far scomparire il senso critico
di Sara Gandini*
Nella ricerca scientifica oramai da anni è arrivata con prepotenza la cosiddetta intelligenza artificiale (AI). La potenza di calcolo dei computer ora permette di elaborare grandi quantità di dati (i famosi big data) che fino a poco tempo fa non era pensabile analizzare. Ad esempio in ambito della ricerca oncologica in epidemiologia e biostatistica usiamo queste tecniche per analizzare i dati del microbioma intestinale in relazione con la dieta e gli effetti collaterali delle terapie oncologiche o per studiare le immagini diagnostiche che vengono trasformate in pixel e attraverso formule matematiche in dati. Una branca dell’intelligenza artificiale implementa algoritmi che sono usati spesso in questo ambito e che si chiamano machine learning (letteralmente macchine che imparano) oppure si usano reti neurali artificiali sul modello del sistema nervoso centrale umano. Come si osserva si tratta di espressioni che tentano di umanizzare le macchine.
Sono tecniche usate sempre più in ambito medico scientifico ma la conoscenza della loro l’utilità oramai è molto diffusa perché sono entrati nell’uso quotidiano di una larga parte della popolazione. Pensiamo all’algoritmo di Google per fare ricerche sul web, che appunto usa il Machine Learning per poter fare ricerche in modo sempre più mirato e preciso.
È indubbio che siano strumenti utili ma i rischi che vedo sono vari. Ne elenco alcuni per poi approfondire alcuni aspetti.
Un primo aspetto importante da ricordare è che per usare questi strumenti la realtà deve essere trasformata in un dato binario. Ogni informazione deve essere codificabile, e le persone, le malattie, le cure, tutto quello che accade nella relazione tra medico e paziente, la storia dei pazienti… tutto deve essere riducibile ad un dato bidimensionale immagazzinabile per poter essere codificato e analizzato e questo ovviamente porta a una riduzione della realtà che lascia fuori l’imprevisto dell’umano, la soggettività, l’inconscio, l’eros, la magia delle relazioni.
Si perde qualcosa quindi ma accelerano i calcoli e questo attira molti ricercatori che a mio parere si affidano alle macchine come scorciatoia per pensare, come se bastasse schiacciare un bottone per comprendere il significato nascosto di grandi quantità di dati, senza bisogno di studiare criticamente la letteratura scientifica. Con l’AI ci si affida alle macchine per dare risultati che spesso ad esempio sono semplici correlazioni scambiate per legami causali, di causa ed effetto, perché non c’è tempo per ragionare sui disegni di studio, sulle fonti di bias e confondimento e capire cosa affettivamente quel singolo studio è in grado di dire e cosa no.
Si chiede alle macchine di pensare al nostro posto, perché chi usa senso critico rallenta il processo e non è funzionale. L’abbiamo visto anche durante la pandemia in cui i dati scientifici venivano portati come verità assolute. Abbiamo sentito dire frasi come “qui parlano i dati”, ma i dati non parlano da soli, si tratta sempre di interpretazioni di risultati che dipendono dalle conoscenze e dall’esperienza dei ricercatori e delle ricercatrici.
E così sempre più ci si affida all’intelligenza artificiale come un qualcosa di magico, di salvifico, di oggettivo, con l’illusione che le macchine potenti e infallibili, ci portino verso verità neutre e imparziali.
Ma se si parla così tanto dell’AI in questo momento è anche dovuto al fatto che attira enormi capitali in ogni ambito, dagli psicologi ai biologi, ai medici, tutti stanno investendo su queste tecnologie. Ora ad esempio sempre più spesso si sente parlare di ospedale virtuale come di una realtà che si avvicinerebbe al paziente, visto che non ci sono finanziamenti per i servizi territoriali. La telemedicina viene in soccorso, senza bisogno di spostarsi, di vedersi in presenza, di toccare i corpi dei pazienti.
D’altronde c’è una sproporzione di investimenti che mostra l’idea che le macchine possano risolvere sia la mancanza di pensiero che di personale, come se la cura dei pazienti o l’educazione passassero prima da un computer che dalle relazioni umane. Sia a livello scientifico che in ambito scolastico sono arrivati una valanga di fondi Pnrr: 5,3 miliardi.
Ovviamente investire sul personale e quindi sulle relazioni costa economicamente ma costa anche a livello di investimento umano, implica conflitti e coinvolgimento emotivo. Implica i rischi dati dai corpi che si devono incontrare. Cosa c’è quindi di meglio di algoritmi e dati, che danno l’illusione di una oggettività che non può essere messa in discussione?
D’altronde in emergenza bisogna decidere velocemente, non si può perdere tempo a discutere. Ci si è affidati alla digitalizzazione delle relazioni, dalla Dad alle video call di lavoro, per evitare i rischi di contagi, abituandoci a relazioni che non prevedono i corpi. Ma la digitalizzazione implica una trasformazione profonda delle comunicazioni, mentre le interazioni vengono trasformate in dati e i dati come sappiamo sono una merce importante. Noi veniamo codificati in database monetizzabili e il potenziale tracciamento di tutti i comportamenti umani è il nutrimento degli algoritmi. I social network, che operano nel mercato delle idee, da una parte sono a caccia di profitti ma dall’altra servono a creare consenso, a indirizzare comportamenti. Abbiamo visto all’opera i famosi fact-checker, che hanno bloccato scienziati famosi perché non in linea con quella che era fino a quel momento la verità scientifica accreditata.
Sempre più oramai le tecnologie vengono proposte come salvifiche in ambito di prevenzione di salute pubblica e interventi sociali. Vediamo qualche esempio emblematico.
Su un magazine del terzo settore raccontavano in modo entusiasta di una app utile ad affrontare il problema della dispersione scolastica nelle scuole del Burkina Faso. Visto che ci sono anche 50 alunni per classe e fare l’appello è complicato, per avere dati certi sulle assenze hanno studiato una app, basata sui sistemi di riconoscimento facciale, che consente di contare gli alunni e inviare le informazioni a una piattaforma centrale. Non si investe sugli insegnanti perché non ci sono soldi, dicono. Quindi si investe sulle app, persino in Burkina Faso.
Al “Fuori salone” di Milano di quest’anno una giovane donna aveva esposto una sua invenzione. Si trattava di un bracciale in cui era integrata una app che aveva l’obiettivo di facilitare e incoraggiare le relazioni nei contesti di socialità. Nella presentazione spiegava che la sua proposta nasce dal bisogno di riprendere la vita sociale nel periodo post pandemico. Attraverso dei segnali (led e vibrazioni) la app favorisce le relazioni consensuali, contrastando, parole sue, fraintendimenti, comportamenti antisociali e non desiderati. Si tratta di un progetto finanziato dalla Commissione Europea che usa un marchio di accessori che dichiara di agire sulla base di valori come l’autostima, la sostenibilità e l’accessibilità.
È interessante notare anche come queste parole automaticamente si svuotino di significato in questi contesti, eppure funzionano da marketing.
Gli algoritmi predittivi sono stati adottati da governi durante la pandemia per predire morti e ospedalizzazioni e indurre le popolazioni ad adeguarsi a comportamenti per ridurre i rischi. Il professor Medley, che si è occupato dei modelli dell’Imperial college, ha spiegato al Times che era stata una precisa scelta dei politici, per tutelarsi dall’accusa di non avere fatto abbastanza, quella di adottare gli scenari peggiori molto lontani da quello che poi è accaduto, come se le misure di prevenzione non avessero conseguenze sullo stato di salute dei cittadini. Siamo in piena epidemiologia difensiva. Inoltre Medley ha aggiunto che i modelli erano sbagliati anche perché non tenevano conto dei cambiamenti comportamentali che le persone avevano apportato in risposta agli avvertimenti, senza essere obbligate per legge a farlo. È chiaro quindi come le ambizioni di poter modellizzare i comportamenti delle popolazioni abbiano un orizzonte limitato e sono ancora molto lontani dal prevedere la realtà perché non sanno come includere la creatività, le emozioni e l’intelligenza umana. Siamo fortunatamente meno prevedibili di quello che può sembrare.
Tuttavia un recente studio ha fatto discutere molto la comunità scientifica perché gli autori hanno trovato che le risposte fornite dall’intelligenza artificiale erano significativamente superiori, sia per qualità delle informazioni che per l’empatia, a quelle dei medici coinvolti. Ovviamente questo è il frutto del sempre minor investimento nel tempo da dedicare alla relazione medico-paziente, non economicamente vantaggiosa, e della rinuncia ad esercitare pensiero critico per trovare soluzioni personalizzate.
Eppure già Alan Turing aveva parlato della “obiezione di Lady Lovelace” che dovrebbe costituire uno dei pilastri su cui fare ricerca sull’intelligenza artificiale: “La macchina analitica non ha alcuna pretesa di concepire alcunché, ma può solamente eseguire i comandi che le vengono impartiti, non è in grado di creare”. Le macchine non possono fare ipotesi di ricerca e interpretare criticamente i dati. Si tratta di attività che hanno a che fare con l’umanità, con la soggettività, con la nostra storia, con la nostra sensibilità. Hanno a che fare con la nostra capacità di appassionarci e di stare in relazione con il nostro “oggetto d’amore”, quindi con la prima relazione d’amore, con la madre, come ha spiegato bene Evelyn Fox Keller in Sul genere e la scienza, un libro che mostra come la conoscenza scientifica, da Bacone a Barbara McKlintock, cambi mentre si modifica il dominio dell’uomo sulla donna. Così mi chiedo se dietro questa spinta verso l’AI non ci sia di nuovo la necessità di mettere distanza dal primo oggetto d’amore, di averlo sotto controllo, di dominarlo, come nella impostazione baconiana. Di fatto si cerca di mettere a tacere l’influenza che può avere avuto la relazione con la madre, con il suo corpo e la sua mediazione con il mondo. Si cerca di cancellare la consapevolezza che siamo corpi nati da un corpo femminile.
E non è un caso che in questi giorni sia uscita la notizia di una ricerca scientifica per creare embrioni umani sintetici a partire da cellule staminali, precursori dell’uovo e dello sperma. Quindi si rinuncia a qualsiasi relazione d’amore e ogni mediazione dei corpi. La ricerca nasce con l’obiettivo di curare disturbi genetici che comportano malattie incurabili, ma forse c’è bisogno di ragionare anche sul senso del limite. La politica e i filosofi hanno un ruolo fondamentale per porre un argine a una deriva di onnipotenza degli scienziati che velocemente ci porta a cancellare l’umano come donna, a partire dalla madre.
* Sara Gandini, epidemiologa e docente dell’Università Statale di Milano, per vent’anni ha partecipato attivamente alla Libreria delle donne di Milano
Nella ricerca scientifica oramai da anni è arrivata con prepotenza la cosiddetta intelligenza artificiale (AI). La potenza di calcolo dei computer ora permette di elaborare grandi quantità di dati (i famosi big data) che fino a poco tempo fa non era pensabile analizzare. Ad esempio in ambito della ricerca oncologica in epidemiologia e biostatistica usiamo queste tecniche per analizzare i dati del microbioma intestinale in relazione con la dieta e gli effetti collaterali delle terapie oncologiche o per studiare le immagini diagnostiche che vengono trasformate in pixel e attraverso formule matematiche in dati. Una branca dell’intelligenza artificiale implementa algoritmi che sono usati spesso in questo ambito e che si chiamano machine learning (letteralmente macchine che imparano) oppure si usano reti neurali artificiali sul modello del sistema nervoso centrale umano. Come si osserva si tratta di espressioni che tentano di umanizzare le macchine.
Sono tecniche usate sempre più in ambito medico scientifico ma la conoscenza della loro l’utilità oramai è molto diffusa perché sono entrati nell’uso quotidiano di una larga parte della popolazione. Pensiamo all’algoritmo di Google per fare ricerche sul web, che appunto usa il Machine Learning per poter fare ricerche in modo sempre più mirato e preciso.
È indubbio che siano strumenti utili ma i rischi che vedo sono vari. Ne elenco alcuni per poi approfondire alcuni aspetti.
Un primo aspetto importante da ricordare è che per usare questi strumenti la realtà deve essere trasformata in un dato binario. Ogni informazione deve essere codificabile, e le persone, le malattie, le cure, tutto quello che accade nella relazione tra medico e paziente, la storia dei pazienti… tutto deve essere riducibile ad un dato bidimensionale immagazzinabile per poter essere codificato e analizzato e questo ovviamente porta a una riduzione della realtà che lascia fuori l’imprevisto dell’umano, la soggettività, l’inconscio, l’eros, la magia delle relazioni.
Si perde qualcosa quindi ma accelerano i calcoli e questo attira molti ricercatori che a mio parere si affidano alle macchine come scorciatoia per pensare, come se bastasse schiacciare un bottone per comprendere il significato nascosto di grandi quantità di dati, senza bisogno di studiare criticamente la letteratura scientifica. Con l’AI ci si affida alle macchine per dare risultati che spesso ad esempio sono semplici correlazioni scambiate per legami causali, di causa ed effetto, perché non c’è tempo per ragionare sui disegni di studio, sulle fonti di bias e confondimento e capire cosa affettivamente quel singolo studio è in grado di dire e cosa no.
Si chiede alle macchine di pensare al nostro posto, perché chi usa senso critico rallenta il processo e non è funzionale. L’abbiamo visto anche durante la pandemia in cui i dati scientifici venivano portati come verità assolute. Abbiamo sentito dire frasi come “qui parlano i dati”, ma i dati non parlano da soli, si tratta sempre di interpretazioni di risultati che dipendono dalle conoscenze e dall’esperienza dei ricercatori e delle ricercatrici.
E così sempre più ci si affida all’intelligenza artificiale come un qualcosa di magico, di salvifico, di oggettivo, con l’illusione che le macchine potenti e infallibili, ci portino verso verità neutre e imparziali.
Ma se si parla così tanto dell’AI in questo momento è anche dovuto al fatto che attira enormi capitali in ogni ambito, dagli psicologi ai biologi, ai medici, tutti stanno investendo su queste tecnologie. Ora ad esempio sempre più spesso si sente parlare di ospedale virtuale come di una realtà che si avvicinerebbe al paziente, visto che non ci sono finanziamenti per i servizi territoriali. La telemedicina viene in soccorso, senza bisogno di spostarsi, di vedersi in presenza, di toccare i corpi dei pazienti.
D’altronde c’è una sproporzione di investimenti che mostra l’idea che le macchine possano risolvere sia la mancanza di pensiero che di personale, come se la cura dei pazienti o l’educazione passassero prima da un computer che dalle relazioni umane. Sia a livello scientifico che in ambito scolastico sono arrivati una valanga di fondi Pnrr: 5,3 miliardi.
Ovviamente investire sul personale e quindi sulle relazioni costa economicamente ma costa anche a livello di investimento umano, implica conflitti e coinvolgimento emotivo. Implica i rischi dati dai corpi che si devono incontrare. Cosa c’è quindi di meglio di algoritmi e dati, che danno l’illusione di una oggettività che non può essere messa in discussione?
D’altronde in emergenza bisogna decidere velocemente, non si può perdere tempo a discutere. Ci si è affidati alla digitalizzazione delle relazioni, dalla Dad alle video call di lavoro, per evitare i rischi di contagi, abituandoci a relazioni che non prevedono i corpi. Ma la digitalizzazione implica una trasformazione profonda delle comunicazioni, mentre le interazioni vengono trasformate in dati e i dati come sappiamo sono una merce importante. Noi veniamo codificati in database monetizzabili e il potenziale tracciamento di tutti i comportamenti umani è il nutrimento degli algoritmi. I social network, che operano nel mercato delle idee, da una parte sono a caccia di profitti ma dall’altra servono a creare consenso, a indirizzare comportamenti. Abbiamo visto all’opera i famosi fact-checker, che hanno bloccato scienziati famosi perché non in linea con quella che era fino a quel momento la verità scientifica accreditata.
Sempre più oramai le tecnologie vengono proposte come salvifiche in ambito di prevenzione di salute pubblica e interventi sociali. Vediamo qualche esempio emblematico.
Su un magazine del terzo settore raccontavano in modo entusiasta di una app utile ad affrontare il problema della dispersione scolastica nelle scuole del Burkina Faso. Visto che ci sono anche 50 alunni per classe e fare l’appello è complicato, per avere dati certi sulle assenze hanno studiato una app, basata sui sistemi di riconoscimento facciale, che consente di contare gli alunni e inviare le informazioni a una piattaforma centrale. Non si investe sugli insegnanti perché non ci sono soldi, dicono. Quindi si investe sulle app, persino in Burkina Faso.
Al “Fuori salone” di Milano di quest’anno una giovane donna aveva esposto una sua invenzione. Si trattava di un bracciale in cui era integrata una app che aveva l’obiettivo di facilitare e incoraggiare le relazioni nei contesti di socialità. Nella presentazione spiegava che la sua proposta nasce dal bisogno di riprendere la vita sociale nel periodo post pandemico. Attraverso dei segnali (led e vibrazioni) la app favorisce le relazioni consensuali, contrastando, parole sue, fraintendimenti, comportamenti antisociali e non desiderati. Si tratta di un progetto finanziato dalla Commissione Europea che usa un marchio di accessori che dichiara di agire sulla base di valori come l’autostima, la sostenibilità e l’accessibilità.
È interessante notare anche come queste parole automaticamente si svuotino di significato in questi contesti, eppure funzionano da marketing.
Gli algoritmi predittivi sono stati adottati da governi durante la pandemia per predire morti e ospedalizzazioni e indurre le popolazioni ad adeguarsi a comportamenti per ridurre i rischi. Il professor Medley, che si è occupato dei modelli dell’Imperial college, ha spiegato al Times che era stata una precisa scelta dei politici, per tutelarsi dall’accusa di non avere fatto abbastanza, quella di adottare gli scenari peggiori molto lontani da quello che poi è accaduto, come se le misure di prevenzione non avessero conseguenze sullo stato di salute dei cittadini. Siamo in piena epidemiologia difensiva. Inoltre Medley ha aggiunto che i modelli erano sbagliati anche perché non tenevano conto dei cambiamenti comportamentali che le persone avevano apportato in risposta agli avvertimenti, senza essere obbligate per legge a farlo. È chiaro quindi come le ambizioni di poter modellizzare i comportamenti delle popolazioni abbiano un orizzonte limitato e sono ancora molto lontani dal prevedere la realtà perché non sanno come includere la creatività, le emozioni e l’intelligenza umana. Siamo fortunatamente meno prevedibili di quello che può sembrare.
Tuttavia un recente studio ha fatto discutere molto la comunità scientifica perché gli autori hanno trovato che le risposte fornite dall’intelligenza artificiale erano significativamente superiori, sia per qualità delle informazioni che per l’empatia, a quelle dei medici coinvolti. Ovviamente questo è il frutto del sempre minor investimento nel tempo da dedicare alla relazione medico-paziente, non economicamente vantaggiosa, e della rinuncia ad esercitare pensiero critico per trovare soluzioni personalizzate.
Eppure già Alan Turing aveva parlato della “obiezione di Lady Lovelace” che dovrebbe costituire uno dei pilastri su cui fare ricerca sull’intelligenza artificiale: “La macchina analitica non ha alcuna pretesa di concepire alcunché, ma può solamente eseguire i comandi che le vengono impartiti, non è in grado di creare”. Le macchine non possono fare ipotesi di ricerca e interpretare criticamente i dati. Si tratta di attività che hanno a che fare con l’umanità, con la soggettività, con la nostra storia, con la nostra sensibilità. Hanno a che fare con la nostra capacità di appassionarci e di stare in relazione con il nostro “oggetto d’amore”, quindi con la prima relazione d’amore, con la madre, come ha spiegato bene Evelyn Fox Keller in Sul genere e la scienza, un libro che mostra come la conoscenza scientifica, da Bacone a Barbara McKlintock, cambi mentre si modifica il dominio dell’uomo sulla donna. Così mi chiedo se dietro questa spinta verso l’AI non ci sia di nuovo la necessità di mettere distanza dal primo oggetto d’amore, di averlo sotto controllo, di dominarlo, come nella impostazione baconiana. Di fatto si cerca di mettere a tacere l’influenza che può avere avuto la relazione con la madre, con il suo corpo e la sua mediazione con il mondo. Si cerca di cancellare la consapevolezza che siamo corpi nati da un corpo femminile.
E non è un caso che in questi giorni sia uscita la notizia di una ricerca scientifica per creare embrioni umani sintetici a partire da cellule staminali, precursori dell’uovo e dello sperma. Quindi si rinuncia a qualsiasi relazione d’amore e ogni mediazione dei corpi. La ricerca nasce con l’obiettivo di curare disturbi genetici che comportano malattie incurabili, ma forse c’è bisogno di ragionare anche sul senso del limite. La politica e i filosofi hanno un ruolo fondamentale per porre un argine a una deriva di onnipotenza degli scienziati che velocemente ci porta a cancellare l’umano come donna, a partire dalla madre.
* Sara Gandini, epidemiologa e docente dell’Università Statale di Milano, per vent’anni ha partecipato attivamente alla Libreria delle donne di Milano
Nessun commento:
Posta un commento