di Lorenzo Santucci
“Una cosa che risulta chiara da tutto ciò che è stato scritto finora sui rischi dell’intelligenza artificiale – ed è stato scritto molto – è che nessuno ha tutte le risposte. Un’altra cosa che mi è chiara è che il futuro dell’IA non è poi così cupo come pensano alcuni o così roseo come credono altri. I rischi sono reali, ma sono ottimista sulla possibilità di gestirli”. La valutazione di Bill Gates sui rischi e benefici apportati dalla tecnologia sono riassumibili in questo breve estratto di un lungo post pubblicato sul suo GatesNotes. Come tanti altri colleghi, condivide le paure che ruotano attorno ai nuovi strumenti di cui, come tutte le novità, deve essere tratto solo il meglio.
L’esempio concreto portato dal fondatore di Microsoft è quello dell’istruzione: anche quando la calcolatrice ha fatto la sua apparizione si credeva che potesse limitare la capacità di calcolo degli studenti, il che è vero, ma li ha anche aiutati a risolvere problemi con più velocità. Lo stesso dicasi dei computer nelle aule, potenzialmente distruttivi ma che invece hanno stimolato tanti ragazzi a entrare a contatto con il mondo dell’informatica. Lo stesso, dunque, si potrebbe dire per ChatGpt.
Questi casi sono utili per comprendere meglio i vantaggi dell’IA, ma di certo non fugano tutti i dubbi sulla questione. La disinformazione rimane uno di questi. È un fenomeno talmente diffuso che nel tempo si è trasformato in una minaccia per la democrazia. Il motivo è l’interferenza nei processi elettorali da parte dei deepfake, che influenzano le persone e possono indirizzare l’esito finale. Oppure, può legittimare e fomentare le istanze di chi crede che quelle elezioni siano state frodate diffondendo materiale ad hoc. Come sottolineato da Gates, maggior attenzione all’impatto che l’IA ha sulla nostra società è stata data dopo l’intervento al Congresso di Sam Altman, Ceo di OpenAI. Con l’esperienza, le persone si sono abituate a riconoscere il vero dal falso, ma per il filantropo potrebbe essere proprio l’intelligenza artificiale a risolvere il problema. “Intel”, ha aggiunto, “ha sviluppato un rilevatore di deepfake e l’agenzia governativa Darpa sta lavorando a una tecnologia per identificare se un video o un audio sono stati manipolati”.
Continua la lettura su Formiche
Nessun commento:
Posta un commento