La qualit脿 dei dati con cui sono addestrate le intelligenze artificiali 猫 una problematica di grande attualit脿. Se l鈥檌nformazione di partenza 猫 fallace, parziale o contiene degli stereotipi, anche il risultato prodotto da un'IA non sar脿 da meno, con implicazioni la cui gravit脿 dipende dall鈥檜tilizzo di questo strumento tecnologico. Non siamo nuovi a situazioni di questo tipo; basti pensare che fino agli anni 鈥80 del secolo scorso, la medicina aveva un鈥檌mpostazione androcentrica, con conseguenze rilevanti sulla prevenzione, la diagnosi e la cura di malattie nelle donne (ne abbiamo parlato qui).
Con la democratizzazione dell'accesso ai pi霉 moderni e performanti sistemi di intelligenza artificiale generativa, il tema degli stereotipi 鈥 o bias 鈥 si fa urgente. Nel quadro della , che avr脿 luogo dal 21 al 30 marzo, la 精东影业 organizza delle attivit脿 pratiche e divulgative che mirano a sensibilizzare tutta la comunit脿 accademica e la societ脿 civile anche su questo argomento; in particolare, con un'attivit脿 pratica ed esperienziale (maggiori informazioni qui), attraverso cui si esploreranno gli stereotipi riprodotti nelle immagini e nelle parole degli strumenti di IA. Ad animare queste attivit脿 ci sar脿 anche Alberto Termine, ricercatore 精东影业 all'.
Partiamo dal problema, in che modo le IA incappano negli stereotipi?
"La differenza fondamentale tra le intelligenze artificiali del vicino passato e quelle di oggi risiede nella capacit脿 di queste ultime di apprendere dai dati come comportarsi e agire. Le 'buone vecchie' IA, come vengono talvolta chiamate (Good Old-Fashioned AI, in inglese), prendevano decisioni sulla scorta di una base di conoscenza e di un insieme di regole di ragionamento specificate a monte dai programmatori. Facevano sempre e solo ci貌 che era stato detto loro di fare, nello specifico, situazione per situazione. Questo tipo di IA 猫 estremamente controllabile e sicuro. Non c鈥櫭 modo che si verifichino comportamenti inaspettati o imprevisti. D鈥檃ltro lato, queste IA programmate 'top-down' hanno capacit脿 estremamente limitate. Se si vuole che un'IA svolga compiti complessi occorre invece che sia in grado di apprendere dall鈥檃mbiente e adattarsi a situazione impreviste: da qui lo sviluppo, relativamente recente, di macchine capaci di apprendere. Il loro comportamento deriva dall鈥檌nformazione che estraggono dai dati su cui vengono addestrate: se questi dati contengono informazioni di scarsa qualit脿, false o eticamente dubbie (per esempio, insulti razzisti, bias di genere e quant鈥檃ltro), l'IA finir脿 per apprenderle e usarle per guidare i propri comportamenti e il proprio ragionamento. Se vogliamo delle IA che funzionino in modo appropriato, 猫 pertanto fondamentale dar loro dei dati di qualit脿, precedentemente ispezionati e 鈥榬ipuliti鈥, come si dice in gergo, da inesattezze ed errori. Purtroppo, si tratta di un compito tutt'altro che semplice, data l鈥檈norme quantit脿 di dati richiesti per addestrare i sistemi di ultima generazione, come i Chatbots generativi con cui ormai tutti abbiamo a che fare (ChatGPT, GEMINI, LAMA, solo per citarne alcuni)".
RSI Edu ha dedicato una serie di video divulgativi sul funzionamento, sugli errori e sugli sviluppi dell'IA.
Puoi farci degli esempi in cui l鈥橧A ha commosso degli errori anche gravi?
"Un esempio emblematico del problema del bias nei dati viene dai recenti sviluppi dell鈥橧A in campo medico, e nello specifico in dermatologia. Uno dei compiti diagnostici pi霉 difficili in dermatologia 猫 quello di distinguere i nevi (tumori benigni della pelle) dai melanomi (carcinomi molto aggressivi e pericolosi). Per supportare i medici in questo compito, sono stati sviluppati dei sistemi di riconoscimento delle immagini basati su IA in grado di distinguere con una precisione incredibile 鈥 superiore a quella dell'occhio umano 鈥 immagini di nevi e melanomi. Tuttavia, si 猫 notato che, quando questi sistemi venivano applicati su persone con fototipo scuro (carnagione scura o olivastra), le loro performance predittive diminuivano parecchio. Il motivo? Le IA erano state addestrate su database contenenti in prevalenza immagini di persone di carnagione chiara. Non si trattava di un errore intenzionale, semplicemente 猫 molto pi霉 facile reperire grandi database di immagini di persone dalla carnagione chiara. In primis, perch茅 i database degli ospedali occidentali (USA ed Europa) sono decisamente pi霉 ampi e forniti di quelli dei paesi in via di sviluppo; e poi, perch茅 猫 in USA, Europa e Cina che si concentra il maggior sforzo in termini di ricerca nel campo dell鈥橧A. Ci貌 nondimeno, la presenza di questo bias genera conseguenze discriminatorie nei confronti delle persone di colore, che si trovano ad aver accesso a prestazioni diagnostiche sub-ottimali rispetto alle persone di carnagione chiara鈥.
Oltre agli esempi citati, quali altre conseguenze si possono immaginare?
"Il bias 猫 un problema estremamente pervasivo e difficile da trattare. A volte si pensa sia sufficiente rimuovere le variabili 'sensibili' dai dati per mettere il problema fuori dalla porta, che invece rientra dalla finestra. Facciamo un esempio: immaginate di essere una banca e di utilizzare l'IA per il calcolo del rischio di un cliente, da cui dipende il fatto che concederete o meno un finanziamento. Non volete chiaramente che il sistema elabori la stima sulla base di variabili come 鈥榞enere鈥 o 鈥榚tnia di provenienza鈥 del cliente; evitate pertanto di dare questi dati in pasto all'IA e vi limitate a fornirgli dati su 'tipologia di lavoro svolto' e 'reddito'. Pu貌 sembrare che il rischio di bias sia eliminato, ma non 猫 cos矛. Potrebbero esistere infatti correlazioni statistiche molto forti (anzi, ci sono!) tra il genere e l'etnia di una persona e altre variabili, come il lavoro svolto, che non sono considerate 'sensibili'. Queste correlazioni vengono apprese dall'IA e sfruttate per formulare delle predizioni: per esempio, se il genere femminile risulta fortemente correlato a un certo tipo di lavoro, l'IA potrebbe usare l鈥檌nformazione riguardo al lavoro svolto per inferire informazioni sul genere anche se queste non sono date esplicitamente, e quindi usare questa informazione per formulare predizioni che risultano discriminatorie nei confronti delle persone di genere femminile. In questo modo il bias implicito nei dati non solo viene perpetuato, ma pu貌 essere persino rafforzato dall鈥檜so dell'IA. Una delle conseguenze pi霉 gravi (e sottovalutate) dell鈥檜so inconsapevole e incontrollato dell'IA nei pi霉 svariati campi 猫 proprio questa: la diffusione massiva e l鈥檈sacerbazione di bias e atteggiamenti discriminatori verso minoranze (etniche, di genere, di status sociale) che non sono adeguatamente rappresentate, o sono mis-rappresentate (nel senso letterale del termine), nei database su cui i sistemi di IA vengono addestrati. Il problema pu貌 essere evitato con un uso consapevole e informato dell鈥橧A, nonch茅 promuovendo programmi di ricerca dedicati a sviluppare un鈥橧A etica e responsabile".
Nel mondo della ricerca quanto 猫 sentita questa problematica?
"Il tema del bias 猫 molto sentito nel mondo della ricerca, in particolare accademica. I programmi di ricerca, gli investimenti e le pubblicazioni su tematiche inerenti allo sviluppo di sistemi di IA pi霉 fair (equi) e unbiased (senza pregiudizi) sono in costante aumento. I principali centri di ricerca di IA nel mondo, fino a poco tempo fa perlopi霉 concentrati sullo sviluppo di performance predittive e sulla loro scalabilit脿, si stanno tutti dotando di competenze interne nel settore dell鈥檈tica dell鈥橧A e dell鈥橧A responsabile. La 精东影业, con l鈥橧stituto Dalle Molle di studi sull鈥檌ntelligenza artificiale, non fa eccezione: da poco 猫 stata infatti inaugurata una cattedra di Epistemologia, Logica ed Etica dell鈥橧A presso il Dipartimento tecnologie innovative, cattedra per cui lavoro, condotta dal Professor Alessandro Facchini".
"Spesso, tuttavia, l鈥檃ttenzione al problema in ambito accademico non 猫 accompagnata da un鈥檃ltrettanta attenzione da parte dei media, soprattutto quelli internazionali o di provenienza statunitense. Sembra che la TV, i giornali e la rete preferiscano parlare di cose come: l鈥檌ntelligenza artificiale che supera quella umana, che prende il controllo e ci uccida tutti (cosiddetto: 'rischio esistenziale'), o che rende inutile il nostro lavoro portando a licenziamenti di massa, e cos矛 via. Si tratta in gran parte di rischi e scenari del tutto irrealistici, lontani anni luce dallo stato di avanzamento della tecnologia (spoiler: nessun ChatGPT 猫 in grado di prendere l鈥檌niziativa e sterminarci tutti, men che meno di rimpiazzare in toto il lavoratore umano). Tuttavia, parlare di IA che stermina l鈥檜omo o porta a licenziamenti di massa crea hype mediatico e spinge gli investitori a scommettere i propri capitali su imprese e startup che fanno IA. Notate a questo proposito che spesso gli investimenti dei cosiddetti venture capitalists sono la principale, se non unica, fonte di reddito di molte startup del settore, in particolare quelle che si concentrano sullo sviluppo di sistemi da prestazioni stupefacenti invece che su applicazioni concrete. Peccato, purtroppo, che parlare sempre e solo di rischi poco concreti finisca col distrarre dal conoscere e prevenire quelli che sono i rischi reali, come il bias".
C鈥櫭 modo di ovviare alla situazione oppure siamo gi脿 arrivati a un punto di non ritorno?
"Certamente il problema del bias, come la stragrande maggioranza dei problemi etico-sociali concreti che sorgono dalla ricerca e dallo sviluppo dell鈥橧A, 猫 gestibile e arginabile senza rinunciare ai benefici che questa tecnologia porta con s茅. Gli ingredienti fondamentali sono due: formazione e ricerca. Sul fronte della ricerca esistono diversi settori che si dedicano proprio allo studio di metodi per rendere i nostri sistemi di IA pi霉 fair e allineati con i valori della nostra societ脿. Io lavoro proprio nell鈥檃mbito di uno di questi settori, chiamato IA spiegabile, che si occupa di rendere trasparente agli utenti la logica (e le 'ragioni') che hanno portato un鈥橧A a prendere una certa decisione. In questo modo l鈥檜tente finale pu貌 ispezionare il ragionamento fatto dalla macchina e decidere se 猫 conforme ai suoi valori e ai suoi standard, anche in termini di fairness e bias".
"La ricerca da sola per貌 non 猫 abbastanza. Per quanto ci sforziamo di costruire sistemi di IA sempre pi霉 sicuri, affidabili e fair, vi 猫 una componente di rischio che non 猫 eliminabile. Si pu貌 comunque arginare educando gli utenti, ovvero insegnando alle persone ad usare l'IA in modo responsabile ed eticamente corretto, anche se la platea potenziali utenti 猫 sterminata e, oggigiorno, chiunque pu貌 accedere a un sistema di IA e usarlo a piacimento".
"Nel nostro piccolo, come 精东影业, stiamo cercando di portare avanti diverse iniziative dedicate a formare la cittadinanza sull鈥檜tilizzo responsabile dell'IA. Siamo partiti dalla scuola: docenti, studentesse e studenti, tra i pi霉 esposti ai rischi di queste nuove tecnologie, nonch茅 coloro che si troveranno a vivere in un mondo dove l'IA 猫 ovunque. La prossima sfida, da affrontare con le istituzioni e altre realt脿 locali (ne 猫 un buon esempio la nostra collaborazione con ), 猫 raggiungere la cittadinanza adulta e anziana, spesso pi霉 restia a confrontarsi con le nuove tecnologie".
L'immagine nel seguente articolo 猫 stata generata da un'IA.