...E Altre Storie

We Make Future: come l’AI porterà valore alle donne. Intervista a Giovanna Cosenza

15-05-2024

Di Laura Bessega

Nel mondo dell’IA c’è un cortocircuito. Gli strumenti dell’IA sono progettati e sviluppati principalmente da uomini bianchi. L’IA produce bias, ovvero delle distorsioni nell’algoritmo dovute ai pregiudizi umani (di genere, razza, religione ecc). Ne nasce un dibattito e si attua uno sforzo per migliorare la situazione. A eliminare stereotipi e bias sono però per lo più uomini bianchi.

La domanda sorge spontanea: dobbiamo eliminare i pregiudizi dall’IA o dagli uomini? Di questo argomento e tanti altri legati al tema donne e IA si parlerà in questo articolo con la Professoressa in Filosofia e Teoria dei Linguaggi Giovanna Cosenza, direttrice del Master in Comunicazione, Management e Nuovi Media dell’Università di Bologna e San Marino, autrice di libri e blogger per Il Fatto Quotidiano. È inoltre creatrice del gruppo Facebook Studio materie umanistiche, lavoro, guadagno dove vengono valorizzate le materie umanistiche e la loro integrazione con quelle digitali. Sarà una degli speaker di We make Future, Fiera Internazionale e Festival sull’Innovazione che si terrà il 13, 14, 15 giugno a Bologna Fiere, e di cui siamo media partner.

Giovanna Cosenza

In che modo ritiene che l’intelligenza artificiale possa contribuire a promuovere l’inclusione e l’empowerment femminile nei settori della comunicazione e dei media digitali?

«Propongo di partire da una riflessione sul rapporto, da sempre problematico, che le donne hanno con le ICT, e più in generale con i saperi tecnico-scientifici. Perché bisogna dirlo chiaro subito: la strada è in salita. Questa purtroppo è la realtà e se non partiamo da una visione realistica, non possiamo cogliere le opportunità che la realtà offre. Tutti i dati ci dicono infatti che le donne, in Italia, in Europa e nel mondo, tendono a stare lontane dalle tecnologie digitali: secondo gli ultimi dati Eurostat, ad esempio, nel 2022 in Europa nel settore ICT lavorava l’84,4% di uomini, mentre le donne erano solo il 15,6%. I dati europei sono inferiori a quelli degli Stati Uniti, dove una recente indagine del Boston Consulting Group parla di un 20% di donne che lavorano nel campo ICT. Ma anche il 20% non è un granché. Se poi pensiamo che la ricerca più avanzata nel campo dell’IA si fa soprattutto negli Stati Uniti, capiamo bene che ci troviamo a usare prodotti fatti quasi solo da uomini. Nonostante questo, l’IA generativa offre opportunità importanti proprio alle donne, come cercherò di illustrare».

 

In un articolo del NYT del 2019 dal titolo Gestire il pregiudizio nell’IA, questa frase mi ha colpito molto: fai una ricerca per “CEO” su Google Immagini e compaiono 50 immagini di uomini bianchi e una immagine di Barbie CEO. Questo è un aspetto del pregiudizio.

Sono andata subito a googlare e oggi ho trovato anche diverse foto di CEO donne e nessuna di Barbie. Stanno cambiando le cose? Quali sono le sfide principali nel prevenire i bias di genere nella progettazione e nell’implementazione dell’AI o gli esempi di strategie per combatterli?

«È questo il punto. Strumenti di intelligenza artificiale progettati e sviluppati da una stragrande maggioranza di uomini bianchi hanno prodotto questi bias. Per fortuna, però, di questo si è cominciato a parlare rapidamente, perché soprattutto negli Stati Uniti la sensibilità per l’inclusione è alta. Il miglioramento che lei ha verificato, facendo una semplice ricerca, proviene proprio da questa attenzione e da uno sforzo che le aziende che producono IA stanno facendo. Il miglioramento dunque c’è, ma purtroppo di stereotipi e bias tutti gli strumenti più diffusi di AI sono ancora pieni zeppi. Questo perché coloro che cercano di eliminare e correggere gli stereotipi e i bias sono sempre, in larga maggioranza, uomini bianchi statunitensi».

«Durante il mio primo semestre al MIT, ero al computer lavorando con un software che doveva tracciare la mia faccia, ma non ha funzionato finché non ho indossato una maschera bianca. Mi sono chiesta: cosa sta succedendo? È colpa della luce? Dell’angolo da cui sto guardando la camera? O c’è qualcosa di più?» Joy Buolamwini, ricercatrice del MIT Media Lab, nel 2017 scopre che molte tecnologie di riconoscimento facciale classificano erroneamente le donne e le persone con carnagione scura e che l’intelligenza artificiale, definita da un gruppo omogeneo di uomini, non è neutrale. Spinge il governo degli Stati Uniti a creare la prima legislazione per contrastare i pericoli diffusi del pregiudizio (bias) nella tecnologia dell’IA. Crea “Coded Bias”, un video che pone due domande fondamentali: qual è l’impatto del crescente ruolo dell’Intelligenza Artificiale nel governare le nostre libertà? E quali sono le conseguenze per le persone che si trovano nel mirino a causa della loro razza, colore e genere? Lei come risponderebbe a queste domande?

«Rispondo dicendo che purtroppo è inevitabile che le persone che già sono escluse o discriminate nel mondo, per genere, razza, etnia, religione, orientamento sessuale, povertà e via dicendo, si ritrovino escluse, dimenticate o, peggio, discriminate anche dall’IA. D’altro canto, è quasi banale: il digitale è prodotto da esseri umani e, se gli umani escludono, non riconoscono e discriminano, anche il digitale lo farà. Con un aggravante per l’IA generativa: questa lavora su statistiche, cioè genera testi e immagini, ferme e in movimento, sulla base dei testi e delle immagini che trova connessi con più frequenza. Li riconfigura, li rielabora e li ricombina, certo, ma non per questo infrange regole, né supera stereotipi e pregiudizi se un essere umano non le dice di farlo. Se chi usa l’IA non vede lo stereotipo, il pregiudizio o la discriminazione in un prodotto dell’IA o, peggio, li condivide intenzionalmente e consapevolmente, non sarà certo l’IA a fargli cambiare idea. Anzi, farà il contrario: rinforzerà lo stereotipo, il pregiudizio e la discriminazione, per andare incontro al prompt e agli obiettivi dell’utente».

 

Uno studio di Ibm dal titolo AI ethics in action: An enterprise guide to progressing trustworthy AI, ha studiato le opinioni a livello globale di 1.200 dirigenti in 22 paesi sull’importanza dell’etica nell’intelligenza artificiale. Il 68% delle organizzazioni riconosce che avere un posto di lavoro inclusivo è importante per mitigare i pregiudizi nell’AI. Qual è la sua opinione sul ruolo delle donne nel plasmare il futuro dell’etica nell’intelligenza artificiale?

«Per fortuna, di etica nell’IA si parla già molto. Per sfortuna, però, ancora si agisce poco. E sempre per sfortuna, a parlare di etica sono soprattutto uomini, ancora una volta bianchi e per giunta con una certa formazione e un buon livello socio-economico, cioè tendenzialmente privilegiati e certo non discriminati. Come se ne esce? Lei prima citava Joy Buolamwini, ricercatrice del MIT Media Lab, che già nel 2017 si rese conto della non neutralità delle tecnologie di riconoscimento facciale. La mia risposta sta già in quell’esempio: ci vogliono donne per individuare nei testi, nelle immagini, negli audiovisivi prodotti dell’IA, i bias e le discriminazioni rivolte alle donne. Così come ci vogliono donne nere per vedere le discriminazioni verso le donne nere e ci vogliono persone omosessuali, bisessuali, transgender e così via, per focalizzare i bias che le affliggono. È solo dalla diversità delle esperienze di discriminazione, che possono nascere atteggiamenti autenticamente inclusivi. Ma purtroppo non basta: occorre anche una buona dose di consapevolezza. Se sei discriminata, ma non ti racconti di esserlo, figuriamoci se riconosci le discriminazioni riprodotte dall’IA.

Una soluzione concreta? Poiché nessuna decisione né politica né aziendale può ribaltare in pochi mesi o anni le statistiche per cui sono pochissime le donne che progettano e sviluppano IA, ci vogliono direttive e regole, private e pubbliche, nazionali e transnazionali, per mettere più donne, in tutte le sedi e a tutti i livelli, con competenze e buona consapevolezza su bias e discriminazioni sociali, a valutare l’impatto etico dei prodotti e degli usi dell’IA. E ovviamente non bastano le donne, ci vogliono anche rappresentanti di tutte le minoranze discriminate. Ma trovare donne con queste competenze e questa consapevolezza può essere statisticamente più facile, visto che le donne non sono una minoranza, ma sono metà della popolazione mondiale».

In che modo allora pensa che la narrazione intorno alle donne nell’IA – e più in generale nelle ICT – possa essere cambiata per ispirare più ragazze e giovani a entrare in questo campo? Può farmi degli esempi concreti?

«Ha toccato un punto cruciale. Le basse percentuali di donne che lavorano con le ICT e l’IA nascono da un problema che le accompagna fin dalla più tenera età. In tutto il mondo le bambine sono educate, fin dai primi anni di vita e cioè ben prima di andare a scuola, a convincersi che l’aritmetica, la matematica e le tecnologie in generale siano una cosa più “da maschi”. Ne sono convinte anche le loro figure affettive di riferimento e le loro insegnanti, nella stragrande maggioranza dei casi. Così iniziano a darlo per scontato prestissimo nella vita. Questo accade perché l’aritmetica, la matematica e le tecnologie sono presentate come materie razionali, fredde, “dure” – “hard skills” – lontane dalle emozioni e dall’affettività. Sono invece più “da femmina” tutti gli studi che comportano attenzione per le relazioni umane, per le emozioni e per la cura delle persone: le materie umanistiche insomma. Gli studi sul cervello umano mostrano da anni che non c’è nulla di “naturale” in questa ripartizione rigida e non è vero che il cervello femminile sia meno predisposto di quello maschile per le STEM. Si veda ad esempio questo articolo del 2019 su Nature.

Una buona strada per avvicinare le bambine, le ragazze e le adulte alle ICT e all’IA è smetterla con questa suddivisione fra “hard” e “soft”, cominciando a insegnare l’aritmetica di base, la matematica più avanzata e la sua applicazione alle scienze, in modo più concreto, più vicino alla vita quotidiana, ai vissuti personali e, perché no, alle emozioni. Non è vero che la matematica è “fredda” e le scienze umane sono “calde”: dipende da come le insegni. Ecco allora che arriviamo al vantaggio che per le donne l’IA ha su tutte le ICT, un vantaggio che può aiutarci a superare il gender gap».

 

Vuole forse dire che l’intelligenza artificiale può essere usata per migliorare l’accesso delle donne all’istruzione e alla formazione professionale? Come?

«Il vantaggio dell’IA, specie se generativa, è che per funzionare deve assomigliare il più possibile all’intelligenza umana, deve cioè simulare, usando anzitutto il linguaggio naturale, il modo in cui gli esseri umani comunicano e stanno in relazione fra loro. Insomma, pur progettata e sviluppata da maschi bianchi, con tutti i bias di cui abbiamo detto, l’IA simula tanto meglio la nostra intelligenza, quanto più è stata nutrita di informazioni sulle cosiddette “soft skills” umane, e cioè, fra le altre, sulle capacità di provare empatia, di gestire emozioni proprie e altrui, di costruire e mantenere relazioni. In altri termini, l’IA è addestrata a mettersi in relazione con noi nel modo più fluido, cooperativo e gentile possibile. E questo alle donne piace, questo le avvicina e non le respinge, anche se sono cresciute interiorizzando tutti i bias sul loro presunto essere “meno capaci” e “meno predisposte” verso le ICT. In poche parole, l’IA generativa è un digitale dolce, ammorbidito: se non lo fosse, non sembrerebbe umana. Ed è qui che si può sperare nel ribaltamento: più donne che usino l’IA nella vita e nelle professioni. Qualche segnale già si vede. Secondo lo studio “Women in Tech” del Boston Consulting Group, le donne che lavorano nell’ICT hanno più dimestichezza degli uomini con l’intelligenza artificiale generativa: la usano più di una volta a settimana il 75% delle lavoratrici, contro il 61% dei lavoratori. Evviva».

 

Affrontiamo un tema caldo per le donne: ha qualche suggerimento su come l’IA potrebbe aiutare a migliorare il bilanciamento tra lavoro e vita privata?

«La risposta è facile: se ben usati, i vari applicativi di IA ci fanno risparmiare una marea di tempo, perché stimolano la creatività, sbloccano la mancanza di idee, trovano scorciatoie, fanno ricerche al posto nostro, propongono schemi di partenza per scrivere testi e risolvere un bel po’ di problemi. Ci danno persino suggerimenti per preparare la cena con i pochi ingredienti rimasti in frigo, per risolvere un problema idraulico nel bagno e un cortocircuito elettrico nel condominio. ChatGPT 4 ad esempio fa questo e altro, e lo fa anche se la usiamo in modo banale. Se poi la usiamo con competenza professionale, ci aiuta a fare in dieci minuti molto di ciò che prima facevamo in diverse ore o giornate. Il che ci permette di ritrovare equilibri perduti fra vita e lavoro. Se siamo capaci e se vogliamo farlo, naturalmente».

Qualche mese fa il New York Times ha svelato una prestigiosa lista dei “chi è chi” nell’IA. «La lista mette in mostra 12 figure chiave nell’IA che hanno svolto un ruolo cruciale nel nuovo “movimento dell’IA” e sono la forza trainante dietro l’alba della nostra era moderna dell’Intelligenza Artificiale. Ma, sorpresa sorpresa — non una sola donna è stata inclusa» racconta Séphora Bemba di Women in Technology. A rimettere in pari la situazione ci pensa lei selezionando 12 donne per un equo riconoscimento in campo tecnologico. Tra queste c’è anche un’italiana, Francesca Rossi, global leader di IBM per l’etica dell’IA che vive a New York. A conclusione di questa intervista le chiedo: ma in Italia che punto siamo?

«L’Italia purtroppo è messa male non solo per gender gap (secondo il Gender Gap Report del World Economic Forum 2023, siamo al 79° posto su 146 paesi censiti), ma anche per scarsa diffusione della cultura digitale. Lo dicono diverse statistiche europee e lo dice ogni anno il DESI, che è il Digital Economy and Society Index della Commissione Europea, che nell’ultimo Report del 2023, su dati 2022, colloca l’Italia al quart’ultimo posto per competenze digitali (dopo di noi ci sono Polonia, Bulgaria e Romania). Certo, rispetto a quando, prima della pandemia, eravamo all’ultimo posto in Europa, oggi stiamo un po’ meglio, ma il problema della scarsa cultura digitale resta pesante e ci porta agli ultimi posti in Europa anche come laureati e laureate in ICT. In questo contesto, il gender gap annega nel mare dell’ignoranza digitale diffusa. Non a caso l’italiana che lei ha citato, Francesca Rossi, è andata via dall’Italia e vive a New York.

Una luce in fondo al tunnel? Ancora una volta viene dalle donne, o meglio, dalle ragazze: secondo la rielaborazione OpenPolis di dati Eurostat, tra 20 e 24 anni le ragazze raggiungono competenze digitali, almeno di base, nel 62,5% dei casi, mentre le raggiungono solo il 60,9% di ragazzi. E il vantaggio femminile è ancora più ampio tra 16 e 19 anni: 59,1% a fronte del 52,9% di maschi. In media, per l’intera fascia 16-24 anni, ci sono quasi 4 punti di differenza tra le competenze digitali femminili e quelle maschili».

Condividi questo articolo