E’ provato che gli algoritmi ci discriminano
Gennaio 12, 2021
LA CICALA PARLANTE: come effettuare un cambio di paradigma
Gennaio 12, 2021
Mostra tutto

INTELLIGENZA ARTIFICIALE: genere e pregiudizi

INTELLIGENZA ARTIFICIALE:GENERE E PREGIUDIZI

L’intelligenza artificiale (“artificial intelligence” in inglese, in acronimo AI) è la capacità di un sistema informatico di affrontare problemi e svolgere funzioni tipicamente umane. Una delle più importanti abilità della mente umana è quella di imparare dall’esperienza. Allo stesso modo, l’intelligenza artificiale ha quindi la capacità di creare algoritmi in grado di apprendere informazioni dai dati che sono forniti loro e usare questa conoscenza per produrre nuovo sapere. In particolare, gli algoritmi dell’intelligenza artificiale sono in grado di usare ciò che hanno imparato per comprendere e accuratamente valutare nuovi dati che vengono forniti loro.

Purtroppo è ormai chiaro che l’uso dell’intelligenza artificiale perpetua e inasprisce, tra le altre, le discriminazioni contro donne (ma non solo: anche le discriminazioni razziali sono un problema che affligge l’intelligenza artificiale).

La discriminazione dell’intelligenza artificiale avviene a diversi livelli, qui ne affronteremo solo i due più importanti.
Il primo livello è costituito dalla mancanza di una sufficientemente varietà di “rappresentazione nei dati”. Se il set di dati su cui viene addestrato un algoritmo non sono abbastanza vari è possibile che l’algoritmo in questione impari a tenere in considerazioni criteri solo riferiti ad alcuni individui (quelli rappresentati nei dati) a sfavore degli altri. Questo può dar adito a discriminazioni di ogni tipo: razziale, di genere e anche di età.
Facciamo un esempio: se i dati forniti a un sistema artificiale si riferiscono, per la stragrande maggioranza, ad individui di genere maschile, il risultato è che il sistema non sarà in grado di riconoscere e valutare caratteristiche tipiche del genere e/o sesso femminile. Questo problema è presente per esempio negli algoritmi usati in medicina per diagnosticare malattie. In alcuni casi, questi algoritmi vengono addestrati e poi controllati soprattutto su soggetti maschili rendendoli quindi spesso inaccurati quando usati su persone di sesso femminile. Il risultato: le donne diventano di fatto pazienti di serie B, per cui i medicinali e i test medici non hanno l’accuratezza e gli effetti che hanno sui pazienti maschi.

Un altro serio problema affligge l’intelligenza artificiale: gli algoritmi assimilano e riproducono i “bias” (pregiudizi) di genere presenti nella nostra società. Questo avviene perché tali discriminazioni sono implicitamente parte dei set di dati su cui vengono addestrati tali algoritmi. Ovvero: i sistemi di intelligenza artificiale imparano a discriminare direttamente dai dati su cui vengono allenati. Questo tipo di discriminazione è chiamata “historical bias”, e sono discriminazioni di genere o razziali, ma anche discriminazioni riferite all’età. È il problema che hanno dovuto affrontare ad Amazon quando si sono accorti che il loro algoritmo per assumere nuovi collaboratori e impiegati discriminava le donne. Per quale motivo? Semplice, l’algoritmo era stato addestrato osservando i dati dei CV assunti negli ultimi dieci anni dalla compagnia Statunitense. La maggioranza apparteneva a maschi (data la predominanza di questi ultimi nel settore, soprattutto qualche anno fa) e quindi l’algoritmo ne ha dedotto che gli uomini sono più qualificati delle donne. Questo ha voluto dire che i CV mandati dalle donne (o che contenevamo la parola ‘donna’) venivano automaticamente considerati meno qualificati.
La soluzione a questo problema parrebbe ovvia: togliere qualsiasi riferimento al sesso e al genere (all’ età, al paese di provenienza, ecc.) sia nei dati da cui gli algoritmi imparano sia dai dai dati che essi valutano (ovvero, i nuovi CV ricevuti, in questo caso). Purtroppo le cose non sono così semplici. Anche se non si fa esplicitamente riferimento al sesso o al genere di appartenenza (o a qualsiasi altra variabile ‘sensibile’), l’intelligenza artificiale è strutturata in tal modo che velocemente impara a notare delle correlazioni che possono servire come indicatori (“proxies”, in Inglese). Per esempio un certo tipo di attività, di hobby o di esperienze può correlarsi più frequentemente con il genere maschile: se un algoritmo nota una sproporzionata presenza di questi indicatori nei set di data su cui viene allenato, involontariamente discriminerà a danno delle donne nelle sue valutazioni (perché loro mancano o hanno poche correlazioni con questi indicatori).

Questo ci dice che non ci sono soluzioni semplici e veloci per eliminare le potenziali discriminazioni generate dall’intelligenza artificiale. Tali sistemi sono così complessi che molto spesso diventano imprevedibili e non è facile controllare a priori i fattori che determinano le valutazioni e i risultati che emergono dalle computazioni degli algoritmi.

Marianna B. Ganapini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.