Osteopatia: Anche felici, vita felice
Marzo 13, 2024
La Posta del look: Non amo essere schiava del colore
Marzo 13, 2024
Mostra tutto

Vecchie, ma informati…che

Ci siamo già occupate di intelligenza artificiale (IA), non solo per cercare di apprendere cosa sia e in quali campi possa essere utilizzata, ma anche e soprattutto per esplorarne le possibili applicazioni e per valutare criticamente come ci si sta muovendo per creare un controllo etico del suo utilizzo e il rischio che la sua applicazione non tenga conto di importanti bias determinati da pregresse e tuttora presenti stereotipie o differenze strutturali di raccolta dati.

Un esempio importante è l’utilizzo della IA nella sanità.

Il Prof. Enzo Grossi, della Fondazione Bracco, in un articolo su MdG Newsletter (Pubblicazione del Centro Studi Nazionale su Salute e Medicina di Genere, Gruppo Italiano Salute e Genere e Centro di Riferimento per la Medicina di Genere dell’Istituto Superiore di Sanità) ci illustra come l’interazione tra gli sviluppi dell’IA e i programmi sanitari possono avere conseguenze molto importanti nel definire i percorsi diagnostici e terapeutici differenziati per genere.

È noto ormai grazie a studi sempre più orientati in tale senso che differenze di genere sono state descritte in molte malattie croniche come il diabete, i disturbi cardiovascolari, le malattie neurologiche, i disturbi mentali, il cancro e l’autoimmunità, e anche in processi fisiologici complessi come l’invecchiamento fisico e cognitivo.

Sappiamo anche che i cambiamenti nel tempo degli stili di vita (alimentazione, attività fisica, uso di tabacco e alcol) portano a correlazioni forti tra genere e tendenze epidemiologiche delle malattie.

A fianco di un’analisi specialistica su quanto sia sempre più importante raccogliere i dati, che poi verranno raccolti e utilizzati dall’IA, secondo il genere, è utile sapere, per tranquillizzarci un po’, che esistono tanti giovani studiosi (e tante donne!), che stanno applicando metodologie di controllo dell’accuratezza, anche etica, dei sistemi di IA.

Tra questi ci sembra utile citare il lavoro di ricerca e advocacy (Processo civile con cui una persona o un gruppo di persone cercano di dare appoggio ad una politica, che sia essa sociale, economica, legislativa, ecc., e di influenzare la relativa distribuzione delle risorse umane e monetarie) illustrato in una recente intervista sul Fatto Quotidiano da Diletta Huyskes filosofa e dottoranda in Sociologia, che porta avanti, come co-CEO e co-Founder di Immanence, società benefit, progetti che possano assicurare lo sviluppo tecnologico rispettando i diritti fondamentali e intervenendo sulle diseguaglianze esistenti.

L’automazione preoccupa in particolare il mondo femminile poiché può avere un’interferenza importante nel lavoro, dove le donne rischiano di essere più colpite.

Inoltre l’IA, basandosi su statistica e logica, ha il compito di analizzare infinite quantità di dati stratificandoli tra loro e in questo senso si presta perfettamente a una analisi e a una valutazione di tipo intersezionale delle discriminazioni.

La ricerca condotta da Huiskes e collaboratori è volta soprattutto all’analisi dell’utilizzo di queste tecnologie da parte delle amministrazioni pubbliche e nei servizi pubblici.

Si pensi all’automazione di servizi pubblici come il welfare, la giustizia, la sanità, la sicurezza: in questi ambiti i rischi sono alti perché si tende, con molta pretesa di oggettività e verità purtroppo, a delegare a queste tecnologie i processi decisionali.

L’idea di usare dati statistici per prendere decisioni standardizzate sulla vita delle persone è molto pericoloso, a maggior ragione quando si tratta di categorie sociali svantaggiate. Si parte dalla variabile e dai dati di genere e si arriva fino alla nazionalità, lo stato sociale, il numero di figli, il quartiere di residenza, l’area geografica di provenienza.

Ad esempio, nei Paesi Bassi erano considerate automaticamente a rischio frode ai sussidi sociali le persone di genere femminile under 35, che avevano più di due figli, separate, senza lavoro, con background migratorio. Ma dietro quei dati si nascondono delle vite e delle esperienze personali che sarebbero degne di attenzione e di discrezionalità. Non si può pensare che qualsiasi donna con quelle caratteristiche sia a rischio a commettere frode.

Alcune applicazioni di IA, dove i processi non vengono gestiti responsabilmente e con cura, può capitare che  innovazioni dal punto di vista tecnologico favoriscano il mantenimento dello status quo o riportino indietro nel tempo, come nel caso olandese. Modernizzare non comprende solo la dimensione tecnologica sofisticata, ma anche quella umana e sociale. Se non si considera questa componente, meno commercializzabile, ma infinitamente più necessaria, c’è un alto rischio che questo tipo di applicazioni imparino a perpetrare all’infinito l’esistente.

 

Articolo del Prof. Grossi (Medicina di Genere Newsletter – gennaio 2024)

 Il Prof.Grossi rileva che “L’ascesa dell’intelligenza artificiale (IA) nel settore sanitario ha portato a un uso crescente di grandi insiemi di dati clinici per l’apprendimento automatico.

L’apprendimento automatico (machine learning) (1) si sta rivelando una potente tecnologia emergente con risultati ben documentati nelmigliorare lo screening, la diagnosi e la terapia e nel definire in diverse applicazioni di medicina di precisione, anche dove sono state segnalate differenze di genere, come ad esempio nel diabete, nelle malattie cardiovascolari, neurologiche e oncologiche e nell’immunologia.

Nonostante i significativi progressi scientifici compiuti finora, la maggior parte delle tecnologie di IA biomedica attualmente in uso tiene però ancora poco conto del rilevamento dei pregiudizi legati al genere.

A fronte del fatto che gli algoritmi di machine learning sono sempre più utilizzati in ambito sanitario per assistere i medici nelle decisioni riguardanti la diagnosi, la prognosi e la scelta della terapia più appropriata, se questi algoritmi non vengono attentamente valutati per verificare la presenza di bias, il miglioramento atteso delle cure saranno limitate solo a un sottoinsieme di pazienti e questo provocherà di conseguenza l’aumento delle disuguaglianze nell’assistenza sanitaria.

L’attenzione alla selezione delle caratteristiche di genere negli insiemi di dati medici sottoposti a modellazione con IA è quindi molto importante per mitigare i bias legati alla sottorappresentazione delle donne nella scienza medica. La storica marginalizzazione delle donne dalla ricerca clinica ha portato a conoscenze mediche che si concentrano sul corpo maschile

e trascurano le differenze fisiologiche femminili. Per garantire che le disuguaglianze basate sul genere non si manifestino nell’IA applicata alla medicina, è necessario prestare molta attenzione a incorporare le informazioni sul genere nei modelli predittivi, per evitare disparità nelle prestazioni predittive nei due generi.

Per rispondere alla domanda: “L’informazione sul genere è utile per una rete neurale per costruire un modello predittivo?”, ho controllato retrospettivamente quante volte il genere è stato salvato come parte del sottoinsieme di variabili informative in 21 set di dati provenienti da autori con cui ho collaborato negli ultimi 20 anni per l’applicazione della IA in campo medico.

Si è trattato di studi scientifici pubblicati su riviste internazionali in cui abbiamo impiegato le reti neurali (2), uno dei machine learning systems più potenti, per rispondere a domande critiche pertinenti a una vasta gamma di malattie e condizioni.

In tutte queste analisi uno speciale algoritmo chiamato TWIST, sviluppato dal Centro Ricerche Semeion, selezionava euristicamente (cioè consentendo di prevedere o rendere plausibile un risultato,  il quale in un secondo tempo dovrà essere controllato e convalidato per via rigorosa – cfr) le variabili contenenti l’informazione utile per addestrare le reti neurali ad una previsione corretta scartando quelle ridondanti che non offrivano un valore aggiunto.

I data sets riguardavano una vasta gamma di malattie come la sindrome dispeptica, la gastrite atrofica, la trombosi venosa, la malattia da reflusso gastroesofageo, la sindrome dell’intestino irritabile, la malattia di Alzheimer e il decadimento cognitivo lieve, l’infarto del miocardio, l’emorragia gastrointestinale, il cancro gastrico, l’ipercortisolismo, l’AIDS, la diagnosi Covid, l’ossigenazione extracorporea a membrana in terapia intensiva, tra le altre.

La dimensione del campione di questi set di dati variava tra 80 e 3147 (in media 600). Il numero di variabili variava da 19 a 101 (in media 44). Ebbene, il genere è risultato essere parte del modello predittivo euristico 19 volte su 21. Ciò significa che anche per strumenti altamente adattivi e potenti come le reti neurali, l’informazione sul genere ha un valore specifico.

Se i sistemi di intelligenza artificiale non avessero realizzato il valore aggiunto di questa informazione per garantire un’elevata accuratezza previsionale, lo avrebbero sicuramente scartato.

In campo reumatologico, un esempio specifico nell’artrite psoriasica ha mostrato che la presenza dell’informazione sul genere consentiva un’accuratezza significativamente migliore delle reti neurali nel predire la diagnosi dai dati clinici (da 87,7%, senza genere a 94,47% con il genere nel modello).

Il risultato di questo studio conferma l’importanza delle informazioni sul genere nella costruzione di modelli predittivi ad alte prestazioni nel campo dell’IA. Pertanto, anche per l’Intelligenza Artificiale il genere conta. È quindi fondamentale che le informazioni sul genere siano disponibili in tutti gli insiemi di dati sottoposti a modellizzazione predittiva con sistemi di intelligenza artificiale per assistere meglio i medici e gli operatori sanitari nel processo decisionale.

 

Note 

1 Il machine learning è un metodo di analisi dati che automatizza la costruzione di modelli analitici. È una branca dell’Intelligenza Artificiale e si basa sull’idea che i sistemi possono imparare dai dati, identificare modelli autonomamente e prendere decisioni con un intervento umano ridotto al minimo.

L’aspetto più importante del machine learning è la ripetitività, perchè più i modelli sono esposti ai dati, più sono in grado di adattarsi in modo autonomo. I computer imparano da elaborazioni precedenti per produrre risultati e prendere decisioni che siano affidabili e replicabili.

2 Una rete neurale è un metodo di intelligenza artificiale che insegna ai computer a elaborare i dati in un modo che si ispira al cervello umano. Si tratta di un tipo di processo machine learning, chiamato deep learning, che utilizza nodi interconnessi o neuroni in una struttura stratificata che somiglia al cervello umano. Crea un sistema adattivo che i computer utilizzano per imparare dai loro errori e migliorare continuamente. Le reti neurali artificiali provano così a risolvere problemi complessi, come riassumere documenti o riconoscere volti, con una maggiore accuratezza.

 

 

 

 

 

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *