Obiettività, questa sconosciuta: Bias cognitivi e bias dell’AI.

Obiettività, questa sconosciuta: Bias cognitivi e bias dell’AI.

Condividi con i tuoi amici...

Tutti noi, essendo esseri umani, abbiamo dei pregiudizi e delle opinioni preconcette che influenzano la nostra percezione e i nostri giudizi. Questi sono bias cognitivi. Il problema diventa ancora più importante quando si tratta di tecnologie come l’IA che basano le loro previsioni e decisioni sui dati di addestramento che ricevono da noi esseri umani.

I bias cognitivi umani

Il bias cognitivo è un’inclinazione incontrollata e inconscia a percepire e interpretare le informazioni in modo distorto. Ci sono molti tipi di bias cognitivi, ma in generale questi errori di giudizio sono causati da pregiudizi, preconcetti, aspettative e altre influenze emotive e sociali che influiscono sulla percezione e la valutazione della realtà.

Ad esempio, il bias di conferma è un tipo di bias cognitivo in cui le persone tendono a cercare informazioni che confermano le loro convinzioni esistenti e a ignorare o minimizzare le informazioni che le contraddicono. Questo può portare a decisioni non obiettive e basate su informazioni incompleti o fuorvianti.

Il bias cognitivo può influire su molte aree della vita, comprese le relazioni interpersonali, le valutazioni della performance, la percezione dei rischi e la prevenzione delle malattie, e può avere conseguenze significative per la salute, la sicurezza e il benessere degli individui e delle comunità.

I bias dell’AI

Il termine “bias” in ambito di intelligenza artificiale e machine learning si riferisce alla tendenza del modello a fare previsioni sbagliate o a discriminare in modo ingiusto sulla base di fattori irrilevanti. Ciò può accadere a causa dei dati su cui il modello è stato addestrato. Il bias può influire sulle prestazioni del modello e sulla sua capacità di fare previsioni eque e accurate. Esistono diversi tipi di bias, tra cui il bias statistico e il bias etico.

Un bias statistico è un errore sistematico che si verifica quando la rappresentazione dei dati in un modello statistico non è fedele alla realtà.

Questo può accadere quando i dati utilizzati per addestrare il modello non sono rappresentativi della popolazione che si sta cercando di analizzare o quando il modello stesso ha una struttura che introduce un’imprecisione nei risultati. Ad esempio, se i dati di addestramento di un modello di previsione del credito sono troppo favorevoli verso determinati gruppi demografici, il modello potrebbe presentare un bias statistico nei confronti di quelle popolazioni che non sono ben rappresentate nei dati di addestramento. Questo può a sua volta portare a decisioni sbagliate o discriminatorie nei confronti di determinate popolazioni. Se un algoritmo è addestrato su dati che mostrano una maggiore criminalità in alcune comunità rispetto ad altre, può sviluppare un bias statistico nei confronti di queste comunità.

Il bias etico si riferisce all’inclinazione o alla tendenza a prendere decisioni che violano i valori morali e etici. Questo tipo di bias può essere influenzato da molteplici fattori, tra cui pregiudizi culturali, valori personali e interessi a breve termine.

Nel contesto dell’intelligenza artificiale, il bias etico può manifestarsi quando i modelli AI sono addestrati su dati che riflette le discriminazioni o le iniquità presenti nella società, o quando i modelli AI prendono decisioni che violano i diritti umani o i valori etici. In altre parole, il bias etico si verifica quando un algoritmo tratta le persone in modo ingiusto o discriminatorio a causa di fattori come razza, sesso, orientamento sessuale, etnia, età, religione o stato socio-economico.

Per esempio, un sistema di sorveglianza addestrato con dati che rispecchiano pregiudizi o discriminazioni di una società, può replicare questi stessi bias all’interno delle sue decisioni e classificazioni. Se un sistema di sorveglianza è addestrato con dati che mostrano una maggiore attenzione verso determinati gruppi etnici o di genere, potrebbe classificare in modo sbagliato o pregiudicare questi stessi gruppi in situazioni future. Questo crea una questione etica poiché il sistema potrebbe perpetuare discriminazioni e pregiudizi già presenti nella società, anziché combatterli. È importante che i sistemi di intelligenza artificiale siano addestrati con dati equilibrati e privi di pregiudizi per evitare bias etici nelle loro decisioni.

In alcuni casi, un bias statistico può condurre a un bias etico. Tuttavia, questo non significa che ogni bias statistico necessariamente porti a un bias etico. Il bias etico può emergere anche da decisioni umane che influiscono sulla selezione dei dati di addestramento o sulla configurazione dell’algoritmo. Il bias statistico può spesso generare un errore nella rappresentazione della realtà, una distorsione senza necessariamente produrre discriminazioni o far nascere questioni etiche.

Le soluzioni proposte

La prima cosa da fare è la diversificazione dei dati impiegati dall’AI per l’addestramento in modo da garantire che siano rappresentate tutte le diverse tipologie di persone e situazioni. È importante valutare il modello per verificare se presenta bias. Questo può essere fatto utilizzando tecniche come la verifica di equità o la valutazione di diversità. Bisogna assicurarsi che gli sviluppatori siano formati sulla questione dei bias nell’IA e sulle tecniche per prevenirli e correggerli.

Un esempio

Supponiamo che un’azienda voglia sviluppare un algoritmo per prevedere la probabilità che un candidato abbia successo in un determinato lavoro. Per addestrare il modello, l’azienda raccoglie i dati sulle prestazioni di lavoro di molti dipendenti, tra cui informazioni sul loro genere, razza e istruzione. Tuttavia, se l’azienda in passato ha discriminato in modo sistematico i dipendenti di determinate razze o generi, allora i dati raccolti potrebbero essere influenzati da questo bias. Se il modello di intelligenza artificiale viene addestrato su questi dati, allora potrebbe finire per replicare questo bias e prevedere che i candidati di determinate razze o generi abbiano probabilmente una minore probabilità di successo nel lavoro rispetto ai candidati di altre razze o generi, anche se questa non è una vera indicazione delle loro capacità.

Il modo più efficace per risolvere i bias nell’IA consiste nell’utilizzare metodologie che riducano o eliminino i bias nella raccolta e nell’utilizzo dei dati di addestramento. Ad esempio, è possibile utilizzare campioni di dati rappresentativi della popolazione target, che includano diverse caratteristiche come età, genere, razza e cultura. Inoltre, è possibile utilizzare tecniche di analisi statistica per identificare e correggere eventuali distorsioni nei dati.

Un campo di indagine interdisciplinare

Esiste un campo di indagine Fairness, Accountability, and Transparency in AI che si concentra sulla comprensione dei bias nell’Intelligenza Artificiale e sulle soluzioni per mitigarli. È un settore interdisciplinare che coinvolge esperti di diritto, filosofia, informatica e scienze sociali. Il suo obiettivo è garantire che l’IA sia utilizzata in modo equo, responsabile e trasparente, senza discriminazioni basate su etnia, genere, orientamento sessuale, religione, età o altre caratteristiche protette.

Risorse utili

Fairness and machine learning – Limitations and Opportunities

Ethics of artificial intelligence in global health: Explainability, algorithmic bias and trust