Imparare dall’intelligenza artificiale

Imparare dall’intelligenza artificiale

Condividi con i tuoi amici...

Ad alcuni potrebbe infastidire l’idea di dover imparare dalle macchine ma in realtà si tratta di un equivoco.

Non dobbiamo imparare dalle macchine!

Imparare dai modelli di intelligenza artificiale non significa imparare dalle macchine, ma vuol dire imparare dagli studi compiuti sino ad oggi da scienziati e ricercatori umani per realizzare tali modelli.

A trarci in inganno è l’uso consuetudinario della personificazione e a volte dell’antropomorfizzazione delle cose. Questa convenzione è sicuramente presente in una vasta letteratura compreso questo articolo. Quando diciamo che l’intelligenza artificiale sta compiendo una rivoluzione oppure che la tecnologia ci rende dipendenti o che addirittura ci può insegnare qualcosa, ci stiamo ovviamente riferendo all’uso dell’AI e della tecnologia che gli uomini fanno. Questo aspetto, benché sia banale, a volte non è ben chiaro quando leggiamo o ascoltiamo e ci lasciamo cogliere da emozioni irrazionali che ci fanno assumere atteggiamenti estremamente favorevoli o contrari alle “cose” in sé piuttosto che ad un certo loro impiego.

Dovremmo vedere l’AI come un modello della nostra mente all’opera. Osservare dove l’AI “sbaglia” e dove “fa” bene dovrebbe farci riflettere su dove sbaglia e dove fa bene la nostra mente. Benché quelli artificiali siano modelli grossolani della mente umana, risultano evidenti delle affinità notevoli nei processi di apprendimento dei due sistemi.

L’idea che l’uomo apprenda in modo fondamentalmente diverso rispetto all’AI è un pregiudizio. L’AI è stata realizzata per imitare l’apprendimento umano. Alcuni obiettano che l’AI opera su base statistica mentre la mente no. in realtà la teoria di Hebb che da risalto all’importanza della frequenza con cui le reti neurali vengono attivate insieme nei processi di apprendimento associativo, mostra implicitamente che la statistica ha un ruolo significativo.

Leggi questo articolo di approfondimento
Le scienze cognitive e l’intelligenza artificiale

L’estro personale

Per alcuni professionisti nasce la forte esigenza di differenziarsi dalle macchine per risultare più originali e quindi maggiormente competitivi rispetto ad altri operatori che magari impiegano l’AI. Nel perseguire questo proposito magari decidono di essere estremamente creativi mettendo a nudo tutta lo propria originalità e soggettività. In questa strategia non c’è nulla di male sino a che non si decide di accentuare gli aspetti irrazionali del comportamento umano.

La creatività e la razionalità non sono affatto incompatibili. I modelli di AI possono essere creativi e nello stesso tempo agire razionalmente come possiamo farlo noi umani. Pur rispettando certi vincoli imposti dalla ragione esiste un certo margine di manovra che può dare spazio alla creatività personale. Tuttavia, se non si riconoscono certi vincoli oggettivi all’operatività si rischia di assumere comportamenti irrazionali.

Non sappiamo per quanto tempo ancora sarà possibile per l’uomo differenziarsi dall’AI in termini di abilità creative. La costante approssimazione delle capacità dei modelli di AI alle abilità umane avviene inesorabilmente. Per tale ragione sarà necessario un significativo cambiamento delle regole sociali, ma al di la di questo aspetto, piuttosto che abbracciare comportamenti irrazionali dovremmo avviare un’educazione razionale e nel fare questo ci possono venire in aiuto gli studi compiuti sull’AI.

Osservare le vulnerabilità dei modelli di AI quando sono soggetti a cattivi dati di addestramento può darci degli spunti su analoghe vulnerabilità della nostra mente quando è soggetta ad un’educazione non equilibrata.

Il concetto di EDUCAZIONE RAZIONALE

Decidere sulla base di un’educazione razionale non significa necessariamente eseguire calcoli o ragionamenti ogni volta che agiamo o dover spiegare le ragioni di ogni scelta, ma significa prendere decisioni vantaggiose ed efficienti grazie ad un’esperienza ottenuta con cura e attenzione. Il nostro cervello può compiere operazioni complesse delle quali non siamo coscienti, ma lo fa sempre sulla base di ciò che ha appreso nel passato.

Anche una rete neurale presenta problemi di inesplicabilità. I modelli di deep learning non forniscono le ragioni dei risultati in ouptut. Sappiamo solo che tali risultati tendono ad adeguarsi ai numerosi casi reali che il modello ha visto e per questa ragione il modello risulta efficiente e accettabile dal punto di vista razionale.

Anche la mente umana può avere idee e prendere decisioni non sempre spiegabili e intelligibili ma ciò non significa che operi irrazionalmente. Tuttavia, come un modello di AI necessita di un corretto addestramento, anche la mente umana necessità di una sana educazione.

Lo sviluppo dell’AI potrebbe imporre alla società un serio ripensamento di come educhiamo la nostra mente.

L’AI è un’opportunità per noi se cerchiamo di migliorarci ma diventa un rischio se questo non avviene. L’AI è efficiente e potrebbe sostituire l’uomo in molte mansioni lavorative, soprattutto in quei casi in cui i professionisti non intendono assumere un comportamento razionale.

Serve curare di più la nostra mente, correggendo i bias cognitivi e difendendoci da chi intende alimentarli per ottenere profitti.

Il modo in cui i gusti personali e i bias cognitivi influenzano l’apprendimento può effettivamente distorcere la percezione delle probabilità in decisioni future. Ad esempio, se una persona ha una forte preferenza per una particolare opzione basata su esperienze passate positive (anche se limitate), può sovrastimare la probabilità che questa opzione sia la migliore in scenari futuri, ignorando potenzialmente nuove informazioni o alternative più vantaggiose.

Nel campo della psicologia cognitiva, il concetto di “bias cognitivo” spiega come e perché la mente umana tenda a commettere errori di valutazione. I bias cognitivi sono tendenze sistematiche a pensare in certi modi che possono portare a distorsioni della percezione, giudizi inaccurati, interpretazioni illogiche, o ciò che è generalmente chiamato irrazionalità. Essi sono spesso il risultato di tentativi del nostro cervello di semplificare l’informazione elaborata. Uno studio fondamentale in questo ambito è “Judgment under Uncertainty: Heuristics and Biases” di Tversky e Kahneman (1974), che ha esplorato come le euristiche (regole empiriche) conducano a vari tipi di bias nella decisione e valutazione umane.

Abbiamo gà affrontato la questione dei bias cognitivi umani in questo articolo
Bias cognitivi umani, errori dell’AI e le questioni etiche

Gli studi in psicologia educativa mostrano che gli approcci pedagogici che incoraggiano il pensiero critico, la risoluzione di problemi in contesti vari, e l’esposizione a diverse prospettive culturali e ideologiche possono contribuire a mitigare il rischio di sviluppare pregiudizi inflessibili.

Inoltre, la formazione specifica su come riconoscere e gestire i propri bias cognitivi è stata dimostrata essere efficace in vari contesti, inclusi quelli professionali e accademici.

Nel contesto dell’intelligenza artificiale, la qualità e la varietà dei dati di addestramento sono cruciali per lo sviluppo di modelli equi e performanti. Un modello di AI addestrato su dati non equilibrati può manifestare ciò che è noto come “bias algoritmico”, ovvero la tendenza a produrre risultati distorti a causa di presupposti impliciti nei dati di addestramento.

Ci sono studi che si sono soffermati a lungo sulla definizione dei bias dei modelli di AI. Per esempio: Fowards a Standard for Identifying and Managing Bias in Artificial Intelligence

L’importanza dei dati per addestrare l’AI

L’importanza di utilizzare buoni dati di addestramento per addestrare una rete neurale non può essere sottolineata abbastanza. I dati di addestramento sono fondamentali per il successo di un modello di apprendimento automatico, inclusi i modelli di rete neurale, poiché determinano in larga misura come il modello interpreterà e risponderà a nuovi dati. Ci sono diversi aspetti cruciali da considerare per garantire che il dataset sia equilibrato e di alta qualità:

I dati di addestramento dovrebbero essere rappresentativi dell’universo di casi che il modello si aspetta di incontrare nel mondo reale. Questo significa che dovrebbero coprire tutte le variazioni e le categorie di interesse. Ad esempio, in un sistema di riconoscimento delle immagini, se il modello deve riconoscere frutti, i dati di addestramento dovrebbero includere una vasta gamma di frutti, in diverse condizioni di luce, angolazioni, sfondi, ecc.

È fondamentale che il dataset non sia sbilanciato verso una o più categorie a scapito di altre. Un dataset sbilanciato può portare il modello a sviluppare pregiudizi, rendendolo meno accurato per le categorie meno rappresentate. Ad esempio, se stai addestrando un modello per classificare immagini di cani e gatti ma hai molte più immagini di cani, il modello potrebbe diventare migliore nel riconoscere i cani rispetto ai gatti.

I dati devono essere di alta qualità, il che significa che dovrebbero essere precisi, completi e pertinenti. Dati errati o fuorvianti possono introdurre rumore nel processo di apprendimento, portando a un modello meno affidabile. La pulizia dei dati è un passo critico qui per rimuovere o correggere dati errati o incompleti.

La varietà nei dati di addestramento aiuta a costruire un modello più robusto e flessibile. Questo è particolarmente importante per le applicazioni in ambienti dinamici o per modelli che devono gestire una vasta gamma di input. La varietà può includere diverse modalità di dati (testo, immagini, suoni), variazioni nelle caratteristiche dei dati (ad esempio, lingue diverse per un modello di elaborazione del linguaggio naturale) e diversi contesti o ambienti.

Il volume dei dati di addestramento è altrettanto importante. Generalmente, più dati sono disponibili, meglio il modello può apprendere, fino a un certo punto. Tuttavia, l’aggiunta di più dati non è sempre praticabile o utile, specialmente se i dati aggiuntivi non aggiungono nuova informazione o varietà al dataset.

Bias e stereotipi

Il bias di conferma è un esempio di come l’esperienza umana possa portare a dati non equilibrati. Questo pregiudizio si verifica quando le persone danno maggior peso alle informazioni che confermano le loro credenze o ipotesi preesistenti, ignorando o minimizzando quelle che le contraddicono. Nei contesti decisionali, ciò può portare a una valutazione errata dei fatti e a decisioni sbagliate. Anche l’AI può manifestare un tipo di bias di conferma se i dati su cui è addestrata sono sbilanciati o se il processo di addestramento enfatizza particolari pattern a scapito di altri.

Gli stereotipi sono un altro esempio di come l’esperienza umana possa generare pregiudizi. Questi pregiudizi possono essere il risultato di esperienze limitate con certi gruppi o situazioni, portando a generalizzazioni eccessive. Gli stereotipi possono influenzare il giudizio e il comportamento delle persone in modo negativo, portando a discriminazione e ingiustizia.

L’esperienza passata può condizionare in modo significativo le decisioni future degli umani, portando a decisioni basate più su ciò che è familiare o confortevole piuttosto che su una valutazione oggettiva della situazione. Questo può portare a evitare rischi anche quando l’assunzione di rischi potrebbe portare a migliori risultati.

L’esempio di un’educazione irrazionale: il gioco d’azzardo

Il gioco d’azzardo fornisce un esempio classico e potente di come la mente umana possa fallire nella valutazione accurata del rischio e delle opportunità. Questo fenomeno può essere analizzato attraverso varie lenti psicologiche e comportamentali, che evidenziano l’interazione complessa tra bias cognitivi, emozioni, e meccanismi di gratificazione cerebrale.

Purtroppo la mentalità del giocatore d’azzardo può permeare ognuno di noi nell’ambito professionale e quotidiano, perché anche in questi ambiti ci si trova costantemente di fronte ad opportunità e rischi che possono non essere valutati razionalmente.

Una corretta valutazione (razionale) implica l’adozione di un approccio statistico molto simile a quello adottato dai modelli di AI.

Molte persone che giocano d’azzardo credono erroneamente di poter esercitare un controllo sul risultato di eventi puramente casuali, come il lancio di dadi o la rotazione di una roulette. Questo bias può derivare dall’errata interpretazione di piccole sequenze di vittorie come prova della propria abilità o strategia.

Gli scommettitori spesso valutano la probabilità di eventi complessi basandosi sulla facilità con cui possono ricordare esempi pertinenti (disponibilità) o sulla somiglianza con gli esempi noti (rappresentatività), piuttosto che su una valutazione statistica oggettiva. Ciò può portare a sopravvalutare le proprie possibilità di vincita.

La falsa credenza che la probabilità di un evento casuale possa dipendere dagli eventi passati. Per esempio, dopo una serie di perdite, un giocatore può ritenere che sia “dovuto” a una vittoria, nonostante le probabilità rimangano invariate.

Il gioco d’azzardo stimola il sistema di ricompensa del cervello in modo simile ad altre attività piacevoli o sostanze. La speranza o l’esperienza di vincita provoca la liberazione di dopamina, un neurotrasmettitore associato al piacere e alla gratificazione. Questa risposta può creare un ciclo di rinforzo, dove la sensazione di euforia o l’attesa di vincere incoraggia ulteriori scommesse, nonostante le perdite obiettive.

Gli individui possono sperimentare un conflitto interno tra la conoscenza razionale delle probabilità sfavorevoli e il desiderio emotivo di giocare. Per ridurre questa tensione, possono giustificare il loro comportamento con varie razionalizzazioni, come giocare per divertimento, ignorando o minimizzando le potenziali perdite.

Un altro aspetto importante è la tendenza degli esseri umani a sottostimare le probabilità di esiti negativi. Nel contesto del gioco d’azzardo, ciò si traduce spesso nella sottovalutazione del rischio di perdite e nella sopravvalutazione delle possibilità di vincita. Questa distorsione può essere esacerbata dalla “quasi vincita”, situazioni in cui il giocatore perde per un margine molto stretto, incoraggiando la falsa percezione che una vittoria sia imminente.

L’irrazionalità in ambito professionale

La mentalità del giocatore d’azzardo può essere trasposta in ambito decisionale aziendale in vari modi. Ecco alcuni esempi di come questo fenomeno si manifesta nel contesto aziendale:

Alcuni manager possono cadere nella trappola di credere di avere il controllo o di poter influenzare eventi che sono in realtà altamente incerti o dipendenti da fattori esterni, proprio come i giocatori d’azzardo che pensano di poter influenzare il risultato di giochi di fortuna. Questo può portare a prendere decisioni rischiose senza una valutazione adeguata delle probabilità di successo.

Nelle decisioni aziendali, si può cadere nel bias della rappresentatività, assumendo che eventi recenti o memorabili (come un successo imprevisto) siano indicatori affidabili di successi futuri, ignorando la variabilità casuale e le statistiche a lungo termine. Il bias della disponibilità può portare i manager a sovrastimare la probabilità di eventi che sono facilmente richiamabili in memoria, come un recente fallimento o successo, influenzando in modo improprio le decisioni future.

In azienda, i dirigenti possono credere erroneamente che una serie di insuccessi aumenti la probabilità di successo in futuro, portando a perseverare in strategie fallimentari o a rilanciare su progetti già dimostratisi inefficaci, pensando che “sia dovuto” un cambiamento di fortuna.

Similmente al meccanismo di gratificazione del gioco d’azzardo, i dirigenti possono essere tentati da scelte ad alto rischio che promettono ricompense immediate o elevate, ignorando le conseguenze a lungo termine o la sostenibilità delle decisioni. Questo può essere particolarmente vero in ambienti ad alta pressione dove si cerca un successo rapido.

Proprio come i giocatori d’azzardo giustificano il comportamento rischioso per il divertimento o minimizzano le perdite, i manager possono razionalizzare decisioni rischiose enfatizzando gli aspetti positivi o sottovalutando i potenziali danni. Questo può portare a un ambiente aziendale in cui il rischio non è adeguatamente valutato o gestito.

Nelle aziende, la tendenza a sottostimare i rischi e a essere influenzati da “quasi successi” può portare a perseguire aggressivamente obiettivi o progetti che sono quasi riusciti in passato, ignorando la lezione che alcuni fallimenti dovrebbero insegnare.

HumAI.it – Alvise Giubelli