Il decision making nell’era dell’AI

Il decision making nell’era dell’AI

Il “Decision Making” è ciò che pensi quando devi scegliere tra diverse opzioni per decidere cosa fare. Immagina che tu stia scegliendo un gelato: ci sono tanti gusti come cioccolato, vaniglia, fragola. Devi decidere quale scegliere.

Nel “Decision Making”, prima pensi a tutte le tue opzioni, poi guardi i pro e i contro di ognuna. Per esempio, se ami il cioccolato, potresti pensare che il gelato al cioccolato sia la migliore scelta. Ma se sei allergico al cioccolato, allora non è una buona idea. Dopo aver pensato a tutto questo, fai la tua scelta.

È come quando giochi a un videogioco e devi scegliere quale strada prendere o quale oggetto usare. Devi pensare bene per fare la scelta migliore!

Anche l’intelligenza artificiale deve prendere decisioni

Quando un computer gioca a scacchi o a un videogioco deve decidere la prossima mossa, pensando a come vincere.

Nelle Auto a guida autonoma l’AI per decidere quando girare, accelerare o frenare, per essere sicure e arrivare a destinazione.

Quando chiedi a Siri o a Google qualcosa, l’AI decide la miglior risposta da darti. È come chiedere aiuto a un amico molto intelligente.

L’AI aiuta i dottori a capire le malattie e a trovare i migliori trattamenti, analizzando un sacco di informazioni sui pazienti e sulle malattie.

I Robot con AI lavorano in fabbrica, decidendo come assemblare cose o muoversi per essere più efficienti.

Quando un’intelligenza artificiale (AI) deve prendere una decisione, fa varie valutazioni, un po’ come un detective che risolve un mistero. Intanto guarda molti dati, come se stesse guardando un grande libro pieno di informazioni. Questi dati possono essere numeri, parole, immagini o suoni. Per esempio, se deve giocare a scacchi, guarda le mosse passate dei giocatori.

L‘AI impara dai dati, come un bambino impara a fare puzzle mettendo insieme i pezzi. Analizza i dati per capire modelli e tendenze.

Poi considera i suoi obiettivi (cosa deve fare) e le regole (come deve farlo). Se l’obiettivo è vincere a un gioco, segue le regole del gioco per fare le mosse migliori.

Cerca di prevedere cosa succederà se fa una certa mossa. È come guardare in una sfera di cristallo per vedere il futuro. Cerca di scegliere la mossa che le dà più possibilità di raggiungere il suo obiettivo.

L’AI impara dai suoi errori e successi, proprio come quando impari a fare qualcosa di nuovo. Ogni decisione che fa aiuta l’AI a diventare più brava.

Come fa l’AI a gestire il rischio?

Per gestire il rischio, invece, l’AI cerca di prevedere le conseguenze di ogni decisione.

L’IA spesso usa i numeri per capire meglio queste situazioni. Usiamo i numeri per “pesare” quanto ciascuna opzione sia buona o cattiva. Questi numeri possono venire da esperienze passate simili o da informazioni che l’IA ha appreso.

Immagina un grande albero con tanti rami che si dividono in diverse direzioni. Ogni punto in cui un ramo si divide rappresenta una scelta che l’AI deve fare. Alcuni rami sono segnati con dei cartelli che hanno dei numeri o delle percentuali – questi numeri aiutano l’IA a capire quanto sia probabilmente buona o cattiva la decisione di prendere quel ramo. I rami con i numeri più alti sembrano più solidi e luminosi, mentre quelli con i numeri più bassi potrebbero apparire fragili o oscuri.

Ora immagina l’AI come un uccellino che deve decidere quale ramo seguire per trovare il suo cibo. L’uccellino non sa con certezza quale ramo sia il migliore, ma usa i segnali sui cartelli per fare la sua scelta. Non vuole rischiare di sedersi su un ramo debole e cadere, quindi, molto attentamente, si dirige verso il ramo più robusto e luminoso, che ha il numero più alto, anche se ha una piccola possibilità che il cibo sia da un’altra parte.

Questo albero di decisione è una metafora di come l’IA valuta diverse opzioni e sceglie quella con il miglior bilanciamento tra il rischio (la possibilità di cadere o non trovare cibo) e il beneficio (trovare il cibo).

Approfondisci l’argomento degli alberi delle decisioni
Che cos’è un albero delle decisioni?

Decision making e algoritmi black box

Ci sono algoritmi di intelligenza artificiale che vengono detti “black box” e sono usati spesso nell’apprendimento automatico profondo, che include reti neurali complesse.

Una rete neurale è come una squadra di mini-esperti che ciascuno guarda una piccola parte di un problema e poi passa le sue scoperte al prossimo esperto.

Alla fine, dopo che tutti gli esperti hanno aggiunto il loro pezzettino di conoscenza, si arriva a una risposta. Ma è difficile per noi capire come ogni “mini-esperto” abbia lavorato o come abbiano lavorato insieme.

Approfondisci l’argomento delle reti neurali e del deep learning
Chiarezza sulle reti neurali

Una rete neurale è “fatta” da strati di neuroni artificiali. Ogni strato prende delle informazioni in input, fa dei calcoli e poi passa il risultato al successivo strato. Man mano che l’informazione attraversa più strati, l’algoritmo la trasforma, finché non si arriva al risultato finale.

Siccome ci sono tantissimi calcoli e spesso non sono fatti in modo che noi umani possiamo capirli facilmente, è come se questi calcoli avvenissero dietro una tenda nascosta e quindi finiscono per essere una “black box” per noi.

Ci sono motivi importanti per usare queste “black box”:

Quando abbiamo a che fare con problemi molto complicati e un gran numero di informazioni, le reti neurali possono trovare delle soluzioni che altrimenti sarebbe difficile trovare.
A volte, questi algoritmi sono migliori nel compiere certe attività, come riconoscere volti nelle fotografie o tradurre lingue diverse. Possono analizzare enormi quantità di dati più velocemente di quanto un essere umano potrebbe mai fare.

Tuttavia, proprio perché non sappiamo esattamente come arrivano alle loro conclusioni, queste “black box” possono creare problemi quando si tratta di fiducia e responsabilità. Cosa succede se l’algoritmo prende una decisione sbagliata e non possiamo spiegare perché? E se la scelta fatta dall’algoritmo ha un impatto sulla vita delle persone?

Immagina che un’intelligenza artificiale (IA) sia come uno chef che sta preparando una torta speciale.

Ora, possiamo avere due tipi di chef: uno che cucina davanti a tutti, spiegando tutti i passaggi, e un altro che invece prepara la sua torta dietro una porta chiusa, quindi non possiamo vedere cosa sta facendo.

Gli algoritmi di IA “interpretabili” sono come lo chef trasparente. Lui ci dice, “Ora sto aggiungendo farina, ora sto mescolando le uova con lo zucchero”, e così via.

Così, quando mangi la torta, sai esattamente cosa c’è dentro e perché ogni ingrediente è stato scelto. Questo ti fa sentire più sicuro di mangiarla, specialmente se sei allergico a qualcosa, perché lo chef ti ha detto esattamente cosa ha usato.

D’altra parte, gli algoritmi “black box” (scatola nera) sono come lo chef segreto. Lui prepara la torta e tu vedi solo il risultato finale, ma non hai idea di quali ingredienti ha usato o come li ha mescolati. Se la torta è buona, potresti essere felice, ma se hai bisogno di sapere cosa c’è dentro per motivi di salute o preferenze personali, potresti non fidarti completamente di ciò che stai mangiando.

Ora, parlando di decisioni e responsabilità, se lo chef trasparente sbaglia e la torta sa di bruciato, tu sai esattamente dov’è l’errore. Magari ha cotto la torta troppo a lungo. Così, puoi dirgli come migliorare la ricetta la prossima volta. Ma se lo chef segreto fa lo stesso errore, non hai idea di cosa sia andato storto. Forse ha usato il tipo sbagliato di farina, o ha aggiunto troppo zucchero. Questo rende difficile capire come correggere l’errore.

In sintesi, quando un algoritmo di IA è interpretabile, possiamo capire e fidarci delle decisioni prese, perché conosciamo i passaggi che ha seguito. Questo è molto importante in aree come la medicina o il diritto, dove le decisioni possono affettare la vita delle persone. Se qualcosa non funziona, sappiamo chi è responsabile.

Con un algoritmo “black box”, invece, è difficile capire perché ha preso una certa decisione. Questo può essere un problema quando qualcosa va male perché non sappiamo a chi dare la colpa o come sistemare le cose.

Per questi motivi, gli scienziati stanno lavorando per rendere gli algoritmi “black box” più trasparenti, in modo che possiamo capire come funzionano e perché prendono certe decisioni. Questa area di ricerca si chiama “spiegabilità nell’IA” (Explainable AI).