L’inferenza baysiana: un modo razionale di cambiare idea

L’inferenza baysiana: un modo razionale di cambiare idea

Condividi con i tuoi amici...

La teoria bayesiana, o inferenza bayesiana, è un metodo statistico che viene utilizzato per aggiornare la probabilità di una ipotesi man mano che arrivano nuove informazioni. Tale teoria si basa sul teorema di Bayes di cui abbiamo già parlato in questo articolo: Il classificatore di Bayes a cui rimandiamo per una miglior comprensione dell’argomento.

L’approccio baysiano ha trovato applicazione anche nella comprensione di come gli esseri umani formano e modificano le loro credenze. Ecco come funziona e come può essere applicata all’interpretazione delle credenze umane:

Credenze come probabilità

Nella teoria bayesiana, le credenze possono essere considerate come probabilità. Una credenza iniziale su un dato argomento è vista come una probabilità iniziale o “prior”. Questo “prior” rappresenta la nostra convinzione iniziale prima di ricevere nuove informazioni.

Quando riceviamo nuove informazioni, usiamo queste informazioni per aggiornare le nostre credenze. In termini bayesiani, questo significa aggiornare il nostro “prior” in un “posterior”, che è la nuova probabilità della nostra ipotesi data la nuova evidenza.

La formula di Bayes è il fulcro di questo processo. Essa calcola la probabilità di un evento, basandosi sulla probabilità iniziale e su nuove evidenze. Matematicamente, si esprime come segue:

Dove P(H∣E) è la probabilità della ipotesi H data l’evidenza E, P(E∣H) è la probabilità di osservare l’evidenza E se l’ipotesi H è vera, P(H) è la probabilità iniziale dell’ipotesi H, e P(E) è la probabilità totale di osservare l’evidenza E.

Nell’interpretazione delle credenze umane, questo processo può essere visto come il modo in cui modifichiamo le nostre convinzioni in base all’esperienza e alle nuove informazioni.

Per esempio, se crediamo che sia molto probabile che pioverà (ipotesi H) e vediamo nuvole scure (evidenza E), la nostra credenza nella probabilità di pioggia aumenta (H|E).

Anche se questa analogia è utile, è importante notare che l’applicazione della teoria bayesiana alle credenze umane è una semplificazione. Le credenze umane sono influenzate da molti altri fattori, come le emozioni, i pregiudizi cognitivi e i contesti sociali, che non sono facilmente rappresentabili in termini puramente probabilistici.

l’interpretazione delle credenze umane attraverso la lente della teoria bayesiana fornisce un interessante quadro per comprendere come possiamo aggiornare le nostre convinzioni in risposta a nuove informazioni.

Nell’esempio considerato, la probabilità iniziale (prior) che piova P(H) potrebbe essere 0.3 (o 30%). La probabilità di vedere nuvole scure (E) se piove P(E∣H) potrebbe essere 0.8 (o 80%), e la probabilità generale di vedere nuvole scure P(E) è 0.5 (o 50%).

Applicando la formula di Bayes, calcoliamo la probabilità aggiornata (posterior) che piova dato che vediamo nuvole scure P(H∣E) e risulta essere 0.48, ovvero 48%.

0.8 x 0.3 / 0.5 = 0.48 (48%)

Questo significa che, dopo aver osservato le nuvole scure, la nostra credenza nella probabilità di pioggia è aumentata dal 30% al 48%. ​

Il ruolo dell’esperienza

La chiave dell’aggiornamento della probabilità nella formula di Bayes è la probabilità condizionata P(E∣H), ovvero la probabilità di osservare l’evidenza E quando l’ipotesi H è vera. Questo termine è cruciale per diversi motivi:

P(E∣H) quantifica quanto sia probabile osservare l’evidenza se l’ipotesi è vera. Un valore alto indica che l’evidenza è molto probabile se l’ipotesi è vera, rinforzando così l’ipotesi.

Se stiamo considerando più ipotesi, la probabilità condizionata può aiutare a distinguere quale ipotesi è più supportata dall’evidenza. Ipotesi diverse possono avere probabilità condizionate diverse per la stessa evidenza.

La formula di Bayes permette di aggiornare le nostre credenze in modo razionale e quantitativo in risposta a nuove informazioni. P(E∣H) è il fattore che direttamente “pesa” l’evidenza nel processo di aggiornamento.

La probabilità condizionata P(E∣H), nel contesto dell’inferenza bayesiana, può essere costruita sia attraverso l’addestramento di un modello di AI sia mediante l’esperienza umana, a seconda del contesto di applicazione

Nei modelli di apprendimento automatico, come quelli di machine learning o di reti neurali, P(E∣H) viene determinata tramite l’addestramento su un set di dati. Durante questo processo, il modello “impara” da esempi passati per stimare la probabilità che un certo input (evidenza) corrisponda a un certo output (ipotesi). Questo addestramento può includere tecniche come la regressione, la classificazione, e altri metodi statistici che permettono al modello di calcolare le probabilità condizionate basandosi sui dati forniti.

Nelle decisioni umane, P(E∣H) è spesso basata sull’esperienza personale, sulla conoscenza acquisita, sull’intuizione o sul ragionamento logico. Gli individui usano le loro esperienze passate e le informazioni apprese per formare una stima di quanto sia probabile che una certa evidenza supporti una certa ipotesi.
Ad esempio, un medico potrebbe usare la sua conoscenza e esperienza clinica per stimare la probabilità che un certo sintomo indichi una particolare malattia.

In entrambi i casi, sia nell’addestramento del modello sia nell’esperienza umana, l’obiettivo è valutare quanto fortemente un’osservazione o un pezzo di evidenza supporti una particolare ipotesi o risultato. Tuttavia, la natura di questa valutazione può variare significativamente: nei modelli di machine learning, è guidata dai dati e dall’algoritmo, mentre nelle decisioni umane, è più soggettiva e può essere influenzata da fattori come il giudizio personale, le emozioni, e il contesto sociale.