Le scienze cognitive e l’intelligenza artificiale
Le scienze cognitive sono un campo di ricerca che si occupa di studiare il funzionamento del cervello umano, la mente e i processi mentali coinvolti nell’apprendimento, nella memoria, nel ragionamento e in altri aspetti della cognizione. L’approccio è multidisciplinare in quanto si avvale del contributo della psicologia, delle neuroscienze, della linguistica, della filosofia e degli studi sull’intelligenza artificiale.
In questo articolo esaminiamo da vicino la relazione esistente tra il campo di ricerca che interessa la cognizione umana e quello dell’intelligenza artificiale.
Esiste una stretta relazione tra le scienze cognitive e il campo dell’intelligenza artificiale, poiché l’obiettivo di quest’ultimo è quello di comprendere e riprodurre l’intelligenza umana attraverso algoritmi e modelli computazionali. Nella progettazione di sistemi intelligenti, i ricercatori di intelligenza artificiale prendono in considerazione le conoscenze provenienti dalle scienze cognitive per sviluppare modelli e algoritmi che imitano i processi cognitivi umani.Uno degli aspetti centrali delle scienze cognitive è l’analisi dei processi mentali che includono operazioni come l’attenzione, l’apprendimento, la memoria, il ragionamento, la comprensione del linguaggio e la percezione visiva. Gli studiosi di intelligenza artificiale utilizzano queste informazioni per sviluppare modelli e algoritmi che riproducono questi processi mentali in modo computazionale.
L’elaborazione umana delle informazioni
Una delle teorie prevalenti nel campo che studia la relazione tra scienze cognitive e intelligenza artificiale implica il concetto di “elaborazione umana delle informazioni”, che afferma che la mente umana elabora le informazioni in modo simile a un computer, utilizzando input sensoriali per creare rappresentazioni mentali, che vengono quindi elaborate e trasmesse attraverso la memoria e l’elaborazione delle informazioni stesse.
Secondo questa teoria, la percezione avviene mediante l’input dei dati sensoriali provenienti dall’ambiente esterno. Questi dati vengono elaborati dal cervello attraverso una serie di processi che li trasformano in rappresentazioni interne. Ad esempio, quando guardiamo un oggetto, le informazioni visive vengono elaborate dal nostro sistema visivo e tradotte in una rappresentazione mentale dell’oggetto stesso.
Una volta creata la rappresentazione mentale, questa viene poi elaborata e manipolata attraverso una serie di processi cognitivi. Ad esempio, quando leggiamo un testo, le parole visive vengono convertite in simboli linguistici, comprese e integrate nel nostro sistema cognitivo.
Ad esempio, le reti neurali artificiali, che sono un tipo di modello computazionale utilizzato nell’ambito dell’intelligenza artificiale, si ispirano alle reti neurali del cervello umano. Questi modelli possono apprendere dai dati e migliorare le prestazioni in compiti specifici, come l’elaborazione del linguaggio naturale o il riconoscimento di immagini.
Aspetti critici della teoria
Prima di considerare analogie e differenze tra una rete neurale artificiale e le connessioni tra i neuroni del cervello dobbiamo evidenziare alcuni aspetti critici. La teoria dell’elaborazione delle informazioni può essere accusata di riduzionismo, cioè di ridurre la complessità della mente umana a una semplice sequenza di operazioni di elaborazione delle informazioni. Questa teoria tende a concentrarsi sull’aspetto computazionale della mente umana, trascurando aspetti quali l’emozione, la creatività, l’esperienza soggettiva e altri aspetti soggettivi dell’intelligenza umana. Inoltre tale teoria tende a concepire la mente come una entità centralizzata che elabora le informazioni in modo sequenziale. D’altra parte, ci sono prove che sostengono la teoria della distribuzione delle informazioni, cioè che l’elaborazione delle informazioni coinvolge diverse parti del cervello che lavorano in parallelo. Questo aspetto è spesso trascurato dalla teoria che, oltre a ciò, enfatizza l’aspetto computazionale della mente umana, trascurando gli aspetti biologici e i dettagli del funzionamento dei neuroni e dei sistemi neurali. Questi aspetti biologici sono fondamentali per comprendere appieno le attività cognitive umane.
Le reti neurali
Le reti neurali artificiali sono progettate per replicare la struttura delle connessioni neurali del cervello umano. Entrambe le reti sono costituite da una serie di unità di elaborazione (neuroni) collegate tra loro attraverso sinapsi o connessioni.

Tanto le reti neurali artificiali quanto le connessioni neurali del cervello umano possono effettuare l’elaborazione dei dati in modo parallelo. Questo significa che le informazioni possono essere elaborate contemporaneamente da diverse unità di elaborazione.
Sia le reti neurali artificiali sia il cervello umano possono imparare dai dati. Le reti neurali artificiali utilizzano algoritmi di apprendimento per adattare le connessioni tra i neuroni artificiali in base ai pattern dei dati presentati. In modo simile, il cervello umano è in grado di apprendere dagli input sensoriali e dalle esperienze per adeguare e modificare le connessioni tra i neuroni reali.
Ci sono, d’altra parte, fondamentali differenze. Le reti neurali artificiali attualmente disponibili sono molto meno complesse delle connessioni neurali del cervello umano. Il cervello umano è costituito da miliardi di neuroni e la loro organizzazione complessa è ancora poco compresa. Le reti neurali artificiali hanno solitamente meno livelli di elaborazione rispetto al cervello umano. Il cervello umano ha una gerarchia di livelli di elaborazione neurale, che consentono una maggiore complessità e astrazione dei dati.
Per capire meglio com’è strutturata una rete neurale artificiale puoi leggere questi due articoli:
Reti neurali con Tensorflow: i principi su cui si basa l’apprendimento automatico
Che cos’è un neurone e come sono fatte le connessioni tra i neuroni del nostro cervello?
Un neurone è una cellula specializzata che costituisce l’unità fondamentale del sistema nervoso. Ha una struttura complessa e diversi componenti che svolgono funzioni specifiche. Ecco una descrizione delle varie parti di un neurone:
- Corpo cellulare (soma): È la parte principale del neurone ed è composto da un nucleo che contiene il DNA e svolge funzioni vitali per la cellula. È qui che avviene la sintesi delle proteine necessarie per il funzionamento del neurone.
- Dendriti: Sono delle estensioni ramificate del corpo cellulare che si estendono all’esterno e ricevono i segnali elettrici e chimici provenienti da altri neuroni. I dendriti sono ricoperti di piccole protrusioni chiamate spine dendritiche, che aumentano la superficie di ricezione dei segnali.
- Assone: È un’unica prolungazione lunga e sottile del neurone che trasmette i segnali elettrici dal corpo cellulare ad altre cellule neuronali o tessuti bersaglio. L’assone è avvolto da una guaina mielinica, costituita da cellule gliali chiamate oligodendrociti nel sistema nervoso centrale e cellule di Schwann nel sistema nervoso periferico, che isolano l’assone e facilitano la trasmissione dei segnali.
- Termini sinaptici: Alla fine dell’assone, si trovano i termini sinaptici, che sono adiacenti a altre cellule neuronali o cellule bersaglio. Le sinapsi sono i punti di contatto specializzati in cui due neuroni comunicano tra loro o dove i neuroni trasmettono segnali ad altre cellule, come i muscoli o le ghiandole. Il terminale sinaptico contiene vescicole piene di neurotrasmettitori, sostanze chimiche che facilitano la trasmissione del segnale da un neurone all’altro attraverso la fessura sinaptica.

Le sinapsi nel cervello sono presenti in tutto il sistema nervoso centrale. Sono distribuite in varie regioni cerebrali, come la corteccia cerebrale, l’ippocampo, il cervelletto e molte altre. Le sinapsi sono particolarmente concentrate nelle aree dense di neuroni, chiamate nuclei, che svolgono funzioni specifiche come il controllo dei movimenti, la percezione sensoriale, la memoria, l’elaborazione del linguaggio e molto altro.
È importante sottolineare che il cervello umano è un organo estremamente complesso, composto da miliardi di neuroni e connessioni sinaptiche. La specifica distribuzione delle sinapsi varia a seconda delle diverse aree cerebrali e della funzione specifica svolta dal cervello nel complesso.

La trasmissione dei segnali elettrici tra i neuroni
La trasmissione dei segnali elettrici nei neuroni e tra neuroni avviene attraverso un processo chiamato potenziale d’azione.
In condizioni normali, quando un neurone non è attivato, si trova in uno stato di potenziale di riposo. Durante il potenziale di riposo, c’è una differenza di carica elettrica tra l’interno e l’esterno del neurone. L’interno è carico negativamente rispetto all’esterno, e questa differenza di carica viene mantenuta attraverso la pompa sodio-potassio, un meccanismo attivo che spinge ioni sodio (Na+) all’esterno del neurone e ioni potassio (K+) all’interno del neurone.
Quando un neurone viene stimolato da un segnale o un impulso elettrico dai neuroni circostanti, può essere depolarizzato, cioè la differenza di carica tra l’interno ed esterno inizia a diminuire. Se lo stimolo raggiunge una certa intensità, chiamata soglia di eccitazione, il neurone risponde generando un potenziale d’azione che si traduce in un’onda di carica elettrica che si propaga lungo l’assone del neurone. Ci sono due fasi principali: depolarizzazione e ripolarizzazione.
La Depolarizzazione si ottiene quando viene raggiunta la soglia di eccitazione, i canali ionici nella membrana del neurone si aprono, consentendo all’ione sodio (Na+) di entrare rapidamente nel neurone, invertendo temporaneamente la differenza di carica. Questa rapida inversione genera un picco di carica positiva all’interno del neurone, chiamato picco di depolarizzazione.
La Ripolarizzazione avviene dopo la fase di depolarizzazione, i canali ionici del sodio si chiudono e i canali ionici del potassio (K+) si aprono. Questo permette all’ione potassio di fuoriuscire dal neurone, ripristinando la differenza di carica negativa all’interno. Ciò porta alla ripolarizzazione, e la membrana del neurone ritorna al suo stato di riposo.
Dopo la ripolarizzazione, può avvenire un breve periodo chiamato iperpolarizzazione, in cui la carica all’interno del neurone diventa leggermente più negativa del normale potenziale di riposo. Successivamente, la pompa sodio-potassio ripristina le concentrazioni ioniche all’interno e all’esterno del neurone, riportando la membrana al suo stato di riposo normale.
Quando il potenziale d’azione si propaga lungo l’assone del neurone, può influenzare altri neuroni. Questo avviene attraverso le connessioni sinaptiche, in cui il potenziale d’azione che raggiunge l’estremità presinaptica dell’assone provoca il rilascio di neurotrasmettitori nella fessura sinaptica. I neurotrasmettitori si legano ai recettori sul neurone postsinaptico, innescando un potenziale postsinaptico che può depolarizzare o iperpolarizzare il neurone postsinaptico, determinando se sarà attivato o meno.
La sinapsi è una fessura tra la regione assonica presinaptica e la spina dendritica postsinaptica. In questa regione il segnale è di natura chimica (neurotrasmettitori). Nelle regioni pre e post sinaptiche il segnale è di natura elettrica.
È fondamentale sapere che un neurone somma in qualche modo tutti i segnali elettrici che riceve e “decide” di attivarsi scaricando a sua volta il segnale lungo il proprio assone solo se tale somma raggiunge la soglia di eccitazione. L’analogo di questa funzione nell’ambito delle reti neurali artificiali viene assolta dalle funzioni di attivazione.

Come possono emergere facoltà come la memoria e l’apprendimento dalle connessioni dei neuroni del nostro cervello?
La chiave per capire questo aspetto sta nel fatto che non si tratta di una struttura rigida come può esserlo un banale circuito elettrico per cui dati certi segnali in input si ottengono sempre precisi segnali di output, ma è una struttura che cambia e tali cambiamenti possono permanere nel tempo.
La plasticità sinaptica
La plasticità sinaptica è la capacità delle sinapsi (le connessioni tra i neuroni) di modificarsi in risposta all’attività neuronale. È uno dei principali meccanismi che sottendono all’apprendimento e alla memoria nel cervello.
Il potenziamento a lungo termine (LTP, Long-Term Potentiation) è un processo attraverso il quale la forza di una sinapsi viene aumentata in modo persistente dopo un’intensa attività sinaptica. L’LTP è considerato uno dei principali meccanismi cellulari che sottendono all’apprendimento e alla formazione di nuove memorie. Durante l’LTP, le sinapsi diventano più sensibili agli impulsi elettrochimici provenienti da neuroni pre-sinaptici, aumentando così la trasmissione dei segnali.
D’altra parte vi è anche il depotenziamento a lungo termine (LTD, Long-Term Depression) che è il processo opposto all’LTP, in cui la forza di una sinapsi viene indebolita in modo persistente dopo un periodo di attività sinaptica ridotta o debole. L’LTD svolge un ruolo chiave nell’eliminazione o nella degradazione delle connessioni sinaptiche che non sono più necessarie o che possono essere state apprese erroneamente.
La plasticità sinaptica a breve termine contrariamente all’LTP e all’LTD, è un cambiamento temporaneo nella forza sinaptica che si verifica a seguito di un’intensa attività sinaptica. Questa forma di plasticità può durare da pochi secondi a minuti e gioca un ruolo importante nella modulazione dell’attività neurale durante compiti cognitivi come l’attenzione e la memoria di lavoro.
La plasticità sinaptica è mediata da vari processi molecolari e cellulari. Uno dei meccanismi principali è la modulazione dell’efficacia delle sinapsi attraverso l’aumento o la diminuzione del rilascio di neurotrasmettitori, delle proprietà dei recettori post-sinaptici e della modulazione dei canali ionici.
Approfondimento
Durante il rilascio di neurotrasmettitori, segnali elettrici nell’assone presinaptico stimolano le vescicole sinaptiche a liberare neurotrasmettitori nella fessura sinaptica. Questi neurotrasmettitori si legano ai recettori presenti sulla membrana del neurone postsinaptico, innescando potenziali post-sinaptici. I recettori sui neuroni postsinaptici possono essere di diversi tipi e avere diverse proprietà. Ad esempio, alcuni recettori possono essere recettori ionotropici, che si trovano direttamente sul canale ionico, mentre altri possono essere recettori metabotropici, che attivano segnali di trasduzione attraverso vie secondarie. Le proprietà dei recettori, come la sensibilità al neurotrasmettitore o l’abilità di generare potenziali post-sinaptici, possono essere modulate per regolare la forza della sinapsi.
I canali ionici sono presenti nelle membrane dei neuroni e regolano il flusso di ioni attraverso la membrana. Durante la trasmissione sinaptica, i cambiamenti nella permeabilità dei canali ionici possono regolare l’entrata o l’uscita di ioni, influenzando la depolarizzazione o l’iperpolarizzazione della membrana postsinaptica. Questo può influenzare la probabilità di generare un potenziale di azione e quindi modulare la forza della sinapsi.
La modulazione dell’efficacia sinaptica avviene sia in modo pre-sinaptico che post-sinaptico. I segnali presinaptici possono influenzare la quantità di neurotrasmettitore rilasciato, ad esempio attraverso l’aumento della concentrazione di calcio intracellulare nel terminale sinaptico. Allo stesso tempo, i segnali postsinaptici possono influenzare la sensibilità e la risposta dei recettori, ad esempio attraverso la fosforilazione dei recettori o la modulazione delle vie di segnalazione.
La plasticità sinaptica, come la LTP e l’LTD menzionate in precedenza, può essere mediata da questi processi di modulazione. Ad esempio, durante l’LTP, l’aumento del rilascio di neurotrasmettitori e/o l’incremento della sensibilità postsinaptica possono rafforzare la comunicazione sinaptica. Al contrario, durante l’LTD, un decremento nel rilascio di neurotrasmettitori o una diminuzione della sensibilità postsinaptica possono indebolire la sinapsi.
Se volessimo stabilire un’analogia tra le reti neurali artificiali e quelle naturali, allora diremmo che la plasticità sinaptica può essere considerata l’analogo del modellamento dei pesi (weight shaping) in una rete neurale artificiale. Nelle reti neurali artificiali, i pesi sono i parametri che determinano l’importanza delle connessioni tra i neuroni artificiali. Durante l’addestramento di una rete neurale artificiale, i pesi vengono adattati o modellati per migliorare le prestazioni del sistema.
Analogamente, nella plasticità sinaptica, le connessioni sinaptiche del cervello umano possono modificarsi per aumentare o diminuire la loro forza in risposta all’attività neuronale. Questa capacità di modulazione delle connessioni sinaptiche corrisponde al modellamento dei pesi nelle reti neurali artificiali.
La plasticità sinaptica nel cervello avviene attraverso un processo biologico complesso, in cui le sinapsi possono essere potenziate o depotenziate in base all’intensità, alla frequenza e alla sincronizzazione dei segnali input neuronali. Questo processo di modifica delle connessioni sinaptiche riflette l’adattamento del sistema neurale alle esperienze acquisite dall’individuo, consentendo l’apprendimento e la memorizzazione di nuove informazioni.
Nelle reti neurali artificiali, i pesi vengono modellati attraverso algoritmi di apprendimento che regolano gli aggiustamenti dei pesi in base alla differenza tra l’output previsto dalla rete e l’output effettivo. Questo processo di modellamento dei pesi mira a migliorare le prestazioni del sistema e ad avvicinare l’output previsto a quello desiderato.

La plasticità sinaptica in rapporto alla memoria, all’apprendimento e al comportamento
La plasticità sinaptica ha un impatto significativo sulla memoria a breve e lungo termine, sull’apprendimento e sulla formazione di schemi di comportamento secondo le teorie dominanti nel campo delle neuroscienze cognitive.La plasticità sinaptica contribuisce alla memoria a breve termine, che rappresenta la capacità di mantenere e manipolare un piccolo numero di informazioni per un breve periodo di tempo. Durante l’apprendimento, la stimolazione sinaptica ripetuta e/o intensa può portare alla facilitazione temporanea delle sinapsi coinvolte attraverso meccanismi di plasticità sinaptica a breve termine. Questo può portare all’incremento della trasmissione dei segnali elettrici tra neuroni e alla formazione di “tracce” sinaptiche temporanee che sostengono la memoria a breve termine.
Quello della plasticità sinaptica è un fenomeno strettamente correlato anche alla memoria a lungo termine, che rappresenta la capacità di memorizzare informazioni e di richiamarle anche dopo un lungo periodo di tempo. L’apprendimento persistente e ripetuto può indurre la formazione di nuove sinapsi (sinaptogenesi) o la rafforzamento delle sinapsi esistenti (potenziamento sinaptico a lungo termine, LTP). Questi meccanismi di plasticità sinaptica contribuiscono alla formazione di tracce mnemoniche durature e al consolidamento delle memorie a lungo termine.Inoltre, durante l’apprendimento, i cambiamenti sinaptici basati sulla plasticità consentono al cervello di adattarsi e di modificare le connessioni neurali per migliorare l’efficienza e la precisione delle risposte.
L’apprendimento può coinvolgere sia la formazione di nuove sinapsi che la modifica delle proprietà delle sinapsi esistenti attraverso processi di plasticità sinaptica. Essi svolgono un ruolo chiave anche nella formazione e nell’espressione di schemi di comportamento complessi. Gli schemi di comportamento sono sequenze di azioni coordinate che possono essere apprese e automatizzate attraverso ripetizioni e rinforzi.
Durante l’apprendimento di uno schema di comportamento, le connessioni sinaptiche coinvolte vengono modificate attraverso la plasticità sinaptica al fine di facilitare la messa in atto del comportamento nel momento appropriato. I cambiamenti nella forza delle sinapsi e nella connettività neurale permettono una maggiore efficienza nell’esecuzione degli schemi di comportamento appresi.
L’apprendimento Hebbiano: attività sincronizzata dei neuroni.
L’apprendimento Hebbiano è una teoria dell’apprendimento proposta dallo psicologo canadese Donald Hebb nel 1949. Questa teoria postula che la forza di una connessione sinaptica tra due neuroni aumenti se entrambi i neuroni si attivano in modo sincronizzato e persistente. In altre parole, “neuroni che si attivano insieme, rimangono insieme“. Se il neurone presinaptico (il neurone che invia segnali alla sinapsi) si attiva contemporaneamente al neurone postsinaptico (il neurone che riceve i segnali dalla sinapsi), la forza della connessione sinaptica tra i due neuroni aumenta. Questo avviene perché l’attività sincronizzata induce cambiamenti strutturali o biochimici nella sinapsi, che rendono la trasmissione dei segnali tra i neuroni più efficace.
Essenzialmente, le connessioni sinaptiche tra neuroni che si stimolano reciprocamente tendono ad essere rafforzate. Questo rafforzamento è basato su modifiche nella struttura o nella funzione delle sinapsi stesse. Al contrario, se i neuroni non si attivano in modo sincronizzato, la forza sinaptica tende a diminuire.
È importante notare che l’apprendimento Hebbiano è un processo di apprendimento associativo. Ciò significa che si basa sull’associazione tra due stimoli o segnali specifici nei neuroni presinaptico e postsinaptico. La teoria non fornisce una spiegazione dettagliata sui meccanismi biologici specifici che sottendono all’apprendimento Hebbiano, ma ha aperto la strada a ulteriori ricerche sulle forme di plasticità sinaptica.
La regola di Hebb ha fornito una base concettuale per l’elaborazione delle connessioni sinaptiche in reti neurali artificiali. Questo algoritmo di apprendimento sfrutta l’attivazione concomitante dei neuroni di input e di output per regolare i pesi delle connessioni sinaptiche. Quando un segnale di input corrisponde a un’attivazione desiderata nell’output, il peso sinaptico che collega i due neuroni viene incrementato. Al contrario, se non c’è concordanza tra i segnali di input e output, il peso sinaptico rimane invariato o viene ridotto.
Da sola, questa teoria non è sufficiente per spiegare completamente tutti i fenomeni dell’apprendimento e della memoria nel cervello umano. Sono stati sviluppati altri meccanismi di plasticità sinaptica che si aggiungono all’apprendimento Hebbiano, come l’inibizione laterale, la depressione a lungo termine (LTD) e la regola dell’errore dei gradienti.
L‘inibizione laterale è un meccanismo che si basa sulla regola di Hebb e contribuisce a modulare la forza delle connessioni sinaptiche tra neuroni all’interno di una rete. Consiste nell’inibire selettivamente l’attività dei neuroni adiacenti in modo da migliorare la selettività e l’efficienza dell’elaborazione dei segnali nella rete. Questo meccanismo di inibizione laterale è stato ampiamente studiato come parte del complesso funzionamento delle reti neurali, in particolare nel campo della percezione visiva.
La depressione a lungo termine è un processo di modulazione sinaptica che porta a una riduzione persistente della forza delle connessioni sinaptiche. Questo meccanismo di plasticità sinaptica è considerato il corrispettivo dell’apprendimento Hebbiano che indebolisce le connessioni sinaptiche tra neuroni che si attivano in modo non sincronizzato. L’LTD è coinvolta nella soppressione delle sinapsi non importanti o indesiderate per favorire la selettività e il consolidamento delle informazioni nell’apprendimento e nella memoria.
La regola dell’errore dei gradienti è un algoritmo di apprendimento ampiamente utilizzato nelle reti neurali artificiali. Questa regola si basa sui principi del calcolo differenziale e dell’ottimizzazione per regolare i pesi delle connessioni tra neuroni attraverso la minimizzazione dell’errore tra l’output desiderato e l’output effettivo della rete. Utilizzando il gradiente dell’errore rispetto ai pesi, l’algoritmo adatta i pesi delle connessioni in modo iterativo per migliorare le prestazioni del sistema. Questo approccio permette alle reti neurali di apprendere dai dati e di adattarsi a compiti complessi. (Questa regola viene discussa nell’articolo: Reti neurali con Tensorflow: i principi su cui si basa l’apprendimento automatico).