Catastrophic forgetting: quando imparare cose nuove a volte ci fa dimenticare quelle vecchie

Catastrophic forgetting: quando imparare cose nuove a volte ci fa dimenticare quelle vecchie

Ti è mai successo di dimenticare informazioni vecchie quando ne impari di nuove?

Per esempio imparando un nuovo numero di telefono, potresti dimenticare il vecchio numero di telefono che conoscevi bene, oppure se impari una lista di parole in francese e successivamente, impari una lista di parole in spagnolo, le parole spagnole possono interferire con il ricordo delle parole francesi, causando dimenticanze o confusione.

Si tratta di una sorta di interferenza retroattiva che può avvenire quando impariamo cose nuove.

Le nuove informazioni possono interferire con il ricordo di quelle vecchie. Ad esempio, dopo aver imparato una nuova password, una persona potrebbe dimenticare la vecchia password che usava per lo stesso account.

Sebbene i meccanismi alla base di questo fenomeno siano biologicamente diversi da quelli delle reti neurali artificiali, anche queste possono soffrire di un simile effetto collaterale dell’apprendimento. Questo effetto è chiamato catastrophic forgetting.

Catastrophic forgetting

Quando un modello di apprendimento automatico viene addestrato su nuovi compiti, i suoi pesi vengono aggiornati per apprendere le nuove informazioni. Tuttavia, questo processo può portare alla catastrophic forgetting, dove l’apprendimento di nuovi compiti degrada la performance sui compiti precedentemente appresi.

Nei modelli di apprendimento neurale, le rappresentazioni di vari compiti spesso utilizzano gli stessi neuroni e risorse interne. Quando il modello viene ri-addestrato su nuovi compiti, i pesi associati ai compiti precedenti possono essere modificati o sovrascritti. Questo porta il modello a “dimenticare” le informazioni apprese in precedenza mentre apprende nuove informazioni

Durante un nuovo addestramento, i modelli neurali aggiustano i parametri per ottimizzare la loro performance sui nuovi dati. Se i parametri ottimizzati per i nuovi dati non sono compatibili con le configurazioni precedentemente apprese, il modello perde la capacità di eseguire bene i compiti vecchi. Le tecniche di “rehearsal” con buffer di memoria, che memorizzano dati da compiti precedenti e li rigiocano durante l’addestramento, possono mitigare questo problema fino a un certo punto.

Questo fenomeno può essere illustrato con un semplice esempio e una rappresentazione matematica.

Supponiamo di avere un modello di rete neurale addestrato per riconoscere immagini di gatti (Compito 1) e successivamente viene addestrato per riconoscere immagini di cani (Compito 2). I pesi del modello vengono aggiustati durante l’addestramento per minimizzare l’errore sul nuovo compito (cani). Tuttavia, questi aggiustamenti possono portare a una degradazione della performance nel riconoscimento dei gatti.

L’apprendimento continuo dei modelli

L’apprendimento continuo nei modelli di intelligenza artificiale, in particolare i grandi modelli di linguaggio (LLM), presenta diverse sfide e problematiche, tra cui proprio quella del Catastrophic Forgetting che, come abbiamo anticipato, si verifica quando un modello dimentica conoscenze precedentemente acquisite mentre apprende nuove informazioni. Questo è particolarmente problematico per i LLM poiché questi modelli devono adattarsi a nuove informazioni senza perdere le abilità acquisite dalle informazioni precedenti.

Nel contesto dei LLM, il cross-stage forgetting è un altro tipo di dimenticanza che si manifesta quando il modello passa da una fase di apprendimento all’altra. Per esempio, un modello addestrato per seguire istruzioni può perdere parte della sua conoscenza generale accumulata durante la fase di pre-addestramento quando torna a questa fase.

L’apprendimento continuo richiede risorse computazionali significative. Gli LLM sono già costosi da addestrare e il continuo ri-addestramento per integrare nuove informazioni aumenta ulteriormente questi costi. Tale addestramento impone anche un allineamento continuo necessario per garantire che le risposte dei modelli siano conformi ai valori, agli standard etici e alle norme sociali. Questo è importante quando i modelli vengono esposti a preferenze e dati umani dinamici e in evoluzione (vedi RLHF)

Un’altra sfida è lo sviluppo di sistemi che siano autonomi e capaci di supervisionare i propri processi di apprendimento, adattandosi a nuovi compiti e preferenze degli utenti senza bisogno di un intervento manuale costante. Questo include sistemi multi-agente che possono apprendere in modo collaborativo e algoritmi di auto-pianificazione che si adattano basandosi sul feedback delle prestazioni.

Questi problemi richiedono soluzioni innovative e multidisciplinari per migliorare l’efficacia e l’efficienza dell’apprendimento continuo nei modelli di intelligenza artificiale.

Il seguente documento approfondisce l’argomento sull’addestramento continuo richiesto per i moderni modelli LLM

Continual Learning for Large Language Models: A Survey

Il documento esamina recenti lavori sull’apprendimento continuo per i grandi modelli di linguaggio (LLM). Data la natura unica degli LLM, le tecniche di apprendimento continuo vengono categorizzate in un nuovo schema a più fasi che include il pre-addestramento continuo, la sintonizzazione delle istruzioni e l’allineamento. L’obiettivo è di migliorare le capacità linguistiche e di ragionamento degli LLM rispetto a metodi di adattamento più semplici usati per modelli più piccoli.

Fasi dell’Apprendimento Continuo:

  1. Continual Pre-training (CPT): Espande la comprensione fondamentale del linguaggio.
  2. Continual Instruction Tuning (CIT): Migliora la risposta del modello a specifici comandi degli utenti.
  3. Continual Alignment (CA): Garantisce che le uscite del modello aderiscano a valori, standard etici e norme sociali.

Metriche per valutare la capacità dei modelli di mantenere l’efficienza durante l’apprendimento continuo