Quando imparare con l’AI è più facile
Premessa: Modelli di conoscenza o modelli statistici?
Gli esperti dicono che i modelli di generazione del linguaggio non sono modelli di conoscenza. Questa affermazione troverebbe una giustificazione nel fatto che i modelli LLM di cui si parla sono modelli statistici. Data una frase in input, essi indovinerebbero la risposta sulla base di calcoli statistici. Che alla base di questi modelli vi sia il calcolo delle probabilità non c’è dubbio ed è proprio per questa ragione che essenzialmente andrebbero distinti, secondo gli esperti, da una fonte di conoscenza come un’enciclopedia, un libro o un corso.
Ad uno sguardo più attento in grado di cogliere gli aspetti profondi dei modelli LLM e anche del cervello umano da cui emergono tutte le manifestazioni del pensiero umano, non sfugge il fatto, altrettanto incontrovertibile, che i creatori delle reti neurali su cui si fonda gran parte dell’AI cercano di emulare lo schema dell’intricata rete di neuroni presente nel nostro cervello. Questa imitazione non è ancora perfetta e, forse, in un certo senso, mai lo sarà, ma dobbiamo aspettarci che i modelli di AI agiscano come una mente e che questa agisca come i modelli di AI.
Al di là delle similitudini tra una rete neurale artificiale e una rete di neuroni naturale, tutti noi, grazie ad un minimo di riflessione, ci accorgiamo di imparare dalle esperienze passate. Se osserviamo il ripetersi di certi eventi in un certo modo impariamo che le cose avvengono in quel modo e facciamo previsioni coerenti con quanto abbiamo appreso. Se le cose a volte vanno in un modo e a volte in un altro cerchiamo di capire quante volte sono avvenute diversamente nei due modi per farci un’idea delle probabilità in gioco. Questo avviene anche se non ce ne rendiamo subito conto. A posteriori, grazie alla riflessione ci accorgiamo che certe decisioni sono state prese sulla base di una sorta di calcolo statistico inconscio. Se ci fidiamo a guidare la nostra auto è perché il più delle volte non ci lascia a piedi ed esegue i comandi manuali che gli diamo e non ci fa uscire di strada. Se ci lasciasse a piedi due volte su tre difficilmente la guideremmo. Si tratta di considerazioni probabilistiche che facciamo coscientemente o no tutti i giorni per ogni cosa che facciamo. Quello che pensiamo e diciamo è il risultato di osservazioni, esperienze e apprendimento. Più frequenti sono certe osservazioni ed esperienze e maggiormente consolidate sono le idee che ci facciamo intorno a tali fatti.
Analizzando l’AI potremmo scoprire di essere simili ad essa più di quanto non immaginiamo. La prima rete neurale, il Perceptron è stata realizzata proprio ad imitazione dei neuroni del nostro cervello. Le connessioni sinaptiche tengono memoria del passato come fa un sistema di pesi all’interno di una rete neurale artificiale preaddestrata. Il comportamento di un’AI dipende dai dati di addestramento.
Ho voluto fare queste riflessioni per indicare che i modelli LLM imitano la mente di un esperto nella conversazione grazie ad un insieme di parametri (pesi) che caratterizzano le reti neurali alla loro base. Il fatto che siano modelli statistici di per sé, forse, non li rende fondamentalmente diversi o peggiori rispetto al modello di una “mente esperta” di un insegnante che tiene un corso o che scrive un libro.
Ciò che ci preme sottolineare è che, mentre l’esperto umano prima di fare un corso o scrivere un libro verifica più volte le fonti e sta ben attento a non dire sciocchezze, i modelli LLM, allo stato attuale delle cose, sono un po’ meno attenti, ma siamo solo all’inizio di un percorso di sviluppo ancora lungo. Questa differenza di per sé non giustifica una netta distinzione tra il modello artificiale e quello naturale perché fondamentalmente ricalcano una medesima forma o schema.
Fatte queste premesse, mostriamo come si può imparare con le dovute cautele grazie ai modelli generativi del linguaggio ed in particolar modo usando il modello GPT4.
L’approccio conversazionale
La conversazione è un ottimo modo per creare il contesto necessario affinché il modello comprenda gli intenti dell’interlocutore e sappia rispondere correttamente. A volte è possibile istruirlo per essere un insegnante o un tutor ma, in linea di massima, anche in veste di utile assistente può dimostrarsi un valido aiuto per l’apprendimento.
La conversazione si deve svolgere creando una catena di richieste ciascuna delle quali può essere collegata alla risposta che la precede. Tali richieste possono riguardare: approfondimenti, esempi, argomenti attinenti a quello principale, conferme, spiegazioni step by step, chiarimenti, traduzioni in linguaggio matematico o di programmazione, grafici, definizioni di parole o espressioni, etc.
Al termine dalla conversazione è utile far generare al modello delle domande riassuntive di comprensione a cui non deve dare risposta in quanto saremo noi a doverlo fare. L’AI dovrà poi dirci se le nostre risposte sono corrette o meno.
Un altro modo per completare una conversazione o sessione formativa è quello di fare una sintesi dell’argomento basata sulla propria comprensione dell’argomento e chiedere al modello se abbiamo compreso bene o se ci sono aspetti che meritano chiarimenti.
Nel video che segue illustro come può svolgersi una sessione formativa con il modello GPT4. Si tratta di un ripasso di alcuni aspetti chiave della statistica relativi ai test parametrici. È importante verificare l’esistenza delle fonti citate dal modello ed eventualmente consultarle. L’apprendimento con un modello di AI non esclude lo studio di un buon libro o una dispensa di un docente. Le cose si integrano alla perfezione. Quando non comprendiamo aspetti esposti in un testo scolastico ci possiamo avvalere del chatbot per ottenere chiarimenti, esempi e procedimenti pratici.
Riepilogo delle richieste step by step
