Il paradosso dell’AI o gioco a guardie e ladri.
Che ne pensi della corsa alla generazione di testi e articoli grazie ai modelli generativi del linguaggio?
Da un lato abbiamo questi fantastici sistemi che creano testi che sembrano scritti da esseri umani, ma dall’altro lato c’è sempre qualcuno che potrebbe chiedere: “Ma chi ha scritto veramente questo articolo?“
Sembra che ci sia una sorta di gara a chi arriva prima: da un lato c’è la tecnologia che cerca di creare testi sempre più simili a quelli scritti da un essere umano, dall’altro c’è l’uomo che cerca di capire se quello che sta leggendo è stato scritto da un robot o da un suo simile.
C’è poi la questione degli scrittori che potrebbero spacciare per loro testi generati dall’AI e la questione di editori che potrebbero scambiare testi originali di certi autori per testi generati dall’AI. Un bel pasticcio, vero? Ma non preoccupatevi, la tecnologia sta facendo progressi a passi da gigante per risolvere questi problemi…forse. Vediamo come.
Il primo obiettivo dell’AI generativa (GPT)
L’intento dei ricercatori e dei produttori che creano e offrono modelli di intelligenza artificiale generativa (GPT, Generative Pretrained Transformer) è di sviluppare un sistema in grado di imitare il linguaggio umano in modo sempre più preciso e naturale. Questi modelli sono stati addestrati su grandi quantità di testo presenti in internet, come libri, articoli e conversazioni, al fine di acquisire una comprensione profonda del linguaggio umano.
L’obiettivo finale è quello di ottenere modelli in grado di generare testo coerente e convincente, che possa essere utilizzato per molteplici applicazioni, come la traduzione automatica, la chatbot, la scrittura automatica di articoli e molto altro ancora.
Per raggiungere questo obiettivo, i ricercatori utilizzano una combinazione di tecniche di machine learning, tra cui il deep learning e il transfer learning, per perfezionare continuamente i modelli di GPT. Con ogni nuova versione, i modelli diventano sempre più sofisticati e in grado di generare testo sempre più simile a quello prodotto da un essere umano.
In definitiva, l’obiettivo della creazione e dell’offerta di modelli di AI generativa del linguaggio è quello di migliorare la tecnologia in modo da avvicinarsi sempre di più alla lingua naturale degli esseri umani e di fornire soluzioni innovative e più efficienti per molteplici applicazioni.
Il secondo obiettivo
Ci sono diverse tecnologie e tool per identificare se un testo è stato generato da un modello di AI generativa del linguaggio, come GPT. Questi tool utilizzano algoritmi di apprendimento automatico e analisi del linguaggio naturale per analizzare le caratteristiche distintive dei testi generati dall’AI e confrontarle con quelle dei testi scritti da esseri umani.
Ad esempio, alcuni tool possono analizzare la lunghezza media delle frasi, la struttura sintattica e la presenza di errori grammaticali comuni nei testi generati dall’AI. Inoltre, possono anche utilizzare tecniche di rilevamento di modelli per identificare schemi comuni nei testi generati dall’AI e differenziarli da quelli scritti da esseri umani.
Inoltre, alcuni strumenti possono anche utilizzare database di testo umano e di testo generato dall’AI per addestrare i loro algoritmi a riconoscere la differenza tra i due tipi di testo. Questi tool possono essere molto utili per verificare l’autenticità dei testi e proteggere i diritti d’autore.
Il paradosso
Il perseguimento simultaneo di questi due obiettivi può essere considerato un paradosso nello sviluppo dei modelli di AI generativa del linguaggio. Da un lato, l’obiettivo è quello di rendere i prodotti generati dall’AI il più possibile simili al linguaggio umano, ma dall’altro c’è anche l’obiettivo di rendere l’AI in grado di distinguere tra prodotto umano e prodotto dell’AI.
Se un modello di AI generativo del linguaggio viene riconosciuto come tale, ciò significa che non è riuscito a raggiungere l’obiettivo di imitare perfettamente il linguaggio umano. D’altra parte, se un modello di AI non riesce a distinguere tra prodotto umano e prodotto dell’AI, non sta svolgendo correttamente il suo compito di identificazione.
In questo senso, l’obiettivo di rendere i modelli di AI generativa del linguaggio il più possibile simili al linguaggio umano e al contempo in grado di distinguere tra prodotto umano e prodotto dell’AI può essere visto come un’impresa difficile e un paradosso.
Che cosa ne pensa ChatGPT?
ChatGPT sostiene quanto segue:
“In realtà, si tratta di due obiettivi complementari che possono essere raggiunti contemporaneamente, ognuno con i propri progressi e sfide. Il raggiungimento di entrambi gli obiettivi porterà a modelli di AI più sofisticati e affidabili, in grado di generare testo coerente e convincente, ma allo stesso tempo in grado di identificare se un testo è stato generato da un essere umano o da un modello di AI.
In altre parole, il raggiungimento di uno degli obiettivi non impedisce il raggiungimento dell’altro e, al contrario, potrebbe addirittura facilitarlo. Ad esempio, il fatto di rendere i modelli di AI sempre più capaci di generare testo simile a quello umano potrebbe aiutare a rendere questi modelli anche più capaci di distinguere tra testo generato da un essere umano e testo generato dall’AI. Questo perché, se i modelli sono in grado di generare testo molto simile a quello umano, saranno anche in grado di riconoscere le caratteristiche distintive del linguaggio umano e quindi di identificare se un testo è stato generato da un essere umano o da un modello di AI.
In questo modo, il fatto di rendere i modelli di AI sempre più simili al linguaggio umano potrebbe rappresentare un passo importante verso il raggiungimento anche dell’obiettivo di rendere questi modelli in grado di distinguere tra prodotto umano e prodotto dell’AI.
In sintesi, i progressi compiuti in uno dei due obiettivi potrebbero aiutare a raggiungere anche l’altro, e viceversa, creando un circolo virtuoso che porterà a modelli di AI sempre più sofisticati e affidabili.“
Al di la del problema logico
L’esistenza di un problema di natura logica è indubitabile. Se i due obiettivi vengono presi alla “lettera” si genera sicuramente un paradosso. Quanto più ci si avvicina ad un obiettivo, tanto più ci si allontana dall’altro a meno che chi persegue il primo obiettivo non abbia già in mente un modo non troppo apparente di raggiungere anche il secondo facendo in modo che all’occhio umano non appaiano distinzioni significative ma a quello della macchina invece si.
Una gara o un gioco a guardie e ladri
Che cosa potremmo aspettarci?
Potrebbe crearsi una sorta di gara tra diverse parti interessate che hanno obiettivi diversi riguardo alla capacità di generare testo da parte dell’IA, oppure una sorta di gioco a guardie e ladri in cui certe aziende commissionano indagini per scoprire chi ha scritto gli articoli.

Da un lato, ci sono coloro che vorrebbero sviluppare tecnologie in grado di distinguere sempre più precisamente il testo generato dall’IA da quello umano, come ad esempio aziende che lavorano nel settore della sicurezza informatica. Dall’altro lato, ci sono coloro che vorrebbero sviluppare tecnologie che generino testo sempre più simile a quello scritto da un essere umano, come ad esempio aziende che lavorano nel settore della pubblicità o della comunicazione. Queste due parti potrebbero lavorare in parallelo per raggiungere i loro obiettivi. È facile che in questo caso il compromesso si potrà trovare solo attraverso una regolamentazione, mentre aspettarsi una convergenza senza conflitto forse è solo un’utopia di chatGPT (OpenAI).