L’AI è vittima di discriminazione?

Quel libro è stato scritto da un intelligenza artificiale?
Questo articolo lo ha realizzato un umano o un chatbot?
Si tratta di domande che ricorreranno sempre di più nella mente dei lettori nei prossimi mesi o addirittura anni. Abbiamo già discusso sui sistemi di AI detection, gli algoritmi di AI realizzati per distinguere tra testi creati dall’uomo e quelli realizzati da un’AI (il fallimento dell’AI detection) e abbiamo concluso che al momento non sono molto efficaci.
In questo breve articolo non intendo parlare di questi strumenti, piuttosto vorrei riflettere su quanto possa pesare sulla percezione della qualità di un testo la conoscenza dell’autore.
Ciò che cerchiamo, quando leggiamo qualcosa, è “informazione” ed “emozione“. Per informazione intendiamo novità, dati, racconti e riflessioni originali in grado di aggiungere un quid alla nostra conoscenza ed esperienza. Le emozioni nascono quando ci immedesimiamo nei personaggi di una storia o se proviamo soddisfazione dalla lettura del testo di qualsiasi genere esso sia.
Poiché il tempo che abbiamo a disposizione è un bene scarso, prima di tuffarci in una lettura impegnativa leggiamo qua e là per capire subito se il contenuto sarà in grado di emozionarci e di informarci. Un modo ancora più veloce per capirlo è quello di conoscere l’autore. Se abbiamo già letto opere di un certo autore e siamo stati soddisfatti leggeremo con interesse altre sue opere.
Sapere che l’autore è un modello generativo del linguaggio quanto pesa sulla nostra percezione di un’opera?
A mio modesto parere è opportuno isolare tre questioni importanti: La questione delle fiducia, la questione dell’originalità, la questione della disponibilità.
La questione delle fiducia
Se si tratta di leggere un saggio o una guida ci si aspetta “verità“, quindi informazioni corrette e supportate da fatti. L’autore dev’essere autorevole ed esperto.
Quanto ci si fida oggi dei modelli generativi dell’AI? Non tanto.
Infatti soffrono di “allucinazioni” che si verificano quando questi modelli inventano dei fatti comunicandoli in modo spesso convincente. Inoltre commettono molti errori. La conclusione a cui siamo giunti ci suggerisce di non considerare questi modelli come “insegnanti esperti”, piuttosto come “utili assistenti” in grado di “completare” le nostre conoscenze e di guidarci verso le fonti delle informazioni. In realtà vi è una forte obiezione da fare a questa conclusione: qualsiasi guida o assistente se sbaglia può rivelarsi inutile o dannoso, quindi la vera partita si gioca in relazione a “quanto” sbagliano questi modelli.
Nei prossimi mesi/anni le società che progettano i modelli di AI saranno sempre di più impegnate a renderli più efficienti lavorando su tre fronti: quello strutturale che riguarda le reti neurali, quello del preaddestramento che appunto interessa la selezione dei dati di addestramento impiegati per fissare i parametri del modello prima di renderlo pubblico ed infine le modalità di addestramento che gli utenti potranno avviare con il chatbot (prompting, contesto, etc.).
Al di là di queste considerazioni tecniche è un fatto che al momento vi sia una giusta diffidenza in rapporto al prodotto dei modelli generativi. Ci si chiede se quello che leggiamo sia la verità o meno.
La questione dell’originalità
Nonostante sia un argomento molto interessante, non intendo soffermarmi in questo articolo su cosa sia l’originalità, ma sull’esistenza del pregiudizio ben fondato o meno, secondo cui l’AI non possa essere originale per definizione. Se i modelli generativi sono preaddestrati su dati già esistenti, potranno semplicemente replicarli o al più, produrre una loro rielaborazione senza aggiungere nulla di davvero nuovo. Si tratta probabilmente di un pregiudizio molto diffuso che sicuramente incide sulla percezione della qualità che il lettore ha di un testo generato dall’AI.
La questione della disponibilità
ChatGPT e modelli simili rendono enormemente disponibile la generazione di testi. Esistono, inoltre, moltissimi strumenti gratuiti in grado di inviare prompt predefiniti ai modelli GPT e di produrre testi personalizzati di ogni tipo. Sappiamo come la scarsità di un bene utile contribuisca molto spesso a renderlo prezioso, così come sappiamo che l’ampia disponibilità di un bene, anche se molto utile, ne mantiene il prezzo basso. Nel nostro caso, di fronte ad un testo scritto dall’AI, il lettore, ancor prima di leggerlo o dopo averlo letto, può pensare che un testo simile avrebbe potuto realizzarlo lui stesso in pochi minuti usando ChatGPT. Anche questa volta, il lettore ha una bassa percezione della qualità.
In conclusione, ci aspettiamo che gli autori in carne ed ossa approfittino di questi punti deboli dell’AI evidenziando la loro autorevolezza, originalità e unicità. A mio parere saranno queste tre, le prerogative su cui investiranno gli autori umani . Forse non tutti lo faranno sul serio, ma sicuramente dovranno apparire affidabili e in grado di apportare qualcosa di nuovo e unico. Queste caratteristiche passeranno in modo preponderante nei messaggi pubblicitari.
D’altra parte, i modelli di AI dovranno sorprenderci ancora. Lo scopo delle società che li progettano è quello di diffonderne al massimo l’impiego tra le utenti e aziende, quindi ci aspettiamo che inizialmente risultino sempre di più alla portata di molti. Rendere tali modelli più efficienti ha però dei costi. Alcuni di questi costi sono dovuti al miglioramento delle reti neurali di base e quindi anche alle risorse hardware in grado di supportare tali reti sempre più complesse, altri costi riguardano gli oneri derivanti dagli accordi con altre società per ottenere il diritto di usare i loro dati per l’addestramento dei modelli. Questi costi influiranno sui prezzi dei modelli più sofisticati. Disporremo sempre di più di modelli con capacità e costi diversi?
Forse con il tempo il modo in cui sarà percepita la qualità di un testo non dipenderà dal sapere se l’autore è umano o un modello di AI, ma anche dal sapere quale modello di AI lo ha generato. Ci saranno modelli di AI con reputazioni diverse? Un buon prodotto AI sarà un bene scarso al punto da competere con un prodotto umano di alta qualità?