Opportunità e rischi in una società coadiuvata dall’intelligenza artificiale

Opportunità e rischi in una società coadiuvata dall’intelligenza artificiale

Condividi con i tuoi amici...

I modelli di AI vengono sempre di più integrati nei servizi offerti dalla grandi società per alzare il livello della loro qualità. Le nuove funzioni smart hanno dei costi che in parte vengono compensati dalla crescita della domanda e quindi dall’aumento delle vendite. Se ciò non bastasse, per determinate categorie di servizi si applicheranno degli incrementi di prezzo. D’altra parte, i professionisti e le medio-piccole aziende che usufruiscono di questi nuovi strumenti riescono a svolgere i loro compiti in meno tempo, più efficacemente di prima e con l’impiego di meno personale. Anche a questo livello del sistema produttivo si presenta la sfida di creare servizi e prodotti grazie alle nuove tecnologie. Ciò è possibile operando cambiamenti che incidono su tutta la catena produttiva e che passano anche dalla riqualificazione del personale e quindi dall’organizzazione di percorsi formativi e purtroppo anche dai licenziamenti.

Questa non è una situazione nuova. L’introduzione di nuove tecnologie ha sempre avuto un impatto sia positivo che negativo sul mondo del lavoro. Ciò che in questo caso sembra fare la differenza è il livello a cui sono arrivate queste innovazioni tecnologiche. In realtà, già l’introduzione dei calcolatori elettronici ha obbligato la società ha compiere un salto di qualità, ad organizzarsi e a qualificarsi per fare da balia a questi cervelloni, per comprarli, venderli, programmarli, ripararli, per insegnare ad altri ad usarli e così via. Non tutti i lavoratori hanno potuto ricollocarsi diventando programmatori o riparatori e venditori di computer, quindi la perdita del lavoro dovuta alla “sostituzione” del lavoratore con una macchina è stata ed è tuttora una realtà ben documentata. In compenso nella vita quotidiana, chi può permetterselo, usufruirà di servizi più efficienti grazie alle nuove tecnologie.

Lo sviluppo dell’intelligenza artificiale mostra caratteri sostanzialmente diversi rispetto ai progressi tecnologici precedenti. L’AI nasce con lo scopo di imitare ed eventualmente riprodurre i processi mentali umani che rappresentano il massimo livello di complessità conosciuta.

Anche se, una certa parte della ricerca non è affatto orientata direttamente all’emulazione di tali processi, un’altra parte lo è. Le reti neurali artificiali nascono proprio come modello di quelle naturali. Uno degli scopi di una parte della ricerca è quello di capire meglio il funzionamento del cervello umano impiegando questi modelli artificiali che cercano di riprodurre l’intricata rete di connessioni neuronali del nostro cervello. Parallelamente, la robotica non si ferma alla riproduzione dei movimenti meccanici umani, ma intende integrarsi con l’AI in modo che i robot siano in grado di fornire agli algoritmi di AI “esperienza” del mondo esterno (dati robotici) e addestrarli affinché siano in grado a loro volta di dire ai robot come agire nel loro ambiente. A questo proposito è interessante il seguente articolo pubblicato su HumAI.it: Comprensione visiva, linguaggio naturale, e robotica: Deepmind, il modello Robotic Transformer 2

In pratica si cerca di riprodurre integralmente le funzioni umane. Qualsiasi obiezione che ponga l’accento sulle prerogative umane che ancora l’AI non è in grado di riprodurre diventa una sfida per i progettisti di questi sistemi che viene accolta con lo scopo di colmare il divario. Per tale ragione, la velocità con cui si addestrano i modelli di AI e con cui ne nascono di nuovi aumenterà sempre di più.

L’AI generativa del linguaggio ha evidenziato al grande pubblico il livello di qualità raggiunto da queste tecnologie. Finchè l’AI ci dava risposte coerenti mediante i motori di ricerca o ci consigliava i prodotti su Amazon indovinando i nostri gusti o agiva in background sui social, ci stupiva fino ad un certo punto. Ciò che ci ha davvero stupito è stata la presentazione di chatGPT a fine novembre nel 2022.

La “comprensione” del nostro linguaggio da parte di un’entità è ciò che la fa apparire più simile a noi, proprio perché il linguaggio è strettamente unito ai concetti e quindi al mondo delle nostre idee, credenze ed esperienze.

Nel frattempo sono emersi i primi difetti di questi modelli, le allucinazioni, le invenzioni, ma ci hanno detto che si tratta di un comportamento normale per un’intelligenza “giovane”, in quanto come un bambino che ancora non conosce tante cose, le inventa, anche l’AI generativa tende a fare lo stesso. A marzo è uscito il modello GPT4 di OpenAI più performante. È iniziata la gara dei big della tecnologia per produrre ognuno il proprio modello generativo: Bard di Google, LLama di Meta, Claude di Anthropic e così via. L’attenzione del pubblico e delle aziende per questi sistemi è molto alta e non si tratta solo di una moda in quanto il terreno era già molto fertile prima dell’uscita di chatGPT. Questo chatbot, ha proverbialmente “svegliato il can che dorme”.

Le aziende stanno progressivamente integrando i modelli di AI generativa nei loro flussi di lavoro. Tutti i settori sono coinvolti. L’AI generativa riguarda il mondo del suono, delle immagini, dei video, dei testi e associandola alla robotica e alla stampa 3d potenzialmente può riguardare tutto.

A favore o contro?

Sono in molti a sentirsi attaccati da questo dirompente sviluppo dell’AI e le reazioni sono le stesse già viste con l’introduzione di altre tecnologie. Per esempio, con internet: La demonizzazione e lo screditamento. Si tratta sicuramente di un comportamento comprensibile, ma nello stesso tempo, improduttivo per chi lo assume. In un’economia di mercato, una tecnologia come l’AI non può far altro che progredire perché i profitti economici che il suo impiego è in grado di generare sono immani. Nessun tipo di demonizzazione può scalfire il suo sviluppo, esattamente come i pregiudizi su internet di qualche decennio fa non hanno scalfito il suo incedere. Possono verificarsi dei rallentamenti, delle battute di arresto, dovute all’assenza di regole e all’avidità delle aziende che approfittandone producono dei contraccolpi nella società stessa. Pensiamo, ad esempio, alle questioni legate ai diritti d’autore, alla responsabilità delle azioni dell’AI, alla tutela della privacy e ad altri aspetti simili. Nonostante queste difficoltà, difficilmente lo sviluppo dell’AI sarà fermato definitivamente, semplicemente perché in un’economia di mercato, esso soddisfa un’enorme quantità di domanda. In pratica è “troppo” utile.

Lo screditamento di una tecnologia spesso fa il gioco di chi la usa e la vende perché gli permette, soprattutto nella fase iniziale di crescita, di avere meno concorrenti e di ampliare il divario tra chi la usa e chi non la usa, il quale rimane indietro. Un’altra conseguenza negativa dello screditamento ed in particolare della minimizzazione delle potenzialità dell’AI è dovuto al fatto che conduce alla sottovalutazione del rischio associato all’assenza di regolamentazione. Credere che l’AI non sia “capace” quanto l’uomo insistendo su questo mantra che si sente ripetere spesso, può portare a credere che automaticamente il lavoro umano risulterà competitivo e vincente e che non ci sia nulla di cui preoccuparsi. In realtà non è così.

L’AI senza regolamentazione è un diretto concorrente del lavoratore umano in una misura molto superiore rispetto alla stessa concorrenza fatta dalle macchine in passato. La competizione sta avvenendo non ad un livello meccanico-fisico (macchine/robot) e neppure al livello della banale computazione (computer), bensì al livello del pensiero e del ragionamento alimentati dall’apprendimento.

Non stiamo più creando strumenti che agiscono secondo certe regole, ma stiamo creando dei regolatori, sistemi in grado di stabilire regole sulla base di ciò che apprendono, esattamente come noi.

L’AI e il mondo del lavoro

Nei prossimi mesi o anni, lo spazio del lavoro umano sarà ancora molto ampio, ma solo per chi saprà accedere ad un livello superiore di attività.

Grazie all’uso dell’AI generativa si possono fare cose che prima risultavano insostenibili economicamente. In realtà non si lavorerà di meno, perchè l’asticella della qualità richiesta si sta alzando. In un’economia di mercato non ben regolamentata non c’è tempo libero. Se la concorrenza migliora i suoi prodotti grazie all’AI, lo dobbiamo fare anche noi e dobbiamo anche crearne di nuovi nell’ambito di un’incessante competizione. Da una parte, questa dinamica potrà essere positiva per l’occupazione, dall’altra, richiederà, come si è già detto, riqualificazione e riassetti che implicheranno licenziamenti. La riqualificazione avrà come obiettivo primario abilitare i lavoratori ad interagire con l’AI che ancora non è affatto autonoma ma richiede preparazione, addestramento e validazione dei risultati.

In pratica bisogna imparare ad usare i software integrati con l’AI per creare testo, immagini e video. Bisogna raccogliere e preparare i dati di addestramento e testare di continuo i modelli e studiare sempre nuovi criteri e parametri di valutazione dei risultati.

Nei prossimi decenni lo spazio di lavoro umano si ridurrà perchè l’AI sarà sempre più autonoma e sarà necessario apportare dei veri cambiamenti del sistema economico. Il lavoro non dovrà essere più un’attività centrale per l’uomo. Già oggi sarebbe necessario avviare una regolamentazione dell’impiego dell’AI e del mondo del lavoro. In relazione a quest’ultimo sarebbe auspicabile agire in queste due direzioni:

  • Riqualificazione del personale a totale carico delle aziende che intendono introdurre l’AI, senza riduzioni sulla busta paga
  • Cospicuo indennizzo (o vitalizio) per i lavoratori licenziati a causa dell’adozione dell’AI da parte dell’azienda

Senza scomodare illustri pensatori sulla discussione della proprietà dei mezzi di produzione, va ricordato che l’azienda che investe per adottare l’AI, benchè stia usufruendo di una tecnologia che è il risultato di decenni, se non secoli, di ricerca e studio, sta pagando molto poco in termini economici in rapporto ai benefici che otterrà e al valore intrinseco dell’AI. Una licenza d’uso o l’hardware necessario per addestrare un’AI non hanno un costo pareggiabile all’impegno di studiosi, ricercatori e inventori che nel corso della storia hanno contribuito alle conoscenze che presuppongono l’esistenza dei computer e dei moderni algoritmi di AI. Questo bagaglio di conoscenze appartiene all’umanità intera e per ragioni di equità deve restare al servizio dell’umanità intera e non solo di una parte d’essa. Per tale ragione l’azienda privata dovrebbe pagare alla società il plus economico che ottiene con l’impiego dell’AI in termini di indennizzo per i lavoratori licenziati o nei termini di un’equa tassazione. Questa logica dovrebbe applicarsi con un rigore proporzionale alla capitalizzazione delle società che fanno uso dell’AI.

Un’AI pubblica?

Inoltre per evitare che l’AI divenga appannaggio dei privati e che i prezzi siano lasciati in balia della domanda e dell’offerta, sarebbe opportuno che nascessero dei modelli di AI pubblici. Il settore pubblico dovrebbe farsi carico di una continua ricerca finalizzata allo sviluppo di modelli competitivi di AI da rendere disponibili per tutti.

Prima o poi dovremo fare i conti con le contraddizioni del sistema fondato su un economia liberistica che concentra la ricchezza piuttosto che distribuirla e che se da una parte vuole garantire la libertà dell’iniziativa privata rischia di rendere l’intera società ostaggio di grandi gruppi finanziari e società tecnologiche che saranno sempre più in grado di controllare il mercato a discapito delle nuove imprese. L’AI ci porrà sempre di più di fronte a queste contraddizioni perché per i big della tecnologia essa risulta una risorsa enorme in grado di iniettare nelle loro casse grandi ricchezze nei prossimi anni.

L’AI sarà per tutti o per pochi?

La mossa di rendere open source i modelli generativi di AI e i loro parametri compiuta da Meta e da altri big è sicuramente interessante perché permette a molte realtà di lavorare al miglioramento di questi modelli, ma chi ne beneficierà alla fine? Chi sarà in grado di mettere sul campo risorse hardware e quindi finanziarie sufficienti per mettere a punto i modelli più sofisticati. Vediamo già oggi come la qualità del modello di AI faccia un’enorme differenza. Se in circolazione c’è un modello molto performante, sarà quello più richiesto, mentre la domanda di mercato degli altri modelli seguirà la prima, ma a notevole distanza da essa. Insomma i vincitori di questa partita probabilmente non saranno tanti. Questa storia l’abbiamo già vista molte volte. Pensiamo ai colossi della rete, in primis Microsoft, Google, Meta (Facebook) che regolano la nostra vita sul web.

Ci aspettiamo che per le piccole e medie imprese converrà, sempre più spesso, appoggiarsi a società esterne che si occupano di AI, le sole in grado di investire enormi capitali nell’addestramento dei modelli e di metterli a disposizione mediante API. Non ci aspettiamo uno scenario in cui ogni azienda avrà il suo modello di AI addestrato in completa autonomia e indipendenza, perché modelli simili difficilmente sapranno stare al passo con i modelli prodotti dalle grandi società e un chatbot scadente o un’AI che non ragiona bene quanto quella dei concorrenti può fare danni immensi ad un brand aziendale.

Ora, immaginiamo un mondo in cui tutti i chatbot di tutte le aziende si avvalgono di modelli di poche società private big tech e che la governance di tutte le imprese e delle istituzioni si serva di tali modelli di AI per risolvere problemi (problem solving) e prendere decisioni (decision making). Sicuramente sarebbe un mondo a dir poco pericoloso. Il nostro mondo probabilmente già in parte lo è, in quanto esiste già una notevole concentrazione di potere in pochi gruppi finanziari, del mondo tecnologico e delle comunicazioni. Secondo alcune teorie complottiste, forse siamo già stati tutti manipolati psicologicamente dai media in mano a queste realtà oligopoliste e non ce ne siamo accorti. Non sono ipotesi da scartare totalmente visto che di fatto tutti noi stiamo in qualche modo assumendo comportamenti che si adeguano pedissequamente ai modelli che i social media intendono promuovere per puri fini di profitto economico. Un’azienda se vuole campare online deve adeguarsi agli algoritmi dei social e non “irritare” quelli dei motori di ricerca. Una persona se non pubblica qualcosa di sè sui social finisce per essere considerata un’asociale o, in certi casi, addirittura inaffidabile. La comunicazione stessa su queste piattaforme è ormai omologata, prevedibile e spesso creata per spettacolarizzare qualsiasi cosa al fine di attrarre consensi (like).

Gli algoritmi di AI alla base dei social sono addestrati in modo da massimizzare i tempi che ogni utente dedica alla piattaforma social e le sue interazioni con essa.

Cosa significa in pratica? Significa che l’algoritmo da più visibilità ai contenuti che sono in grado di catturare più attenzione degli utenti (tempo di visione e interazione). L’algoritmo decide cosa devo vedere ogni giorno in base alle mie precedenti interazioni e a quelle dei miei amici o di altri che l’algoritmo ritiene simili a me. Queste cose le sappiamo tutti ormai, ma forse non tutti riflettiamo sul fatto che

ciò che guardiamo di più e più a lungo sui social forse non è davvero ciò che ci interessa di più nella vita, ma è solo ciò che attrae maggiormente la nostra attenzione in quel momento.

Qualsiasi cosa di “spettacolare” esercita un’attrattiva. Un’aforisma o una citazione che conferma quello che pensiamo ci colpisce anche se quello stesso aforisma o quella citazione possono assumere mille significati diversi a seconda del contesto. Insomma ciò che ci attrae dei social è il loro aspetto ludico e divertente ed è su questo aspetto che l’algoritmo si dirige per valorizzare i contenuti. Poiché la vita di molte persone è intrecciata con quella di altre attraverso i social governati dai suddetti algoritmi, nasce l’equivoco per cui se non appari o non ottieni consenso sui social significa che ciò che dici o, addirittura, ciò che sei non hanno valore. Queste dinamiche psicologiche sono la conseguenza di un processo manipolatorio messo in atto per ragioni di profitto.

L’AI sta già agendo su ognuno di noi da anni, ma come abbiamo già accennato, solo di recente il tema è emerso in modo prepotente grazie all’uscita dei modelli generativi del linguaggio. È sicuramente un’occasione per portare alla luce le potenzialità dell’AI e di come si debba aumentare la consapevolezza in relazione a questa tecnologia.

Il dilemma morale e alcuni ostacoli che potrebbe incontrare lo sviluppo dell’AI

È possibile che il disagio sociale che ci attende sarà inversamente proporzionale alla nostra capacità di prendere rapidamente coscienza delle potenzialità di questi modelli di AI. Per alcuni, usarli significa fare il gioco di chi attualmente li progetta e promuove per profitto, tuttavia anche contrastarli e screditarli, abbiamo detto, risulta essere inutile in un’economia di mercato e dannoso per se stessi perché si rischia di rimanere indietro a vantaggio di chi li usa. È importante ricordare che non stiamo parlando di una tecnologia di per sé dannosa o di un comportamento iniquo di cui si finisce per giustificarne l’adozione solo perché la usano tutti e rimarremmo svantaggiati se non lo facessimo anche noi. Non siamo di fronte ad un dilemma morale di questo tipo. L’utilità dei modelli di AI è incontestabile soprattutto in ambito scientifico e medico. Per esempio, in questo articolo spieghiamo come l’AI sia molto utile nello studio delle proteine e nella realizzazione di nuovi farmaci:

Lo studio del folding delle proteine con il deep learning

Per alcuni il dilemma morale esiste comunque, per il fatto che l’AI porterebbe con sé delle potenzialità paragonabili a quelle dell’energia nucleare in fisica. Non è un’esagerazione. La conoscenza delle proprietà dei nuclei atomici e la comprensione dei processi di fissione e fusione ha portato un poco alla volta al loro impiego per liberare energia utile all’umanità, ma anche per creare e utilizzare bombe dal potenziale devastante.

L’AI sarà presto in grado di associare l’enorme e risaputo potere computazionale delle macchine alla capacità di ragionamento prerogativa dell’essere umano. Queste macchine non si stancano, possono essere riprodotte senza un limite definibile, sono onnipresenti online, saranno sempre più creative e in grado di inglobare tutta la conoscenza umana presente nei libri e di fare esperienze proprie senza sosta mediante la robotica.

Di fronte a queste considerazioni forse il paragone con le potenzialità dell’energia nucleare non ci appare più un’esagerazione.

In conclusione, la moderna società fondata su un economia di mercato non sembra affatto matura per gestire un’intelligenza artificiale forte o generale (AGI artificial general intelligence). Per fortuna, la società a volte sembra possedere degli anticorpi per certe minacce. Ora osserviamo l’incedere dell’AI a velocità notevole ma questo sviluppo dovrà fare i conti con tante cose legate alla natura umana. La prima è una sorta di inerzia che induce ognuno di noi ad andare avanti con le proprie abitudini un po’ (tanto) spaventati dai cambiamenti. La seconda potrebbe essere costituita dall’avidità e dall’ingordigia che indurranno le aziende a bruciare le tappe per ragioni di profitto e ad approfittare della scarsa regolamentazione per abusare dei sistemi di AI. Ai danni potrebbe seguire una battuta di arresto dello sviluppo dell’AI nel breve periodo. Un altro deterrente allo sviluppo rapido dell’AI potrebbe essere dovuto alla delusione delle aspettative che si nutrano in relazione ad essa come avvenne già negli anni ’80. Anche questo aspetto è imparentato con l’avidità di chi oggi ha interesse a “pompare” su un tema caldo per ragioni di profitto incurante della ragionevolezza delle promesse che vengono fatte.

Alvise Giubelli – HumAI.it