Ragioni e proposte per un’equa regolamentazione dell’AI

Ragioni e proposte per un’equa regolamentazione dell’AI

Condividi con i tuoi amici...

L’impiego dell’intelligenza artificiale (AI) è ormai molto diffuso e utilizzato in vari settori come la medicina, il marketing, la finanza e molti altri ancora. Grazie alle sue avanzate capacità di apprendimento automatico, l’AI sta rivoluzionando molte attività, migliorando l’efficienza e la precisione delle operazioni. Come ogni tecnologia innovativa, l’AI presenta nuove sfide e rischi per la società. In questo articolo, vedremo perché regolare correttamente l’uso dell’intelligenza artificiale sia necessario per garantire il suo corretto utilizzo.

L’intelligenza artificiale può essere vista come un fiume in piena: potente e impetuoso, capace di spostare montagne e di modificare significativamente l’ambiente. Tuttavia, come ogni fiume, l’AI ha bisogno di essere indirizzata e controllata per evitare che causi danni e catastrofi. Come un fiume che può inondare e distruggere, anche l’AI può comportare rischi. Come un fiume ben controllato può essere una fonte di energia e risorse anche l’AI ben indirizzata può essere una grande opportunità per la società, migliorando la qualità della vita e l’efficienza dei servizi.

La regolamentazione dell’AI dev’essere improntata alla trasparenza e alla responsabilità, garantendo l’equità e la sicurezza per tutti i cittadini, senza limitare eccessivamente le grandi potenzialità dell’AI.

Nel seguito dell’articolo, vedremo quali sono le principali sfide che l’AI presenta e come una buona regolamentazione possa rappresentare una soluzione efficace e forse necessaria per il suo corretto utilizzo.

Per fare questo consideriamo dei pro e contro di alcune importanti funzioni che i moderni modelli generativi assolvono.

La personalizzazione di un chatbot

Sino a che punto la personalizzazione di un chatbot è utile e quando invece presenta delle insidie?

La personalizzazione dei chatbot può migliorare l’esperienza dell’utente, facilitando la comunicazione tra l’utente e l’azienda attraverso una conversazione più fluida e interattiva. La personalizzazione può consentire ai chatbot di essere più adattabili alle specifiche esigenze dell’utente, offrendo suggerimenti personalizzati e risposte alle domande in modo più accurato e mirato. Inoltre può essere vantaggiosa per l’azienda che li utilizza, poiché consente loro di raccogliere informazioni sui propri clienti e sulle loro preferenze, che possono poi essere utilizzate per migliorare la loro offerta di prodotti o servizi.

D’altra parte un’eccessiva personalizzazione potrebbe far sentire gli utenti imbarazzati in quanto la raccolta dei dati personali può essere considerata troppo invadente. Questo potrebbe essere particolarmente problematico se l’utente non è consapevole di quali dati vengono raccolti e come questi vengono utilizzati.

La personalizzazione potrebbe aumentare il rischio di discriminazione, poiché gli algoritmi di man mano che vengono addestrati, potrebbero basarsi su stereotipi e pregiudizi inconsci. Questo potrebbe portare a trattamenti iniqui o fuorvianti degli utenti che hanno caratteristiche diverse. Resta anche da valutare l’aspetto economico per l’azienda che mette a disposizione il chatbot. Una buona personalizzazione richiede un investimento significativo in tecnologia e risorse umane, poiché deve essere sviluppata e mantenuta da specialisti con competenze avanzate in intelligenza artificiale e machine learning. Questo potrebbe rappresentare un ostacolo per le piccole aziende che non hanno sufficienti risorse finanziarie o umane a disposizione.

Quale potrebbe essere una buona regolamentazione?

Poiché l’AI non garantisce una risposta corretta alle domande degli utenti dovendo fare i conti con un particolare dataset di addestramento spesso incompleto, una prima regola potrebbe riguardare l’obbligo da parte dell’azienda di permettere all’utente di SCEGLIERE se parlare con un chatbot o con una persona. Migliore sarà il chatbot e più persone sceglieranno di utilizzarlo con conseguente sgravio di costi per l’azienda. In questo modo si crea un incentivo ad investire nell’addestramento dell’AI e a non fornire servizi scadenti.

Particolare attenzione va mostrata anche alla questione dei pregiudizi e delle discriminazioni razziali, di genere o di altro tipo. L’AI dovrebbe essere sviluppata con equità e diversità per garantire che tutti gli utenti, indipendentemente dalle loro differenze, possano accedere alle risorse ed essere trattati allo stesso modo.

Gli sviluppatori dovrebbero essere responsabili per eventuali problematiche ed errori.

La trasparenza è una condizione necessaria per tutelare la privacy degli utenti. L’azienda che mette a disposizione un chatbot dovrebbe indicare come vengono trattati i dati personali, spiegare come funziona il chatbot e quale tipo di addestramento ha ricevuto. Potrebbe essere opportuno far scegliere all’utente il livello di personalizzazione del chatbot con una tabella che indichi vantaggi e svantaggi. L’utente dovrebbe sapere quali dati personali verranno trasmessi all’azienda e quale uso questa ne farà e dovrebbe essere garantito il suo diritto all’oblio che implica il rispetto da parte dell’azienda dell’eventuale richiesta di eliminazione dei dati personali dell’utente. L’azienda dovrebbe indicare se le risposte dell’utente verranno utilizzate per addestrare ulteriormente il chatbot oppure no.

Quando i chatbot assumono il ruolo di personaggi famosi o riferiscono il loro punto di vista

I chatbot che impersonano personaggi famosi possono fornire agli utenti informazioni interessanti sul loro punto di vista, opinioni e pensieri su determinati argomenti o situazioni. Ciò può essere utile per gli appassionati di cultura pop, per i fan dei personaggi famosi e per coloro che cercano di imparare di più su questi personaggi. Chatbot di questo tipo possono essere utilizzati dalle aziende come strumento di marketing per promuovere i loro prodotti o servizi in modo creativo ed efficace. Ad esempio, un chatbot che imita il punto di vista di una celebrità potrebbe essere utilizzato per promuovere un nuovo prodotto tra i fan del personaggio, può rafforzare il senso di connessione tra l’utente e il personaggio famoso, facendo provare all’utente la sensazione di parlare direttamente con la sua celebrità preferita. Ciò può essere particolarmente apprezzato dai fan appassionati.

D’altra parte, un chatbot che impersona un VIP potrebbero diventare fonte di disinformazione, poiché ci potrebbe essere il rischio che il parere espresso dal chatbot non corrisponda alle reali opinioni del personaggio famoso. Questo potrebbe portare a incomprensioni e confusione, specialmente se l’utente non è in grado di distinguere tra la voce ufficiale del personaggio famoso e quella del chatbot. L’utilizzo di chatbot basati su personaggi famosi potrebbe violare i diritti di proprietà intellettuale, se il personaggio famoso non ha autorizzato l’utilizzo del suo nome o dell’immagine. Ciò potrebbe portare a controversie legali, ad un danno d’immagine per l’azienda che utilizza il chatbot e a una perdita di credibilità per il personaggio famoso.

Suggerimenti per una buona regolamentazione

Si potrebbe chiarire che il chatbot non è l’autentica voce del personaggio noto e che le opinioni espresse non corrispondono necessariamente alle sue reali opinioni. Inoltre, si potrebbe cercare il consenso del personaggio noto e ottenere una sua dichiarazione autorizzando l’utilizzo del nome e dell’immagine nel chatbot. Si potrebbe utilizzare una voce diversa dal personaggio famoso per comunicare l’utilizzo del chatbot e i suoi limiti, al fine di evitare confusioni e incomprensioni per gli utenti. Si potrebbe introdurre una serie di regole per l’utilizzo del chatbot in modo da non violare i suoi diritti di proprietà intellettuale. Tra queste, potrebbe essere prevista la riduzione dell’utilizzo del nome e dell’immagine del personaggio noto a quelle minime necessarie per l’utilizzo del chatbot, come ad esempio limitarsi all’uso del solo nome di battesimo. In alternativa, si potrebbe utilizzare solo un’immagine stilizzata del personaggio noto e non la sua foto reale.

I chatbot dovrebbero citare le fonti?

Citare le fonti delle informazioni fornite dai chatbot può aumentare la loro credibilità tra gli utenti, che possono sentirsi più sicuri in quanto possono verificare le informazioni e confrontarle con quelle provenienti anche da altre fonti, aumentando la loro conoscenza del tema trattato e riducendo il rischio di disinformazione.

Citare le fonti può essere considerato un comportamento etico e responsabile da parte degli sviluppatori di chatbot, che dimostrano di rispettare il lavoro degli autori e degli esperti di settore, senza prendere il merito per informazioni che non sono di loro proprietà.

Va tenuto conto che citare le fonti può essere un onere eccessivo per i chatbot che forniscono informazioni in tempo reale. Potrebbe comportare un rallentamento delle risposte del chatbot, che potrebbe non essere in grado di trovare prontamente la fonte delle informazioni richieste dall’utente.
Il problema è ancor più importante per i chatbot che utilizzano l’apprendimento automatico, poiché gli algoritmi possono elaborare le informazioni in modo complesso e non sempre facilmente riconducibile ad una fonte specifica.

In certi casi citare le fonti potrebbe non essere sempre necessario o rilevante, ad esempio quando si tratta di informazioni comuni o di uso generale, come la definizione di un termine o di una parola. In questi casi, citare le fonti potrebbe risultare ridondante e inutile.

Una soluzione possibile a questo problema potrebbe prevedere una procedura di validazione delle fonti che preveda la verifica del contenuto e delle fonti utilizzate prima di aggiungerlo ai dati di addestramento del chatbot. Ciò garantisce l’accuratezza e la veridicità delle informazioni fornite dal chatbot, senza interferire eccessivamente con la velocità di risposta.

Un altra via potrebbe essere quella di impostare un sistema di feedback degli utenti che consenta di migliorare continuamente la precisione delle risposte del chatbot. In questo modo, gli utenti potranno segnalare eventuali errori o imprecisioni nelle informazioni fornite dal chatbot e i progettisti potrebbero intervenire, integrando nuove fonti per migliorare le risposte del chatbot.

il chatbot può offrire supporto emotivo alle persone

I chatbot possono offrire un supporto emotivo immediato a chiunque ne senta bisogno, senza il timore di essere giudicati o incompresi. A volte, le persone potrebbero essere riluttanti a rivolgersi a un amico, un familiare o a un professionista della salute mentale, ma potrebbero sentirsi più a loro agio a parlare con un chatbot. Ionltre il chatbot è disponibili 24 ore su 24 e 7 giorni su 7, il che può essere particolarmente utile per le persone che vivono in aree remote o che hanno difficoltà a trovare un sostegno emotivo di persona. Alcuni chatbot basati sull’intelligenza artificiale sono stati sviluppati con lo scopo specifico di offrire un supporto emotivo alle persone, attraverso conversazioni guidate e tecniche di terapia cognitivo-comportamentale. Questi chatbot possono essere utili per coloro che stanno affrontando un momento difficile o che hanno bisogno di un aiuto per gestire le proprie emozioni.

Attenzione, i chatbot non possono sostituire l’esperienza reale dell’ascolto umano e dell’empatia, poiché mancano di empatia vera e propria. Per questo motivo, possono essere utilizzati solo come supporto aggiuntivo a una vera e propria terapia o ad un sostegno emotivo da parte di un professionista qualificato. Inoltre potrebbero non essere in grado di individuare e gestire situazioni di crisi o di emergenza. In queste occasioni, sarebbe importante che l’utente si rivolga immediatamente a servizi di emergenza o ad un professionista della salute mentale in carne ed ossa. Alcuni chatbot possono riprodurre stereotipi e pregiudizi culturali inconsci, che potrebbero influenzare la qualità del supporto emotivo offerto. Potrebbero inoltre non essere in grado di comprendere appieno il contesto culturale, sociale e familiare dell’utente, limitando quindi la loro capacità di offrire supporto emotivo adeguato e personalizzato.

Queste difficoltà si potranno superare migliorando i dati di addestramento e gli algoritmi. Nel frattempo si potrebbe prevedere un sistema in cui i chatbot vengono utilizzati come un supporto aggiuntivo alla terapia o ai servizi di supporto emotivo forniti da professionisti qualificati e certificati. I chatbot possono offrire informazioni e risorse che aiutino a migliorare la comprensione dei sintomi o delle situazioni difficili, ma non dovrebbero sostituire completamente l’esperienza umana.

l’AI identifica il genere, la razza, le emozioni e l’identità/nome delle persone dalle loro immagini

L’intelligenza artificiale (AI) che identifica il genere, la razza, le emozioni e l’identità/nome dalle immagini può essere utilizzata per migliorare la sicurezza pubblica e la lotta contro il crimine, ad esempio riconoscendo i volti di persone ricercate dalla polizia. L’AI ha il potenziale di aiutare i professionisti della salute, come i medici, a identificare più facilmente le malattie o i disturbi che si manifestano attraverso il viso, come la depressione o la sindrome di Down. L’identificazione delle emozioni dal viso potrebbe essere utile per le aziende, che potrebbero utilizzare queste informazioni per migliorare l’esperienza del cliente, ad esempio offrendo un servizio più personalizzato.

Tuttavia queste tecnologie potrebbe portare a discriminazione, poiché potrebbero basarsi su stereotipi e pregiudizi culturali. L’AI che identifica le emozioni dal volto potrebbe essere inesatta e portare a conclusioni errate. Le emozioni umane sono complesse e sfumate e non sempre sono facilmente riconducibili a un’espressione facciale specifica. Ciò potrebbe portare a malintesi o a interpretazioni sbagliate del comportamento umano. Un altro rischio connesso all’uso dell’AI per il riconoscimento visivo é quello di violare la privacy e il diritto alla protezione dei dati personali, poiché potrebbe raccogliere informazioni sensibili sugli individui senza il loro consenso o la loro conoscenza. Ciò potrebbe portare a un uso improprio delle informazioni raccolte o a una perdita di riservatezza.

Sicuramente una modo giusto per regolamentare questo tipo di impiego dell’AI è quello in grado di assicurare sempre di più la qualità di questi strumenti. Le aziende che realizzano tali sistemi devono investire nell’addestramento degli algoritmi per migliorare la precisione delle identificazioni delle emozioni e prevenire eventuali interpretazioni sbagliate. Ciò richiede adeguati set di dati e la definizione di specifiche regole per il riconoscimento del comportamento emotivo non limitandolo solo all’espressione facciale. Si potrebbe prevedere l’utilizzo di diverse fonti di dati per migliorare la precisione del riconoscimento delle emozioni, come ad esempio l’utilizzo di microfoni per identificare il tono di voce, o l’uso di sensori per monitorare la risposta fisiologica dell’individuo.

Per garantire la sicurezza dei dati si potrebbero stabilire regole che implichino l’uso di algoritmi di crittografia avanzati e server sicuri per proteggere le informazioni raccolte e impedire accessi non autorizzati.

Le risposte AI dovrebbero cambiare in base al luogo o alla cultura in cui viene utilizzata?

Adattare le risposte dell’AI in base al luogo o all’appartenenza culturale dell’utente può migliorare la sua esperienza d’uso, offrendo un servizio più personalizzato e adeguato alla sua cultura e alle sue esigenze specifiche. Inoltre può aiutare a prevenire malintesi o fraintendimenti causati da differenze culturali. Ad esempio, alcune espressioni idiomatiche o modi di dire potrebbero essere facilmente comprensibili in alcune culture ma difficili o addirittura offensivi in altre.

D’altra parte, queste funzioni richiedono risorse aggiuntive per la raccolta e l’elaborazione di informazioni da diverse fonti culturali o geografiche, aumentando i costi e la complessità del servizio. Anche in questo caso potrebbe esserci un rischio di discriminazione.

Certi contenuti dovrebbero essere limitati nell’ambito della conversazione con un chatbot?

Limitare certi contenuti nell’ambito della conversazione con un chatbot può aumentare la sicurezza degli utenti e proteggerli da contenuti inappropriati o fuorvianti. La limitazione può essere particolarmente importante per i minori, che potrebbero essere esposti a contenuti inadatti alla loro età attraverso i chatbot, come materiale pornografico, linguaggio volgare o violenza grafica.


Alcuni contenuti dovrebbero essere limitati per proteggere il marchio e l’immagine dell’azienda che utilizza il chatbot, evitando che il chatbot diventi un canale di comunicazione per contenuti offensivi o illegali.

Tuttavia come ogni limitazione, anche questa implica una riduzione della libertà di espressione degli utenti, che potrebbero desiderare di esprimere un’ampia varietà di opinioni e punti di vista. Ciò potrebbe portare a una percezione negativa del servizio chatbot utilizzato. La definizione di cosa costituisca un contenuto “limitato” potrebbe essere soggettiva e dipendere dalle regole culturali o sociali. Ciò potrebbe portare a controversie sulle linee guida adottate dal servizio chatbot e sulle scelte fatte dallo sviluppatore in merito alla quale informazioni limitare durante la conversazione.


La limitazione di certi contenuti potrebbe non essere efficace sempre e comunque, in quanto i chatbot potrebbero non avere la capacità di riconoscere e filtrare adeguatamente tutti i contenuti inappropriati o illegali. Ciò potrebbe portare a una falsa sensazione di sicurezza per gli utenti e a un rischio di esposizione a contenuti non adeguati.

Due possibili vie per regolamentare questo aspetto sono le seguenti:

  1. Si potrebbe implementare un sistema di regole chiaro e trasparente per il contenuto accettabile e inaccettabile all’interno del servizio chatbot. È importante che queste regole siano definite in modo neutrale e basate su standard accettati culturalmente e legalmente, al fine di evitare arbitrarietà e favoritismi.
  2. Si potrebbe prevedere un sistema di valutazione e di feedback degli utenti, che consenta di monitorare la qualità dei contenuti e di valutare l’efficacia delle linee guida adottate. Ciò consentirebbe di apportare immediatamente le modifiche necessarie e di migliorare costantemente il servizio al fine di soddisfare le esigenze degli utenti.

In conclusione

Riassumendo, si può concludere che la via da percorrere per giungere ad un’equa regolamentazione potrebbero essere segnata dai seguenti passi principali

  • Lasciare libera scelta all’utente tra interagire con un assistente umano o uno artificiale
  • responsabilizzare gli sviluppatori in relazione alle conseguenze delle azioni dell’AI
  • Offrire trasparenza sull’uso dei dati personali da parte delle aziende
  • Dare la possibilità all’utente di scegliere il livello di personalizzazione dell’AI
  • Tutelare il diritto all’oblio dell’utente
  • Fare chiarezza sulle modalità di addestramento dell’AI. Promuovere l’informazione sull’AI.
  • Distinguere chiaramente tra prodotti completamente realizzati dall’AI e prodotti realizzati dalle persone
  • Impiegare dei feedback degli utenti per migliorare gli algoritmi
  • Prestare sempre maggior attenzione e cura ai dati di addestramento dell’AI

Ci auguriamo che questo articolo sia riuscito almeno ad offrire una panoramica degli aspetti che andrebbero regolamentati nell’ambito dell’uso dell’AI ed in particolare dell’impiego dei chatbot. Nei prossimi anni sicuramente verranno fatte molte proposte e si avvierà un’intensa discussione a diversi livelli su queste problematiche. Il sito HumAI.it si propone di continuare a pubblicare riflessioni e informazioni utili sull’argomento. Se hai domande o proposte puoi scriverci.