Questo articolo NON è stato scritto da ChatGPT 

Sembra un’affermazione azzardata o provocatoria, ne siamo consapevoli, ma chiedersi se quello che stiamo leggendo sia frutto della “penna” di un essere umano, oppure di calcoli di un algoritmo di generazione testuale potrebbe diventare ben presto una domanda comune quando ci si approccia alla lettura di un testo, specie per le possibili implicazioni che l’origine e la veridicità di quanto stiamo leggendo potrebbero avere. 

È indubbio che ChatGPT, e più in generale i modelli di intelligenza artificiale generativa, siano oggi un trend che sta scatenando nel pubblico, sia esso di settore o generalista, forte interesse e di conseguenza opinioni talvolta contrastanti. Ma andiamo con ordine e cerchiamo di mettere insieme i pezzi del puzzle e fare chiarezza.

Il 30 novembre 2022, OpenAI – organizzazione non profit fondata nel 2015 tra gli altri da Elon Musk e Sam Altman  – ha reso disponibile al pubblico ChatGPT, un chatbot programmato per simulare la conversazione umana. Nonostante una release di basso profilo, senza annunci stampa o comunicazioni di impatto, ChatGPT è in poche settimane salito alla ribalta ed è oggi sulla bocca di tutti. 

Il progetto GPT (Generative Pre-trained Transformer) di OpenAI è un modello di intelligenza artificiale generativa addestrato su una vasta gamma di dati testuali e visuali per la comprensione e la generazione di contenuti. Nello specifico, Chat GPT è stato addestrato su due grandi dataset – Common Crawl e BookCorpus – che contengono una moltitudine di pagine web, articoli, post pubblicati sui social media, ma anche libri di narrativa e saggistica, utilizzando un metodo chiamato Reinforcement Learning from Human Feedback (RLHF). Questa modalità di addestramento prevede il miglioramento continuo del modello attraverso feedback umani in modo iterativo. 

Questo processo di addestramento è stato introdotto da OpenAI al fine di migliorare da un lato la generazione del testo prodotto, ma soprattutto per limitare la generazione di contenuti “pericolosi”, sia in termini etici, che in termini di esposizione di ChatGPT su eventuali posizioni faziose o non equilibrate.  

L’AI generativa, di cui Chat GPT è l’esempio più noto, apre a una moltitudine di opportunità per le aziende in tutte quelle attività che richiedono la comprensione o la generazione di contenuti in linguaggio naturale in funzione di obiettivi e necessità specifiche, oppure la generazione di immagini originali partendo da un comando testuale (ad esempio DALL-E 2).

A seconda dei casi, gli strumenti di A.I. generativa possono essere adottati con un approccio più operativo, per risolvere problemi semplici e operazioni pratiche, oppure più strategico, in termini più previsionali di visione e pianificazione. 

Nello specifico vediamo quindi alcuni ambiti di applicazione di questa tecnologia:

Marketing: dal copywriting e la stesura di testi, passando per il miglioramento della customer experience fino al supporto alla definizione di strategie commerciali;

IT & Operations: Miglioramento dei servizi di helpdesk, generazione di dati, scrittura e revisione di codice, definizione di stack tecnologico, creazione e revisione di processi, business intelligence;

Assistenti virtuali e Servizio clienti: Interazione con clienti e utenti per fornire informazioni e rispondere alle domande, integranti in siti web, app e altre piattaforme

Human Resources & Legal: supporto nell’assesment dei candidati, nella formulazione delle interview, nella revisione legale dei documenti e nella scrittura di nuovi contratti, nell’individuazione dei rischi e degli impatti regolatori.

In generale è importante tenere in considerazione come uno strumento come GPT non vada a sostituire i sistemi di automazione o gli assistenti virtuali esistenti, ma possa essere visto in aggiunta a questi ultimi per migliorarne e potenziarne le capacità. Tuttavia, è prevedibile che l’AI generativa possa velocemente cambiare le modalità in cui vengono progettati gli assistenti virtuali, dotandoli di un livello di empatia e copertura del dominio che attualmente è raggiungibile solo con un grande effort in termini di design del dialogo e di sviluppo. 

Inoltre, nonostante la release di GPT si configuri sicuramente come un evento dirompente nel mondo dell’intelligenza artificiale, è importante tenere conto dei possibili rischi nella sua implementazione ed effettuare attente valutazioni prima della loro applicazione in ambito business. Infatti, anche se i risultati prodotti dai modelli di intelligenza artificiale generativa risultano spesso molto convincenti, a volte le informazioni che generano sono semplicemente sbagliate o influenzate da bias intrinseci al modello o ai dati che sono stati usati per addestrarlo. Per questa ragione, è fondamentale che le organizzazioni che decidono di implementare modelli come GPT per la creazione di contenuti tengano conto dei rischi legali e reputazionali che comporta la pubblicazione involontaria di contenuti tendenziosi, offensivi e/o protetti da copyright. Gli assessment devono quindi considerare almeno tre aspetti principali: 

  1. Copyright & biased content

La questione del copyright salta subito all’occhio se pensiamo che GPT è stato addestrato su dataset come Common Crawl, che contiene scraping di miliardi di pagine web, molte delle quali possono includere contenuti protetti da copyright. Ad oggi, OpenAI si sta impegnando a conformarsi alle norme sulla proprietà intellettuale, ad esempio utilizzando tecniche per filtrare il materiale protetto da copyright dai dati utilizzati per l’addestramento. Nonostante ciò, OpenAI stessa sottolinea come talvolta possano essere involontariamente utilizzati contenuti protetti da copyright nella creazione di contenuti. 

  1. Bias impliciti

Per quanto riguarda i bias impliciti, i dati utilizzati per addestrare il modello possono contenere pregiudizi, stereotipi o materiale offensivo e questo può talvolta manifestarsi nel testo generato. OpenAI sta implementando tecniche di filtraggio di contenuti potenzialmente dannosi e utilizza subset di dati diversificati per ridurre la presenza di bias del modello. Come per la generazione di contenuti protetti da copyright, nonostante gli sforzi per la produzione di AI etica e trasparente, Chat GPT può talvolta fornire risposte e informazioni contenenti pregiudizi o stereotipi.  

  1. Tutela della privacy e compliance

In generale, l’unico modo per insegnare a un’intelligenza artificiale a imitare gli esseri umani è quello di esporla a dati generati da esseri umani. E più dati si utilizzano per addestrare un modello, più i suoi risultati tendono a essere robusti. Cosa implica questo per le aziende? Per utilizzare al meglio le potenzialità bisognerà addestrare il modello sui dati aziendali. Potenzialmente questo può essere pericoloso in primis per la presenza di dati sensibili.  

Proprio su questo argomento la stessa OpenAI si dimostra sensibile sottolineando come i dati relativi alle conversazioni vengano utilizzati non solo per il miglioramento dei modelli, ma anche per migliorare la sicurezza dello strumento e la sua precisione anche in termini etici e di privacy.

Pertanto, per garantire la compliance aziendale è importante da un lato essere a conoscenza dei termini di utilizzo e della privacy policy di OpenAI e, dall’altro, delle procedure interne di gestione dei dati che ne garantiscono la conformità alle normative e alle politiche aziendali. Inoltre, le aziende dovrebbero considerare l’utilizzo dei dati sensibili solo se strettamente necessario, adottando misure di mascheramento e anonimizzazione.  

 

Il ruolo di Mauden 

Mauden è da anni impegnata nello sviluppo di progetti e soluzioni relativi al mondo del Natural Language Processing, e ha già introdotto alcune applicazioni pratiche di GPT all’interno della propria piattaforma di training per assistenti virtuali (Chatbot Trainer). 

Insieme ai nostri clienti siamo impegnati nello studio, nella sperimentazione e nell’implementazione di queste tecnologie su alcuni use case, che già dalle prime analisi stanno dando risultati sorprendenti. 

Come ormai è chiaro a tutti, siamo di fronte ad una vera e propria rivoluzione nell’ambito dell’AI, e per Mauden è importante accompagnare i propri clienti a conoscere tali tecnologie, cercando di far cogliere al meglio le nuove enormi opportunità offerte dall’AI generativa, ma nello stesso tempo assicurando un utilizzo della tecnologia che sia comunque sicuro, etico e conforme alle normative sulla privacy. 

Benedetta Di Castri
Business Analyst @ Data & Automation