I modelli di intelligenza artificiale generativa stanno impattando in modo dirompente su più livelli del business e le prime applicazioni iniziano a fare breccia nella nostra quotidianità.

E’ difficile immaginare tutte le opportunità e le implicazioni che potrebbero generare ma i più recenti sviluppi sono destinati a ribaltare le regole del gioco in molteplici settori chiave, in primis l’industria creativa. Dalla creazione di contenuti fino al modo in cui ci interfacciamo con la tecnologia e interagiamo tra di noi.

Attualmente le applicazioni di intelligenza artificiale generativa possono creare contenuti di ottima qualità sotto forma di testo o immagini come blog post, stringhe di codice, poesie e opere d’arte in formato digitale. D’altronde è lo stesso GPT-3 a dircelo: ecco cosa ha risposto alla domanda “How adept is this technology at mimicking human efforts at creative work?”

1. Automated content generation: Large language and image Al models

can be used to automatically generate content, such as articles, blog

posts, or social media posts. This can be a valuable time-saving tool for

businesses and professionals who create content on a regular basis.

2. Improved content quality: Al-generated content can be of higher

quality than content created by humans, due to the fact that Al models

are able to learn from a large amount of data and identify patterns that

humans may not be able to see. This can result in more accurate and

informative content.

3. Increased content variety: Al models can generate a variety of content

types, including text, images, and video. This can help businesses and

professionals to create more diverse and interesting content that

appeals to a wider range of people.

4. Personalized content: Al models can generate personalized content

based on the preferences of individual users. This can help businesses

and professionals to create content that is more likely to be of interest to

their target audience, and therefore more likely to be read or shared.

I LLM (Large Language Model) sono stati introdotti in Google Brain nel 2017 dove, inizialmente, sono stati utilizzati per la traduzione di parole con l’obiettivo di preservare il contesto e le sfumature di significato. Da allora le principali aziende tecnologiche hanno investito su questi sistemi, tra cui Google (BERT e LaMDA), Facebook (OPT-175B, BlenderBot) e OpenAI (GPT-3, DALL-E2 e Whisper). Ma anche laboratori di ricerca indipendenti come Midjourney hanno creato i loro modelli generativi. In una prima fase questi sistemi sono stati in gran parte confinati all’interno delle grandi aziende tecnologiche, perché l’addestramento dei modelli generativi richiede sia enormi quantità di dati sia potenza di calcolo. Ma una volta addestrato, un sistema può essere ottimizzato per un particolare dominio con una quantità di dati nettamente inferiore. Questo ha portato alla nascita di modelli specializzati in specifici contesti operativi.

Tuttavia, per utilizzare in modo efficace l’AI generativa e sbloccare così il suo enorme potenziale, è comunque necessario il coinvolgimento umano durante l’intero processo di creazione.

Innanzitutto un essere umano deve inserire un comando in input per dare la possibilità al modello generativo di creare un particolare contenuto. Poi, una volta che il modello sull’indicazione impartita genera la prima versione, questa dovrà essere valutata e modificata con ulteriori suggerimenti per raggiungere il risultato che soddisfi qualitativamente l’operatore. E’ un processo che si sviluppa reiteratamente. Jason Allen, artista che ha vinto il concorso “Digitally Manipulated Photography” con l’aiuto di Midjourney, ha raccontato di aver trascorso più di 80 ore per realizzare più di 900 versioni della sua opera digitale.

I modelli di AI generativa sono incredibilmente adattabili. Possono accettare in input contenuti come immagini, formati di testo lunghi, e-mail, registrazioni vocali, codice sorgente e dati strutturati. E possono produrre nuovi contenuti, traduzioni, risposte a domande, analisi del sentiment e persino video.

Possiamo definirle delle macchine universali per la generazione di contenuti con infinite potenzialità e svariate applicazioni nel mondo del business. Vediamo alcune delle principali.

Marketing

Come detto questi modelli generativi sono utili per soddisfare diverse funzioni aziendali, ma le applicazioni lato marketing sono ad oggi le più diffuse. Jasper, ad esempio, una versione di GPT-3 ottimizzata per la creazione di contenuti a supporto del marketing, può produrre article blog, post sui social media, testi per il web, e-mail di vendita, annunci e altri tipi di contenuti. La maggior parte dei clienti che utilizza Jasper sono privati e piccole imprese, ma anche le grandi aziende si stanno muovando in questa direzione con l’obiettivo di potenziare la propria strategia di content marketing. Ad esempio, DALL-E 2 e altri strumenti di generazione di immagini vengono utilizzati per la pubblicità da colossi come Heinz, Stitich Fix e Nestle. A dimostrazione del fatto che sempre più aziende iniziano a sfrutture le potenzialità di questi sistemi per migliorare il modo in cui comunicano con i propri clienti.

Assistente virtuale per la scrittura di codice

GPT-3 ha dimostrato di essere  efficace, anche se non perfetto, nell’assistere i developer mentre creano codice di sviluppo. Il programma Codex di GPT-3 – specificamente addestrato per questo fine – può produrre codice supportando la maggior parte dei linguaggi di programmazione. Anche su Github di Microsoft è disponibile una versione di GPT-3 per la generazione di codice, chiamata CoPilot. Le versioni più recenti di Codex sono ora in grado di identificare i bug e correggere gli errori nel proprio codice. L’obiettivo ovviamente non è quello di sostituire i programmatori in carne e ossa, ma di far sì che strumenti come Codex o CoPilot supportino i developer per migliorarne velocità ed efficacia. Infatti, in un esperimento pilota di sei settimane condotto da Deloitte che ha impegnato 55 programmatori, si è visto come l’utilizzo di questi strumenti ha aumenatato del 20% la velocità di scrittura del codice.

Chatbot e operatori virtuali

I LLM sono sempre più utilizzati come base dell’AI conversazionale o dei chatbot, perché offrono maggiori livelli di comprensione della conversazione e di consapevolezza del contesto. BlenderBot di Facebook, ad esempio, è in grado di sostenere lunghe conversazioni con gli esseri umani rispettando il contesto del dialogo. BERT di Google viene utilizzato per comprendere le query di ricerca ed è il modello alla base di DialogFlow, piattaforma per la creazione di applicazioni di conversazione vocale e di testo. LaMDA, l’interfaccia conversazionale di Google, è capace di interagire ed esprimersi liberamente durante un dialogo, spaziando potenzialmente su qualsiasi argomento oggetto di discussione. Questo sistema ha intrattenuto delle conversazioni così realistiche che hanno convinto uno degli ingegneri dell’azienda a sostenere che si trattasse di un essere senziente.

Questi pochi esempi applicativi sono solo un piccolo assaggio di ciò che l’AI generativa può fare per le organizzazioni e le persone.

Presto, probabilmente, questi sistemi potrebbero creare la maggior parte o la totalità dei nostri contenuti spingendoci a rivedere strumenti, schemi e processi con cui i lavori creativi vengono portati a compimento.