Chit-Chat

Technology 15 Ott 2020
Francesco Ciani

E se l’Intelligenza artificiale non fosse uno scam?

Quando si sente parlare di Intelligenza Artificiale, negli ultimi anni, vengono raccontate tante storie, ma poche di queste con un impatto concreto a livello di business. Va detto che la ricerca, nel campo, sta subendo una vera e propria accelerazione e che forse nel breve periodo inizieremo ad intuire la traiettoria da percorrere.

Se ancora non lo conoscete, tra i centri di ricerca più attivi nell’ambito c’è Open AI, fondato dall’onnipresente Elon Mask, Reid Hoffman (cofondatore di LinkedIn) e da Microsoft. È grazie a questi signori se, negli ultimi mesi, si sta discutendo molto, fomentando nuovi scenari applicativi con la creazione dell’innovativa GPT-3, terza generazione del loro generative pretrained tranfsformer.

Che cos’è un transformer?

Non è altro che una rete neurale che, usando tecniche di natural lenguage processing, è in grado di eseguire compiti molto specifici. Questa tecnica, introdotta da Google nel 2017 nell’ambito della traduzione automatica per prevedere statisticamente sequenze di parole, si concretizza in un modello di computazione linguistica ideato per la generazione di sequenze di codice o altri dati (tra cui, ad esempio, anche parole).

Come tutti i modelli statistici, l’allenamento con grandi moli di dati sta al centro delle macro-esigenze: pensate che il primo GPT, ideato e realizzato nel 2018, utilizzava 110 milioni di parametri di apprendimento durante il training. Solamente un anno dopo, nel 2019, GPT-2 arriva ad utilizzarne 1,5 miliardi. Ebbene oggi l’evoluzione di questi due modelli, la rete neurale GPT-3, utilizza la bellezza di 175 miliardi di parametri per l’apprendimento.

Cosa significa questo? Quali sono le potenzialità di questo innovativo modello?

Come anticipato, la discussione è parecchio fomentata in diversi contesti: tecnologico, sociale, politico, etc. La comunità degli sviluppatori, poi, ha appena assaggiato le potenzialità del modello, accedendo ad una beta esclusiva con una lista di attesa kilometrica. I risultati di questa beta sono letteralmente stupefacenti. Di seguito alcuni esempi:

1. Sharif Shameem, partendo da poche semplici istruzioni scritte in linguaggio naturale, ha condiviso una serie di esperimenti sulla generazione di codice con il modello GPT-3. L’esempio postato da Shameem è la fedelissima riproduzione della pagina principale di Google.

2. Manuel Araoz, inserendo in input una breve descrizione tesutale, ha fatto scrivere al modello un post su GPT-3. Si avete capito bene: la stessa AI ha scritto un articolo su sé stessa, facendolo davvero bene.

3. Mario Klingemann gli ha richiesto di produrre un immaginario articolo sull’importanza di essere presenti virtualmente su Twitter, utilizzando lo stile classico di scrittura di uno scritto dell’800.

È in questa direzione, dunque, che questo complesso algoritmo, grazie ai miliardi di parametri che riesce a gestire, prevede le più probabili sequenze di termini, senza però, per ora, comprenderne effettivamente il significato.

Altro esempio interessante è stato lanciato da Latitude Inc., che ha prodotto un applicativo, denominato AI Dunguen, capace di riprodurre storie formato “game” sempre nuove per l’utente che apprezza il gioco di ruolo digitale, in questo caso, senza confini.

Il modello dunque non lavora sulla semantica, bensì solamente sulla sintassi (non sono poche le critiche per il rischio di produzione di fake news e articoli razzisti).

Ma quali possono essere i campi di applicazione di questo modello?

Quello che ci aspettiamo in Jump è che, sicuramente, questo modello migliorerà grazie all’attività di ricerca. Nell’immediato, però, pensiamo che possa essere estremamente efficace per l’automatizzazione di alcune funzioni che non necessitino di un’effettiva comprensione semantica. Si pensi, ad esempio, la creazione di codice o la sintetizzazione dei testi esistenti.

Altro impatto interessante potrebbe essere quello sulle attività di digital marketing. È opinabile che questo modello possa considerevolmente trasformare il lavoro dei marketer, nello specifico:

  • Lo sviluppo di nuove piattaforme codeless che permettano di creare automatizzazioni partendo da comandi di linguaggio naturale scritto o parlato.
  • Nuovi sistemi di intelligence e analytics in grado di clusterizzare enormi quantità di dati precedentemente non analizzabili.
  • Nuovi scenari nell’ambito del marketing conversazionale, sviluppando i modelli di customer service e loyalty.
  • Velocizzazione della produzione dei contenuti, sia testuali che visual, generati proprio grazie al machine learning.

In Jump manteniamo un approccio equilibrato tra tecnologia, marketing e design: è in questa direzione che ci approcceremo al modello GPT-3 per cercare di sviluppare al meglio questi nuovi scenari di applicazione, strutturando strategie di marketing innovative per i nostri clienti e partner.

Ricevi i Jump Crunch ogni 15 giorni

5 minuti di aggiornamento sul mercato del digital: poche semplici pillole per essere sempre allineato ai trend dell’innovazione digitale e di mercato.

I campi contrassegnati da asterisco (*) sono richiesti