X
<
>

Condividi:
3 minuti per la lettura

FINO a qualche mese fa l’intelligenza artificiale sembrava un argomento da addetti ai lavori, ma le sue possibili applicazioni stanno vivendo un momento di grazia senza precedenti. È doveroso premettere che le potenzialità delle applicazioni di intelligenza artificiali sono tantissime e vanno dalla robotica al marketing, dalla sanità alla cybersicurezza, passando per l’industria 4.0 e i chatbot. Il primo boom ha riguardato i generatori di immagini, capaci di generare arte dall’inserimento di parole chiave oppure testi. Tra tutti, spicca DALL-E2, sviluppato da OpenAI sul modello CLIP (Computational Linguistics for Information Processing) e in grado di creare illustrazioni o progettare prodotti in pochi secondi.

L’interfaccia, facile e intuitiva, permette di editare immagini già esistenti, crearne in alta risoluzione e ottenere variazioni su quelle create dagli utenti. Interessante è anche l’esperienza di Midjourney, algoritmo di intelligenza artificiale text to image eseguito sulla piattaforma Discord. È sufficiente inserire il prompt (comando) all’interno di un canale pubblico, attendere qualche secondo per l’elaborazione dell’immagine e infine scaricarla. A differenza di DALL-E, Midjourney dà il meglio nella creazione di ambientazioni o personaggi basati sull’imitazione di tendenze oppure artisti specifici. Nelle ultime settimane, invece, il settore che ha visto il maggiore impatto è quello dei generatori di testi grazie a ChatGPT. Sviluppato anch’esso da OpenAI, è un chatbot progettato per rispondere a domande, eseguire debug di codice, scrivere saggi, riassunti o testi specifici come una canzone oppure un’e-mail.

Basato su algoritmi di apprendimento automatico del linguaggio naturale noti come LLM (Large Language Model), ChatGPT analizza enormi quantità di dati da cui deduce i pattern tra una parola e l’altra e “scrive” le risposte. All’aumentare delle dimensioni dei dataset di input e dello spazio dei parametri, aumentano anche le capacità dei modelli LLM. Il modello è stato costruito e messo a punto con GPT-3.5, ma proprio nei giorni scorsi OpenAI ha presentato la nuova versione, GPT-4. La distinzione tra le due può sembrare sottile, ma GPT-4 è stata presentata come più creativa, in grado di gestire istruzioni più complesse e, soprattutto, più affidabile. Nello specifico, la nuova versione si caratterizza per la multimodalità: sarà infatti in grado di accettare sia input testuali che di immagini e di fornire output di testo. GPT-4 genererà, inoltre, stringhe di testo più lunghe, ha l’82% di probabilità in meno di rispondere a richieste di contenuti non consentiti, il 40% in più di probabilità di produrre risposte concrete rispetto al modello precedente e porta con sé nuove opzioni di controllo, quali la possibilità di impostare uno stile o un tono specifico.

Alla luce delle progressive, veloci e importanti innovazioni in materia di intelligenza artificiale, viene da chiedersi quali siano i rischi di questi applicativi. Sistemi come ChatGPT esistono da tempo, sono ampiamente utilizzati e sono stati addestrati a riconoscere temi predefiniti: per esempio, non darà mai risposte a domande a sfondo misogino o razzista, ma non dobbiamo dimenticare che i limiti vengono dai dati inseriti e dallo sviluppo stesso di questi applicativi. Allenandosi sui dati che si trovano in Rete, potrebbero generare risposte non corrette per colpa, per esempio, delle fake news oppure i risultati visivi potrebbero essere realistici, ma non reali. È fondamentale continuare a lavorare per ridurre rischi del genere ed evitare le polarizzazioni. Emblematico è il caso del sistema di recruitment di Amazon, addestrato a riconoscere i candidati “ideali” in base ai dati degli ultimi 10 anni di assunzione da parte dell’azienda stessa. I profili assunti erano per lo più uomini e il sistema aveva “imparato” a non assumere le donne. Lo stesso vale per il sistema utilizzato negli USA per valutare la possibilità di recidive delle persone in carcere: la decisione veniva erroneamente polarizzata sulla razza.

Errori del genere accadono perché l’intelligenza artificiale impara dall’uomo, apprendendone anche i pregiudizi e i bias: alla comunità scientifica spetta il compito di individuare ed eliminare queste polarizzazioni. L’altro rischio diffuso è legato al timore che le macchine possano sostituire, un giorno, il lavoro dell’uomo: ebbene, la creatività, per nostra fortuna, non potrà mai rientrare nei dati di input e i creativi potranno dormire ancora sonni tranquilli.


La qualità dell'informazione è un bene assoluto, che richiede impegno, dedizione, sacrificio. Il Quotidiano del Sud è il prodotto di questo tipo di lavoro corale che ci assorbe ogni giorno con il massimo di passione e di competenza possibili.
Abbiamo un bene prezioso che difendiamo ogni giorno e che ogni giorno voi potete verificare. Questo bene prezioso si chiama libertà. Abbiamo una bandiera che non intendiamo ammainare. Questa bandiera è quella di un Mezzogiorno mai supino che reclama i diritti calpestati ma conosce e adempie ai suoi doveri.  
Contiamo su di voi per preservare questa voce libera che vuole essere la bandiera del Mezzogiorno. Che è la bandiera dell’Italia riunita.
ABBONATI AL QUOTIDIANO DEL SUD CLICCANDO QUI.

Condividi:

COPYRIGHT
Il Quotidiano del Sud © - RIPRODUZIONE RISERVATA

EDICOLA DIGITALE