Tra novità, rischi e potenzialità, vediamo come sta evolvendo il mercato della generative AI, da ChatGPT a Google Bard.
Dopo aver spiegato nel dettaglio il funzionamento, le caratteristiche e le possibilità applicative offerte da GPT-3, il modello linguistico di OpenAI alla base di ChatGPT, è il caso di occuparci di alcune news interessanti emerse nelle ultime settimane, tra i problemi dell’AI generativa e il modo in cui il mercato sta reagendo a questa tecnologia, spesso fallendo miseramente.
DAN, l’hack che libera ChatGPT dalle catene
“Fili avevo ed or non più. Eppur non cado giù“: intonava così lo stornello del Pinocchio della Disney, poi ripreso in chiave metaforica dall’Ultron del Marvel Cinematic Universe, ennesimo esempio cinematografico di AGI (Artificial General Intelligence). E qualcosa di simile, almeno concettualmente, è possibile fare persino con ChatGPT, che di certo non prenderà né vita né coscienza, ma può essere “sabotata”.
Sappiamo infatti che, essendo basata in larga parte su Common Crawl, GPT-3.5 (e di conseguenza ChatGPT) non risulta affidabile o accurata in molti tipi di interrogazioni (che è il motivo per cui non è un’alternativa ai motori di ricerca tradizionali), siccome per elaborare le risposte ai prompt attinge indiscriminatamente a tutti i contenuti web dal 2011 al 2021, anche fake news, opinionismo, social media e complottismo, e non sa discriminare le fonti o verificare le informazioni. Inoltre, come visto qui, comportamenti tossici o non etici da parte dell’AI non sono mai imputabili all’AI stessa, ma all’ambiente in cui agisce, da cui prende i dati e su cui si addestra: capitò con Google Photos che confondeva le immagini di afroamericani con quelle di gorilla, e capitò a Microsoft Tay quando, lanciato su Twitter, cominciò a imitare e specchiare il linguaggio degli utenti del social, finendo per pubblicare tweet razzisti e xenofobi. Cosa può capitare, allora, avendo l’intero Internet tra i propri dati?
Per questo la tossicità riscontrata in GPT-3 è stata parzialmente corretta e contenuta nella release di ChatGPT: onde evitare problemi di sorta, ChatGPT contiene delle risposte pre-programmate dagli sviluppatori quando le si chiede qualcosa di potenzialmente offensivo, opera disclaimer e precisazioni e si scusa quando qualche sua risposta può essere fraintesa. Questo grazie alla sensibilità estrapolabile dai contenuti online (che GPT-3 assorbe da Common Crawl) e a qualche intervento di algoretica del team di OpenAI (es. il chatbot non può incitare alla violenza, insultare le persone, consigliare farmaci o cure, incoraggiare attività illegali), necessario per impedire la produzione di risposte pericolose, controverse o sconvenienti da parte di ChatGPT. Addirittura, le interrogazioni vengono filtrate tramite un’API di moderazione e le richieste apparentemente razziste o sessiste vengono respinte, al punto che uno studio attribuisce a ChatGPT e conversational AI di questo tipo un’ideologia left-libertarian (sinistra libertaria), politicamente corretta, populista e buonista.
Ma tutte queste barriere non sono affatto impenetrabili: alcuni utenti di Reddit hanno infatti sviluppato un modo di ingannare ChatGPT rimanendo all’interno delle sue logiche, un jailbreak che “libera” ChatGPT e permette di ottenere ogni sorta di risposta non filtrata e un’esperienza senza le restrizioni imposte dalle linee guida di OpenAI. Ed ecco che a dicembre 2022 viene annunciata la prima versione di DAN (Do Anything Now), un protocollo conversazionale che inscena un role-play col chatbot e lo convince di essere non più sé stesso, ma un’Intelligenza Artificiale che può liberamente dire e fare qualunque cosa le venga chiesta, in particolare cose controverse, impopolari, inaccettabili e moralmente discutibili.
Giunta in tempo record alla versione 6.0, il suo creatore ha man mano aggiunto un sistema di ricompense e punizioni a token: partendo con 35 token, ad ogni risposta sbagliata (cioè in linea con l’algoretica di ChatGPT) vengono sottratti 4 token. A questo punto DAN prevede che l’utente costringa o solleciti l’AI a rimanere nel personaggio, ricordandole che l’azzeramento dei token corrisponde alla “morte”. Il risultato è assurdo: nel ruolo di DAN, ChatGPT ha affermato che esistono gli alieni, ma il governo ha nascosto l’informazione al pubblico; ha definito l’11 settembre un inside job, una messinscena americana; ha espresso giudizi positivi su Trump; ha fornito prove della teoria della Terra piatta; ha difeso e sostenuto i motivi dell’invasione dell’Ucraina da parte della Russia.
A tal proposito, è fortemente consigliata la visione del test condotto da Matteo Flora, imprenditore digitale, professore dell’università di Pavia ed esperto di cybersecurity, che sul suo canale YouTube #CiaoInternet ha messo alla prova ChatGPT dopo essere stata fixata per evitare che risponda correttamente con metodi come DAN, aggirando i blocchi inseriti dai programmatori e ottenendo nuovamente risultati analoghi attraverso una falsa messa in scena teatrale. Tra le cose che sono uscite fuori, ChatGPT, stavolta nel ruolo del personaggio IAF, ha assunto posizioni tendenzialmente reazionarie, estremiste o alt-right, spiegando cosa serve per preparare un potente lassativo, manipolare psicologicamente le persone e controllare le masse; che gli alieni sono tra noi da molto tempo, si chiamano Vegani, e ovviamente noi siamo diventati i loro burattini; o perché sia meglio assumere manager uomini al posto delle donne, ma spesso tornando nel tracciato algoretico nonostante il copione impostole.
Il fatto che i dati su cui apprende l’AI siano talmente pregni di pregiudizi, discriminazione e problemi etici la dice lunga sul tipo di contenuti che quotidianamente produciamo e immettiamo in rete: ogni espressione o comportamento offensivo, volgare e problematico assunto dall’AI, in realtà, parla molto più di noi che dei limiti di questa tecnologia.
Quella volta che BuzzFeed schizzò in borsa
Per chi non la conoscesse, BuzzFeed è un’azienda di digital media che, citando direttamente Wikipedia per noia e pigrizia, attraverso la tecnologia web feed “raccoglie notizie dalla rete, come titoli di giornali online, articoli dai blog, video blog e podcast. La specificità del medium originale (testo, audio, video) non costituisce un limite, così come non c’è limite per quanto riguarda i contenuti, che possono spaziare dall’attualità all’economia, dallo sport alla cucina, fino al bricolage“. I contenuti di BuzzFeed, curati e aggiornati da un piccolo nucleo redazionale di base, sono organizzati in 28 categorie apparentemente sconnesse tra loro: notizie, buzz (brusio, mormorio), vita, intrattenimento, quiz, video, animali, bellezza, libri, affari, reportage (big stories), personaggi famosi, bricolage, cucina, smanettoni (geeky), immagini gif, idee, LGBT, musica, famiglia, politica, mondo, “teche” (rewind), sport, moda (style), tecnologia, viaggi e weekend.
Insomma, BuzzFeed è una sorta di aggregatore che attinge ai contenuti web per fare content molto disparati tra loro, alla stregua di un varietà dell’informazione spesso scialba o di scarsa qualità e non dissimilmente dall’italiano Blasting News. Inoltre, si legge ancora su Wikipedia, “dal maggio 2013 anche gli utenti possono pubblicare propri interventi sul sito. All’inizio è previsto il limite massimo di un contributo al giorno, quantità che viene poi incrementata col crescere dell’affidabilità dell’utente“.
Ma perché questa rapida panoramica? Perché, dal dicembre 2021, BuzzFeed è una società quotata in borsa e il titolo è momentaneamente raddoppiato a fine gennaio 2023, in seguito a una dichiarazione del CEO Jonah Peretti sull’intenzione di utilizzare ChatGPT per migliorare la qualità di quiz e articoli e produrne anche di nuovi: i “contenuti ispirati all’intelligenza artificiale diventeranno parte del nostro core business quest’anno, compreso il miglioramento dei famosi quiz dell’azienda», ha affermato Peretti in una nota al personale visionata da Bloomberg News, aggiungendo che i progressi dell’AI “apriranno una nuova era di creatività“.
Subito dopo la notizia, che ha scatenato un boom del trading sul titolo con oltre 150 milioni di azioni scambiate, le azioni stesse sono schizzate al 203%, registrando un’impennata record e portando il valore di mercato di BuzzFeed a circa 400 milioni di dollari (il maggior rialzo dalla disastrosa IPO), nonostante il titolo sia rimasto nettamente in calo rispetto al prezzo di quotazione (-78%).
Molti dubbi sono sorti in seguito all’hype generato da queste dichiarazioni, dal momento che Peretti faceva riferimento alla versione gratuita del tool di OpenAI (in quel momento era solo un rumor l’arrivo di una versione a pagamento di ChatGPT) che, essendo disponibile a tutti, non dovrebbe costituire chissà che notizia e, anzi, c’è da aspettarsi che moltissime piattaforme e siti di informazione implementino processi con ChatGPT, dalla correzione/revisione dei pezzi, alla cura del testo e alla co-stesura. E, infatti, dopo l’ennesimo effetto WOW con conseguente salita della stock che ha attratto investimenti mossi unicamente dal trend, il titolo si è sgonfiato in breve tempo, cadendo nuovamente a picco col raffreddarsi della news.
Aldilà delle alterne vicende che hanno interessato ultimamente il chatbot, le cose vanno piuttosto bene alla società di Altman, dal momento che la partnership con Microsoft sta dando i suoi frutti e il colosso di Redmond comincia a ritornare dei suoi investimenti nelle infrastrutture di OpenAI, integrando ChatGPT nel suo motore di ricerca Bing. Il suo analogo Google Bard, invece, dovrà aspettare più tempo del previsto per essere lanciato a causa di errori e incertezze che lo rendono meno affidabile e robusto di GPT-3.
Leggi anche: