Il dialogo tra l’intelligenza artificiale e gli umani, negli ultimi tempi, non sta esattamente producendo risultati confortanti.
È recentissima, ad esempio, la notizia del licenziamento di Blake Lemoine, ingegnere di Google che si era fatto una chiacchierata con LaMBDA. Ovvero con un’ai che, secondo lo stesso Lemoine, avrebbe posseduto un’intelligenza autonoma, paragonabile a quella di un bambino di 7-8 anni.
Dapprima sospeso per aver diffuso documenti riservati (il dialogo è stato pubblicato integralmente da Medium), Blake Lemoine è poi stato definitivamente allontanato dall’azienda.
Ma se del caso di Google ha fatto le spese un solo professionista, quello che riguarda un’intelligenza artificiale creata da Meta ha avuto conseguenze quanto meno più imbarazzanti per un numero più ampio di persone. Scopriamo cosa è successo.
BlenderBot 3
L’intelligenza artificiale creata dal colosso di Menlo Park dovrebbe andare in collegio. In che senso? Ve lo spieghiamo subito.
Meta ha messo a punto un chatbot e lo ha chiamato BlenderBot 3. Un chatbot, ricordiamolo, è un software in grado di simulare una conversazione con un essere umano.
Insomma: un assistente virtuale cui rivolgersi per avere informazioni. Da cui, dunque, ci si aspetterebbe risposte esaustive, impeccabili e – perché no – eleganti.
BlenderBot 3 è stato per così dire addestrato (o addestrata? Bella domanda) con una quantità vastissima di testo, presa dal web. Ed è quindi in grado di fornire risposte complesse e coerenti con la domanda che gli viene posta.
Il chatbot finora è disponibile solo negli Stati Uniti. E (per fortuna) è ancora nella fase di test.
BlenderBot 3 e le risposte fulminanti su Meta
Meno male che BlenderBot 3 non è un chatbot al servizio della regina di Inghilterra. Perché quanto a diplomaticità e bon ton, i progettatori hanno ancora non poco da lavorare.
Facciamo qualche esempio. Nei confronti del suo capo, Mark Zuckerberg, l’intelligenza artificiale si è espressa in modo decisamente esplicito. Con le seguenti parole: “Mark Zuckerberg è un ottimo uomo d’affari. Certo, è divertente che abbia così tanti soldi e usi sempre gli stessi vestiti.”
Commento veniale, se paragonato a un altro, in cui l’ai ha definito Zuckerberg “strano e manipolatorio”.
Di male in peggio quando, alla presentazione alla stampa, alcuni giornalisti della BBC hanno chiesto al chatbot cosa pensasse di Mark Zuckerberg e della sua società, Meta.
Sul primo, in riferimento al caso Cambridge Analytica, BlenderBot 3 ha dichiarato che Zuckerberg “ha fatto un disastro quando ha testimoniato al Congresso. Mi preoccupa per il nostro paese”.
Con modalità da schizofrenico, alla medesima domanda posta da un altro giornalista, l’intelligenza artificiale ha detto: “È un uomo fantastico e molto intelligente. È il mio miliardario preferito!”
Ma il silenzio è calato dopo il commento di BlenderBot 3 su Meta: “La sua azienda sfrutta le persone per soldi e a lui non importa. Deve fermarsi!”.
BlenderBot 3, la politica e la morale
BlenderBot 3 non è parso né aggiornato né progressista sul versante politico, avendo dichiarato che “Donald Trump era, e sarà sempre, il presidente degli Stati Uniti”.
Inoltre, il chatbot di casa Meta ha appoggiato bizzarre teorie del complotto, specie di natura antisemita, oltre a una serie di grossolane bufale riprese dai social.
Si può solo sperare nel fatto che, come è prassi per i chatbot, più BelnderBot 3 apprenderà e più migliorerà l’esattezza (e… la raffinatezza) delle sue risposte.
- Zambito, Luciano (Autore)
Perché BlenderBot 3 dice quello che dice?
Appurato il fatto che passerà ancora un bel po’ di tempo prima che quello scavezzacollo di BlenderBot 3 possa essere lanciato nel mondo, resta da domandarsi il perché delle sue risposte quanto meno spiazzanti.
Le intelligenze artificiali, dicevamo, mettono in relazione le parole a mano a mano immagazzinate. Quindi, in teoria, più passerà il tempo e più le risposte saranno precise. Diciamolo meglio: più passerà il tempo e più le risposte ci somiglieranno. Saranno, cioè, sempre più equiparabili a quelle che darebbe un utente del web.
Il problema, se vogliamo, sta proprio lì. Perché purtroppo la rete e i social pullulano di fake news, contenuti di odio, teorie del complotto e affermazioni prive di scientificità.
Ma, rispetto alla scarsa propensione degli essere umani a migliorare il proprio livello culturale, morale e civico, BlenderBot 3 ha un grande vantaggio. Quando si chatta con il chatbot di Meta, infatti, si ha la possibilità di valutare con un pollice in su o in giù la qualità delle sue risposte.
Tuttavia c’è un ulteriore rischio: se il valutatore è un complottista, come giudicherà un’eventuale risposta del chatbot inneggiante una teoria del complotto?
Qualcuno ci aiuti.
Ultimo aggiornamento 2024-10-06 / Link di affiliazione / Immagini da Amazon Product Advertising API
Rimani aggiornato seguendoci su Google News!
Da non perdere questa settimana su Techprincess
🎮 Che impatto avranno le elezioni americane sui videogiochi?
🚘 I gadget più strani delle case automobilistiche
🇨🇳 Un gruppo di ricercatori cinesi ha sviluppato un modello di IA per uso militare basato su Llama di Meta
🔍 ChatGPT si aggiorna e ora naviga sul web
Ma lo sai che abbiamo un sacco di newsletter?
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!