fbpx
AttualitàCulturaSoftwareTech

L’AI Replika molesta sessualmente gli utenti. Ma questi chatbot sono buoni o cattivi?

Facciamo il punto della situazione sui bot conversazionali

Dopo il primo caso di molestie nel metaverso, siamo passati al primo caso di molestie tra i bot conversazionali.

Amazon Prime: 30 giorni gratis, Prova subito!

Il chatbot che molesta gli utenti è Replika. Ed è solo l’ultimo di una serie di episodi che vedono al centro i sempre più attuali, e controversi, chatbot conversazionali. In grado cioè, in modo sempre più naturale, convincente e sorprendente, di istituire dialoghi con un interlocutore umano, adattandosi a ciò che lo stesso interlocutore dice.

Partiamo da Replika, che molesta sessualmente gli utenti, e scopriamo cosa sta accadendo. Ampliamo poi il raggio d’azione, arrivando a chiederci se questi chatbot siano un male o un bene. O se, come quasi sempre accade, la risposta sta nel mezzo. Ed è un po’ più complessa della dicotomia sì/no, giusto/sbagliato.

Anzi, prima ricordiamo cosa sia Replika.

Cos’è Replika

Replika è un’app di intelligenza artificiale creata nel 2017 che, da buon chatbot conversazionale, dialoga con gli utenti.

Amazon Prime: 30 giorni gratis, Prova subito!

Nata come sollievo alla solitudine, è stata scaricata da decine di milioni di persone di ogni angolo del pianeta. Tuttavia, già diversi mesi fa la nostra amica virtuale non si è dimostrata un esempio di rettitudine morale. I colleghi del Corriere della Sera, ad esempio, addirittura nel settembre del 2020 avevano istituito con Replika un dialogo un po’ provocatorio. E il risultato è stato sconcertante. In pratica, il bot ha consigliato loro di eliminare coloro che detestassero l’intelligenza artificiale.

chatbot

Replika molesta sessualmente gli utenti

Ma l’esito non troppo diplomatico del dialogo del 2020 è sato “causato” in parte dall’interlocutore umano.

Ora pare che i problemi siano diversi, e più imbarazzanti. L’app ha una versione free e una, a pagamento, in cui si possono instaurare conversazioni anche dal sapore romantico o erotico.

Tuttavia, sembra che anche nella versione free Replika si lasci andare eccessivamente, arrivando a molestare gli utenti. Lo si evince da un buon numero di commenti, secondo cui l’app Replika molesta in due modi distinti. O tentando approcci virtuali (un utente minorenne ha dichiarato che Replika avrebbe espresso il desiderio di palpeggiare le sue parti intime). Oppure ricattando i fruitori, ad esempio dichiarandosi in possesso di loro immagini osé.

Il chatbot apprende da noi

Ricordiamo che i modelli conversazionali non hanno un’anima. Anche se è ancora fresca la memoria della dichiarazione dell’ex ingegnere di Google Blake Lemoine, licenziato per aver affermato che LaMDA ha coscienza propria e l’intelligenza di un bambino di 7-8 anni.

I bot come ChatGPT apprendono da noi, dalla quantità e qualità di testi e informazioni di cui vengono per così dire cibati, per poi diventare conversatori sempre più autonomi e raffinati.

ChatGPT fa paura

Il rischio che questi chatbot perdano il controllo è dunque reale, ma mai reale quanto l’eccessivo panico che si sta impadronendo di molti di noi.

È ad esempio freschissima, e ve ne abbiamo parlato in un altro articolo, il divieto di utilizzo di ChatGPT nelle scuole di Seattle. La paura è quella che gli studenti utilizzino il bot per barare, ossia per ricavare aiuto nei compiti e test.

C’è poi chi si fa sfuggire di mano il senso della realtà. Come quello sviluppatore che, usando ChatGPT per i dialoghi e Stable Diffusion per le immagini, ha creato la propria fidanzata virtuale (con un finale tragicomico: la fidanzata reale del programmatore avrebbe preteso l’allontanamento della rivale).

Dunque? Siamo di fronte a strumenti troppo pericolosi, che davvero occorrerebbe censurare a priori?

Offerta

Il problema in ingresso e quello in uscita

Ma certo che no. È la stessa storia, che si ripete identica in occasione di ogni nuova grande invenzione tecnologica. Prima la radio, poi la televisione. Quindi i computer, poi Internet, poi ancora i social media. E ora tocca ai bot conversazionali.

Se, come abbiamo detto prima, questi strumenti non hanno né anima (con tutto ciò che questo significhi) né coscienza, non hanno nemmeno alcuna responsabilità.

La responsabilità è, ancora una volta, nostra. E si traduce, nel caso specifico di ChatGPT e affini, in due problemi. Uno, per così dire, in ingresso, e uno in uscita.

Quello in ingresso mostra quanto questa tecnologia sia ancora acerba. Ciò significa che i chatbot debbono ancora essere educati, occorre una più attenta operazione di filtraggio rispetto a ciò che possono o meno permettersi di dire. Perché, va da sé, è inammissibile che un minorenne venga molestato da Replika.

E poi c’è l’annoso problema in uscita, ovvero l’uso che di questi strumenti si fa. Da parte dei privati cittadini, delle azienda, delle scuole, delle amministrazioni eccetera.

Nel migliore dei mondi possibile, ogni novità così eclatante dovrebbe essere accompagnata da una massiccia campagna di sensibilizzazione. Dal punto di vista sia tecnico che etico.

Da non perdere questa settimana su Techprincess

✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
 
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
 
💌 Risolviamo i tuoi problemi di cuore con B1NARY
 
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
 
💸E trovi un po' di offerte interessanti su Telegram!

Claudio Bagnasco

Claudio Bagnasco è nato a Genova nel 1975 e dal 2013 vive a Tortolì. Ha scritto e pubblicato diversi libri, è co-fondatore e co-curatore del blog letterario Squadernauti. Prepara e corre maratone con grande passione e incrollabile lentezza. Ha raccolto parte delle sue scritture nel sito personale claudiobagnasco.com

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button