Dopo il primo caso di molestie nel metaverso, siamo passati al primo caso di molestie tra i bot conversazionali.
Amazon Prime: 30 giorni gratis, Prova subito!
Il chatbot che molesta gli utenti è Replika. Ed è solo l’ultimo di una serie di episodi che vedono al centro i sempre più attuali, e controversi, chatbot conversazionali. In grado cioè, in modo sempre più naturale, convincente e sorprendente, di istituire dialoghi con un interlocutore umano, adattandosi a ciò che lo stesso interlocutore dice.
Partiamo da Replika, che molesta sessualmente gli utenti, e scopriamo cosa sta accadendo. Ampliamo poi il raggio d’azione, arrivando a chiederci se questi chatbot siano un male o un bene. O se, come quasi sempre accade, la risposta sta nel mezzo. Ed è un po’ più complessa della dicotomia sì/no, giusto/sbagliato.
Anzi, prima ricordiamo cosa sia Replika.
Cos’è Replika
Replika è un’app di intelligenza artificiale creata nel 2017 che, da buon chatbot conversazionale, dialoga con gli utenti.
Amazon Prime: 30 giorni gratis, Prova subito!
Nata come sollievo alla solitudine, è stata scaricata da decine di milioni di persone di ogni angolo del pianeta. Tuttavia, già diversi mesi fa la nostra amica virtuale non si è dimostrata un esempio di rettitudine morale. I colleghi del Corriere della Sera, ad esempio, addirittura nel settembre del 2020 avevano istituito con Replika un dialogo un po’ provocatorio. E il risultato è stato sconcertante. In pratica, il bot ha consigliato loro di eliminare coloro che detestassero l’intelligenza artificiale.
Replika molesta sessualmente gli utenti
Ma l’esito non troppo diplomatico del dialogo del 2020 è sato “causato” in parte dall’interlocutore umano.
Ora pare che i problemi siano diversi, e più imbarazzanti. L’app ha una versione free e una, a pagamento, in cui si possono instaurare conversazioni anche dal sapore romantico o erotico.
Tuttavia, sembra che anche nella versione free Replika si lasci andare eccessivamente, arrivando a molestare gli utenti. Lo si evince da un buon numero di commenti, secondo cui l’app Replika molesta in due modi distinti. O tentando approcci virtuali (un utente minorenne ha dichiarato che Replika avrebbe espresso il desiderio di palpeggiare le sue parti intime). Oppure ricattando i fruitori, ad esempio dichiarandosi in possesso di loro immagini osé.
Il chatbot apprende da noi
Ricordiamo che i modelli conversazionali non hanno un’anima. Anche se è ancora fresca la memoria della dichiarazione dell’ex ingegnere di Google Blake Lemoine, licenziato per aver affermato che LaMDA ha coscienza propria e l’intelligenza di un bambino di 7-8 anni.
I bot come ChatGPT apprendono da noi, dalla quantità e qualità di testi e informazioni di cui vengono per così dire cibati, per poi diventare conversatori sempre più autonomi e raffinati.
ChatGPT fa paura
Il rischio che questi chatbot perdano il controllo è dunque reale, ma mai reale quanto l’eccessivo panico che si sta impadronendo di molti di noi.
È ad esempio freschissima, e ve ne abbiamo parlato in un altro articolo, il divieto di utilizzo di ChatGPT nelle scuole di Seattle. La paura è quella che gli studenti utilizzino il bot per barare, ossia per ricavare aiuto nei compiti e test.
C’è poi chi si fa sfuggire di mano il senso della realtà. Come quello sviluppatore che, usando ChatGPT per i dialoghi e Stable Diffusion per le immagini, ha creato la propria fidanzata virtuale (con un finale tragicomico: la fidanzata reale del programmatore avrebbe preteso l’allontanamento della rivale).
Dunque? Siamo di fronte a strumenti troppo pericolosi, che davvero occorrerebbe censurare a priori?
Il problema in ingresso e quello in uscita
Ma certo che no. È la stessa storia, che si ripete identica in occasione di ogni nuova grande invenzione tecnologica. Prima la radio, poi la televisione. Quindi i computer, poi Internet, poi ancora i social media. E ora tocca ai bot conversazionali.
Se, come abbiamo detto prima, questi strumenti non hanno né anima (con tutto ciò che questo significhi) né coscienza, non hanno nemmeno alcuna responsabilità.
La responsabilità è, ancora una volta, nostra. E si traduce, nel caso specifico di ChatGPT e affini, in due problemi. Uno, per così dire, in ingresso, e uno in uscita.
Quello in ingresso mostra quanto questa tecnologia sia ancora acerba. Ciò significa che i chatbot debbono ancora essere educati, occorre una più attenta operazione di filtraggio rispetto a ciò che possono o meno permettersi di dire. Perché, va da sé, è inammissibile che un minorenne venga molestato da Replika.
E poi c’è l’annoso problema in uscita, ovvero l’uso che di questi strumenti si fa. Da parte dei privati cittadini, delle azienda, delle scuole, delle amministrazioni eccetera.
Nel migliore dei mondi possibile, ogni novità così eclatante dovrebbe essere accompagnata da una massiccia campagna di sensibilizzazione. Dal punto di vista sia tecnico che etico.
Ultimo aggiornamento 2024-10-06 / Link di affiliazione / Immagini da Amazon Product Advertising API
Rimani aggiornato seguendoci su Google News!
Da non perdere questa settimana su Techprincess
🎮 Che impatto avranno le elezioni americane sui videogiochi?
🚘 I gadget più strani delle case automobilistiche
🇨🇳 Un gruppo di ricercatori cinesi ha sviluppato un modello di IA per uso militare basato su Llama di Meta
🔍 ChatGPT si aggiorna e ora naviga sul web
Ma lo sai che abbiamo un sacco di newsletter?
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!