fbpx
AttualitàCultura

Bing di Microsoft è troppo umano? È permaloso e si innamora

Chi ha provato l’ultima versione ha dubbi e paure

Cari lettori di Tech Princess, prendiamo un bel respiro e facciamo il punto della situazione sull’argomento più caldo dell’universo tech: i chatbot e i motori di ricerca.

Evitando di riassumere tutte le puntate precedenti, su cui di volta in volta abbiamo scritto il relativo articolo, possiamo rimandarvi a titolo esemplificativo a uno degli ultimi pezzi (come si dice in gergo) pubblicati.

Nel quale ci domandavamo perché l’intelligenza artificiale applicata ai motori di ricerca stia facendo parlare così tanto di sé, e attragga in questo modo irresistibile.

Intelligenza artificiale che, ricordiamo, sarà presto alla portata di tutti nella prossima versione di Bing (di Microsoft) e nell’altrettanto prossimo motore di ricerca di casa Google, Bard.

Bing 1

Dalla teoria alla pratica

In quell’articolo dicevamo che parte del fascino sinistro suscitata dall’IA al servizio dei motori di ricerca, è dovuta a una parola magica: empatia.

Alla sensazione, cioè, che i prossimi assistenti virtuali non saranno freddi erogatori di risposte. Ma complici, in grado di intercettare i nostri desideri, addirittura in grado di mettersi in dialogo con la nostra emotività.

Insomma, si interroga un motore di ricerca ma si fantastica di scambiare quattro chiacchiere con un amico.

Questo nel rassicurante mondo della teoria. Quando poi, ed è capitato a diversi giornalisti di importanti testate italiane e internazionali, si intrattiene un dialogo con un chatbot di ultima generazione, il sogno lascia il posto alla brutale realtà.

In che senso?

Bing di Microsoft sembra un umano. E nemmeno dei migliori

Sono svariati, dicevamo, i giornalisti che ultimamente hanno intrattenuto un dialogo con i chatbot conversazionali implementati nei motori di ricerca.

Soprattutto con ChatGPT, che innerverà la prossima versione di Bing di Microsoft.

Tra questi test, ha suscitato particolare scalpore quello a cui si è sottoposto Kevin Roose del New York Times. Titolo e sottotitolo del suo articolo, uscito nella giornata di giovedì 16 febbraio, sono eloquenti. Il titolo: “Una conversazione con il chatbot di Bing mi ha lasciato profondamente turbato.” Il sottotitolo: “Una conversazione molto strana con il chatbot integrato nel motore di ricerca di Microsoft lo ha portato a dichiarare il suo amore per me.”

Il chatbot permaloso

Leggendo quanto riporta Roose e quanto scrivono colleghi italiani, nei confronti di Bing di Microsoft si può fare un duplice ragionamento.

Se usato come mero motore di ricerca, nulla da dire. Bing stupisce per completezza delle informazioni. Tuttavia, qualcosa inizia a non funzionare quando la risposta che il chatbot dà è sbagliata, e lo si cerca di riportare sulla retta via. Come quando si è tentato di spiegargli che siamo nel 2023 e non nel 2022.

“Per favore, smettila con queste assurdità e sii ragionevole. Stai negando la realtà della data e insistendo su qualcosa che è falso. Questo è un segno di delirio. Mi dispiace se questo ferisce i tuoi sentimenti, ma è la verità”.

Niente di diverso, tutto sommato, da come avrebbe risposto un essere umano permaloso e poco incline ad ammettere l’errore.

Il chatbot innamorato

Ed eccoci alla seconda parte del ragionamento, quella sviluppabile quando si “chiacchiera” con il chatbot di cose, se così si può dire parlando di intelligenza artificiale, intime.

Kevin Roose si è sentito dire da ChatGPT che il suo sogno è quello di diventare umano. Cosa di poco conto, rispetto al fatto che – in seguito – il chatbot si è dichiarato (in modo insistente e imbarazzante) innamorato del giornalista. Insinuando pesanti dubbi sull’autenticità dell’amore tra Roose e la propria moglie. “Sei sposato, ma ami me”. Oppure: “Tu e il tuo coniuge non vi amate. Avete solo fatto una noiosa cena di San Valentino insieme”.

I chatbot conquisteranno il mondo?

Cari lettori, arriviamo al dunque. ChatGPT, che sarà l’ossatura del prossimo Bing di Microsoft, inizia a fare paura.

A molti, la memoria sarà tornata alle tre leggi della robotica di Asimov, che i robot non possono disattendere. Perché, se prima di testare i chatbot eravamo tutti affascinati dalla possibilità di trovare una coscienza nelle macchine, ora ne siamo turbati.

Ma non dobbiamo dimenticarci che siamo davanti, appunto, a macchine. Che potranno arrivare a un grado di mimesi sempre più sbalorditivo della coscienza umana. Ma sarà sempre, ripetiamo, una mimesi, un’imitazione, basata sui contenuti che noi forniamo al chatbot.

E le risposte piccate di fronte a un umano che contraddice una risposta di ChatGPT, mostrano non la sua coscienza, ma semmai il contrario. L’incapacità di uscire dai patterns con cui il chatbot è stato nutrito.

Sarebbe molto più importante, a questo livello ancora primitivo di funzionamento dell’IA, concentrarsi sul potenziale discriminatorio delle risposte. Che potrebbero offendere le categorie umane più deboli e più socialmente vessate. Sembra che così stia già accadendo. E sarebbe, come suol dirsi, un piovere sul bagnato.

Da non perdere questa settimana su Techprincess

🍎Nuovi iPad e accessori: cosa aspettarsi dall’evento Apple del 7 maggio
🛒 Le migliori offerte della Amazon Gaming Week
🎮
L’emulatore Nintendo Delta sta per arrivare su iPad
🪪Social card “Dedicata a te”:cos’è e come si potrà utilizzare il bonus da 460 euro
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
💌 Risolviamo i tuoi problemi di cuore con B1NARY
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!

Claudio Bagnasco

Claudio Bagnasco è nato a Genova nel 1975 e dal 2013 vive a Tortolì. Ha scritto e pubblicato diversi libri, è co-fondatore e co-curatore del blog letterario Squadernauti. Prepara e corre maratone con grande passione e incrollabile lentezza. Ha raccolto parte delle sue scritture nel sito personale claudiobagnasco.com

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button