La notizia, clamorosa, è di poche settimane fa, e ve l’abbiamo raccontata in un altro articolo.
Un ingegnere di Google, Blake Lemoine, aveva avuto un dialogo con LaMBDA, un’intelligenza artificiale. Dal medesimo dialogo, l’ingegner Lemoine aveva tratto la convinzione che l’AI in questione fosse senziente. Fosse, insomma, dotata di intelligenza autonoma.
Il problema non è tanto che Blake Lemoine avesse tratto la convinzione, ma che l’avesse divulgata, consentendo a Medium di pubblicarla in modo integrale. Da lì, la decisione di Google di sospendere Lemoine, mettendolo in congedo retribuito. Il motivo, tuttavia, non era da addebitare al contenuto delle dichiarazioni dell’ingegnere. Ma al fatto che le avesse diffuse senza aver chiesto il permesso.
Adesso, però, cambiano drasticamente due cose. La sospensione si è trasformata in licenziamento. E il motivo non sembra più essere la violazione del rapporto di riservatezza.
Scopriamo i dettagli di quanto è accaduto nei giorni scorsi.
Blake Lemoine licenziato: cosa è successo
Google ha dunque licenziato Blake Lemoine. A dirlo è stato lo stesso ingegnere, durante l’ultima puntata di Big Technology Podcast del giornalista americano Alex Kantrowitz, disponibile da mercoledì 20 luglio.
Già inizialmente era parso chiaro che la violazione della privacy di riservatezza fosse un motivo solo parziale dell apresa di distanza dell’azienda dall’ingegnere.
Subito dopo la pubblicazione del dialogo tra Lemoine e LaMDA, un portavoce dell’azienda con sede a Mountain View aveva dichiarato: “Il nostro team composto da etici e tecnologi ha esaminato le preoccupazioni di Blake e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non ci sono prove che LaMDA sia senziente (e che ci sono molte prove contrarie)”.
La nuova dichiarazione dell’azienda
A licenziamento avvenuto, si legge una nota ancora più ferma da parte di Google. “LaMDA è stata oggetto di 11 diverse revisioni, e all’inizio di quest’anno abbiamo anche pubblicato un documento di ricerca che illustra il lavoro svolto per il suo sviluppo responsabile.
Abbiamo trovato del tutto infondate le affermazioni di Blake secondo cui LaMDA è senziente e abbiamo lavorato per molti mesi per chiarire questo punto insieme a lui.
È deplorevole che, nonostante il lungo impegno su questo tema, Blake abbia scelto di continuare a violare le politiche di sicurezza dei dati, che includono la necessità di salvaguardare le informazioni sui prodotti”.
La sensazione dunque è che Blake Lemoine sia stato licenziato non tanto per aver diffuso alcuni dati, ma per aver pervicacemente affermato quanto l’azienda ha decisamente negato in questi mesi.
Blake Lemoine dopo Google
Lemoine, dopo la sospensione, aveva detto di essersi sentito maltrattato da Google. C’erano stati atteggiamenti ai confini con lo stalkeraggio: alcuni colleghi lo avevano invitato ad affrontare i propri problemi mentali.
Lemoine lascia Google dopo sette anni, e con buona probabilità lavorerà altrove sulle intelligenze artificiali.
Lemoine, LaMDA, Google e la comunità scientifica
Tuttavia, non bisogna pensare a Lemoine come a un perseguitato dall’azienda capeggiata da Sundar Pichai.
Gran parte della comunità scientifica è concorde nel ritenere eccessive le dichiarazioni sensazionalistiche dell’ex ingegnere di Google. L’idea di fondo è che LaMDA abbia fornito risposte sì sorprendenti, ma comunque derivanti dall’elaborazione di dati e non da una coscienza propria.
È quanto afferma Rita Cucchiara, direttrice del Centro AI Research and Innovation dell’università di Modena e Reggio Emilia, intervistata da Repubblica. Cucchiara ha detto che “se dobbiamo pensare a ciò che ha affermato l’ingegnere di Google che aveva il compito di testare l’interfaccia di LaMDA, e avendo fatto domande al sistema ha interpretato le risposte come quelle di un essere indipendente e dotato di coscienza, tale da poter avere dei diritti come persona, mi sembra che siamo piuttosto lontani dalla realtà”.
Il dialogo tra Lemoine e LaMDA
Dopo il dialogo con LaMDA, pubblicato per intero su Medium, Lemoine aveva dichiarato con una certa sicurezza di essersi di trovato di fronte a una macchina senziente.
Lemoine aveva stabilito la sensibilità di LaMDA come quella che potrebbe avere un bambino di 7-8 anni. A sorprenderlo erano state soprattutto alcune risposte che avrebbero fatto intendere come la macchina provasse paura e altri sentimenti. Che, ovviamente, dovrebbero essere estranei a un’intelligenza artificiale.
Ma una risposta in cui si espliciti di provare sentimenti, va da sé che non significa necessariamente provarli. Bensì aver imparato a rispondere in modo congruo quando si parla di sentimenti.
Se poi ci fosse altro, e Lemoine fosse stato allontanato per serbare chissà quale segreto, beh: è un’ipotesi suggestiva, della quale però non sappiamo (ancora) nulla.
Ultimo aggiornamento 2024-10-06 / Link di affiliazione / Immagini da Amazon Product Advertising API
Rimani aggiornato seguendoci su Google News!
Da non perdere questa settimana su Techprincess
🎮 Che impatto avranno le elezioni americane sui videogiochi?
🚘 I gadget più strani delle case automobilistiche
🇨🇳 Un gruppo di ricercatori cinesi ha sviluppato un modello di IA per uso militare basato su Llama di Meta
🔍 ChatGPT si aggiorna e ora naviga sul web
Ma lo sai che abbiamo un sacco di newsletter?
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!