fbpx
NewsTech

ChatGPT: le condizioni di lavoro precarie e stressanti dei moderatori

Lavoratori in outsourcing pagati due dollari per moderare le risposte

Leggendo alcune delle risposte di ChatGPT, sembra di scorgere un barlume di umanità. La nostra naturale empatia sente rabbia, passione, ironia e mille altre emozioni dietro le parole del bot, che invece si limita a sfruttare i propri algoritmi e miliardi di dati per determinare la miglior sequenza di parole. Ma anche se non c’è umanità dietro l’intelligenza artificiale, l’AI ha un costo umano che spesso ignoriamo – o fingiamo di non vedere. Perché oltre agli ingegneri che hanno creato gli algoritmi, ci sono tantissimi moderatori in tutto il mondo che controllano e valutano i dati immessi nel sistema e le risposte dati dai bot. Analizzando contenuti a volte traumatizzanti – pur essendo pagati una miseria.

Il costo umano dell’intelligenza artificiale: i moderatori pagati meno di due dollari all’ora

L’idea che abbiamo dell’intelligenza artificiale è di un’identità che in qualche modo trascende l’umano. Qualcosa di superiore a noi, fatta di pura matematica e razionalità. Ma come ogni artefatto umano, va costruita. Per farlo, le aziende americane ed europee assumo i migliori ingegneri informatici in circolazione per scrivere il codice degli algoritmi. Che però da solo non basta: servono dati per addestrare l’AI.

NordVPN – 56% di sconto sul piano annuale + 3 mesi gratis. Miglior servizio VPN in Italia.

Per questo le aziende tecnologiche hanno bisogno di molti lavoratori che contribuiscono allo sviluppo dell’intelligenza artificiale, svolgendo attività che consistono nell’analizzare grandi quantità di dati per classificare immagini, filtrare contenuti inappropriati e identificare oggetti in immagini e video. Processi fondamentali per spiegare all’AI come riconoscere le nostre parole e come produrre output coerenti.

L’outsourcing tecnologico

Queste attività, considerate ripetitive e poco stimolanti per molti sviluppatori interni, sono spesso delegate a lavoratori indipendenti e aziende esterne. L’outsourcing di solito va a intercettare persone che risiedono principalmente in Asia meridionale e in Africa. E come spiega Vice, di solito questi lavoratori sono impiegati da società che non abbiamo mai sentito come iMerit, Sama e Alegion.

microsoft san raffaele sanità futuro ai

Queste persone diventano i moderatori non solo di soluzioni di AI generativa come ChatGPT di OpenAI, Bing di Microsoft e Bard di Google. Meta ha uno dei sistemi di moderazione dei contenuti algoritmici più sofisticati su Internet per Instagram e Facebook. Tuttavia, l’intelligenza artificiale di quel sistema si basa su “migliaia di decisioni” prese da moderatori umani.

Quindi le intelligenze artificiali di giganti come Meta e Amazon, oppure di startup esplosive come OpenAI, nascono da team di sviluppo di ingegneri lauerati nelle principali università occidentali. Ma possono funzionare solo grazie alla “manovalanza” di chi valuta le decisioni prese e corregge gli errori. Che sono una parte integrante dello sviluppo: è così che possiamo addestrare l’AI. Ma questo lavoro risulta spesso traumatico – e pagato molto poco.

Il trauma di addestrare ChatGPT

Da tempo le aziende tecnologiche sanno che l’outsourcing della moderazione porta a vantaggi economici. Riduce il costo delle operazioni, perché le aziende comprano un servizio invece che internalizzare la spesa assumendo direttamente migliaia di dipendenti. Ma non sempre le aziende a cui affidano questo processo trattano i lavoratori in maniera umana.

intelligenza artificiale senziente

A gennaio di quest’anno, il Time ha rivelato che OpenAI, la società dietro ChatGPT, ha pagato dei lavoratori kenioti meno di 2 dollari l’ora per filtrare decine di migliaia di righe di testo per rendere il suo chatbot più sicuro da usare.

I lavoratori avevano il compito di etichettare ed eliminare i dati tossici dal dataset di addestramento di ChatGPT. Quindi hanno dovuto leggere contenuti come abusi sessuali su minori, bestialità, omicidi, suicidi, torture, autolesionismo e incesto.

ChatGPT ora sembra molto eloquente. Ma il suo predecessore, GPT-3, produceva spesso testi sessisti, violenti e razzisti perché il modello era stato addestrato su un dataset che era stato estratto da miliardi di pagine internet. Per lanciare ChatGPT, OpenAI aveva bisogno di un modo per filtrare tutto il linguaggio tossico dal suo dataset.

La partnership di OpenAI con Sama

OpenAI ha quindi lavorato con Sama, un partner di etichettatura dei dati con sede a San Francisco che afferma di fornire ai paesi in via di sviluppo un lavoro digitale “etico” e “dignitoso”, per rilevare ed etichettare i contenuti tossici. Sama ha reclutato etichettatori di dati in Kenya per lavorare per conto di OpenAI, svolgendo un ruolo essenziale nel rendere il chatbot sicuro per l’uso pubblico.

intelligenza artificiale

Il peso psicologico per il lavoro si è fatto sentire. Un lavoratore keniota che ha collaborato alla creazione di ChatGPT, etichettando e analizzando i testi per OpenAI, ha raccontato di aver avuto incubi dopo aver letto i dettagli di una scena orribile, di un uomo che aveva rapporti sessuali con un cane davanti a un bambino. Quanto era pagato per sopportarlo? I lavoratori guadagnavano tra 1,32 e 2 dollari all’ora, a seconda dell’esperienza e della qualità del lavoro.

Secondo quanto riporta Vice, le grandi aziende tecnologiche assumono spesso decine di migliaia di lavoratori precari per moderare i dati dei loro strumenti di intelligenza artificiale. Sama ha lasciato il suo lavoro per OpenAI nel febbraio 2022, otto mesi prima della scadenza del contratto, in parte per il trauma subito, e in parte perché Time aveva pubblicato un’inchiesta sul suo lavoro con Meta il 14 febbraio. Nell’inchiesta, svelava che i lavoratori assunti moderavano immagini e video di esecuzioni, stupri e violenze sui minori per 1,50 dollari l’ora.

Lo sfruttamento dei moderatori: il costo umano dell’intelligenza artificiale

Inchieste come quella di Time e di Vice sottolineano come questi strumenti AI abbiamo un costo reale a livello umano. Moderare il peggio di internet non dovrebbe essere un lavoro da pochi dollari l’ora, soprattutto quando questi strumenti stanno avendo un successo enorme in tutto il mondo. Il contributo di queste persone va riconosciuto – anche a livello salariale (e magari con assistenza psicologica). Senza i moderatori l’intelligenza artificiale sarebbe impresentabile: filtrano il peggio del web per non farlo vedere a noi. Ma mentre lo fanno non meritano di essere invisibili.

OpenAI non lavora più con Sama, ma visto i precedenti vale la pena prestare attenzione a come le grandi aziende sviluppano l’AI. Che non sta diventando umano, ma non esisterebbe senza il lavoro di moltissimi moderatori.

Ultimo aggiornamento 2024-10-06 / Link di affiliazione / Immagini da Amazon Product Advertising API

Da non perdere questa settimana su Techprincess

 

🎮 Che impatto avranno le elezioni americane sui videogiochi?
🚘 I gadget più strani delle case automobilistiche
🇨🇳 Un gruppo di ricercatori cinesi ha sviluppato un modello di IA per uso militare basato su Llama di Meta

🔍 ChatGPT si aggiorna e ora naviga sul web
Ma lo sai che abbiamo un sacco di newsletter?
 
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
 
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
 
💸E trovi un po' di offerte interessanti su Telegram!

Source
Vice

Autore

  • Stefano Regazzi

    Il battere sulla tastiera è la mia musica preferita. Nel senso che adoro scrivere, non perché ho una playlist su Spotify intitolata "Rumori da laptop": amo la tecnologia, ma non fino a quel punto! Lettore accanito, nerd da prima che andasse di moda.

    Visualizza tutti gli articoli

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button