Site icon Techprincess

Perchè Microsoft eliminerà il rilevamento delle emozioni dalla sua AI

Perchè Microsoft eliminerà il rilevamento delle emozioni dalla sua AI thumbnail

Per anni attivisti e accademici hanno criticato il software di analisi facciale che afferma di essere in grado di identificare l’età, il sesso e lo stato emotivo di una persona. Lo hanno definito parziale, inaffidabile e persino invasivo. Ora, però, è Microsoft ad aver deciso di eliminare queste funzionalità dal suo servizio di AI per il riconoscimento facciale. Una scelta che fa parte dello slancio della compagnia di imporre controlli più severi ai suoi prodotti di Intelligenza Artificiale. Andiamo allora a scoprirne qualcosa di più.

Riconoscimento facciale: Microsoft elimina la rilevazione di età, sesso ed emozioni

Dopo due anni di lavoro un team di Microsoft ha elaborato il “Responsible AI Standard“, ossia un documento che stabilisce i requisiti idonei di un AI, per assicurarsi che non abbia un impatto dannoso sulla società. Questo significa che i dispositivi devono fornire “soluzioni valide per i problemi che sono progettati per risolvere“. E “una qualità del servizio simile per gruppi demografici identificati, compresi i gruppi emarginati“. Prima di essere rilasciate, quindi, queste tecnologie Microsoft sono soggette ad una revisione da parte del team guidato da Natasha Crampton, capo responsabile dell’AI. Insomma, il colosso tecnologico ha costruito un sistema di controllo molto accurato, che ha messo in discussione alcuni dei sistemi lanciati in passato.

In particolare, Microsoft si è preoccupata soprattutto del suo sistema di rilevamento delle emozioni, che etichetta l’espressione di un soggetto come rabbia, disprezzo, disgusto, paura, felicità, neutralità, tristezza o sorpresa. “C’è un’enorme quantità di variazioni culturali, geografiche e individuali nel modo in cui ci esprimiamo“, commenta la Crampton. E questo ha portato a grandi problemi di affidabilità di questa specifica funzione dell’AI del riconoscimento facciale di Microsoft. Ammesso poi che “l’espressione facciale sia un indicatore affidabile del vostro stato emotivo interno“. Pertanto, la compagnia ha deciso di rimuovere il rilevamento delle emozioni, insieme a quello dell’età e del genere – soprattutto perchè questo sistema era binario, e non compatibile con i valori dell’azienda -.

Ma non è tutto. A quanto pare, Microsoft aggiungerà nuovi controlli alla sua funzione di riconoscimento facciale. Pertanto, da ora in poi gli sviluppatori di software che vogliono utilizzare il sistema devo richiedervi l’accesso e spiegare come intendono implementarlo. E lo stesso vale per gli utenti, che dovranno spiegare come vogliono utilizzare sistemi basati sull’AI che possono risultare potenzialmente dannosi, come la “voce neurale personalizzata”. “Stiamo facendo passi concreti per essere all’altezza dei principi della nostra AI“, chiosa Crampton.

Cosa succede quando l’AI diventa pericolosa per gli utenti

Non è certo un segreto che le compagnie hi-tech abbiano già avuto problemi nella gestione dell’AI in passato. Nel 2016 Microsoft ha lanciato su Twitter il chatbot “Tay”, progettato per apprendere la “comprensione della conversazione” dagli utenti con cui aveva interagito. In poco tempo il bot ha cominciato a lanciare tweet razzisti e offensivi, costringendo la compagnia a ritirarlo definitivamente. Nel 2020, poi, i ricercatori hanno scoperto che gli strumenti di sintesi vocale sviluppati da Microsoft, Apple, Google, IBM e Amazon funzionavano meno bene per i neri. Il sistema di Microsoft era il migliore del gruppo, ma identificava erroneamente il 15% delle parole per i bianchi, rispetto al 27% per i neri.

Insomma, è innegabile che l’AI può rivelarsi dannosa per la società. E questo è il tema centrale del dibattito di settore da moltissimi anni. Le autorità fiscali olandesi hanno erroneamente sottratto i sussidi per l’assistenza all’infanzia alle famiglie bisognose perchè un algoritmo difettoso ha penalizzato le persone con doppia nazionalità. E più di recente diversi uomini di colore sono stati arrestati ingiustamente per corrispondenze difettose di riconoscimento facciale. E queste sono solo alcune delle situazioni che hanno portato Microsoft a scegliere di rivedere il controllo sui suoi sistemi di Intelligenza Artificiale. Nella speranza che presto si possa trovare una soluzione idonea per utilizzarli senza essere invasivi o pericolosi.

Exit mobile version