Microsoft prevede di eliminare gli strumenti di analisi del viso in push per “AI responsabile”

Per anni, attivisti e accademici hanno sollevato preoccupazioni sul fatto che il software di analisi facciale che afferma di essere in grado di identificare l’età, il sesso e lo stato emotivo di una persona possa essere parziale, inaffidabile o invasivo e non dovrebbe essere venduto.

Riconoscendo alcune di queste critiche, Microsoft ha dichiarato martedì di aver pianificato di rimuovere quelle funzionalità dal suo servizio di intelligenza artificiale per rilevare, analizzare e riconoscere i volti. Non saranno più disponibili per i nuovi utenti questa settimana e verranno gradualmente eliminati per gli utenti esistenti entro l’anno.

Le modifiche fanno parte di una spinta da parte di Microsoft per controlli più severi dei suoi prodotti di intelligenza artificiale. Dopo una revisione di due anni, un team di Microsoft ha sviluppato un “Responsible AI Standard”, un documento di 27 pagine che stabilisce i requisiti per i sistemi di intelligenza artificiale per garantire che non abbiano un impatto dannoso sulla società.

I requisiti includono garantire che i sistemi forniscano “soluzioni valide per i problemi che sono progettati per risolvere” e “una qualità del servizio simile per gruppi demografici identificati, compresi i gruppi emarginati”.

Prima di essere rilasciate, le tecnologie che verrebbero utilizzate per prendere decisioni importanti sull’accesso di una persona al lavoro, all’istruzione, all’assistenza sanitaria, ai servizi finanziari o a un’opportunità di vita sono soggette a una revisione da parte di un team guidato da Natasha Crampton, responsabile dell’IA di Microsoft. .

C’erano crescenti preoccupazioni in Microsoft riguardo allo strumento di riconoscimento delle emozioni, che etichettava l’espressione di qualcuno come rabbia, disprezzo, disgusto, paura, felicità, neutralità, tristezza o sorpresa.

“C’è un’enorme quantità di variazioni culturali, geografiche e individuali nel modo in cui ci esprimiamo”, ha detto la signora Crampton. Ciò ha portato a problemi di affidabilità, insieme alle domande più grandi sul fatto che “l’espressione facciale sia un indicatore affidabile del tuo stato emotivo interno”, ha detto.

Gli strumenti di analisi dell’età e del genere che vengono eliminati, insieme ad altri strumenti per rilevare gli attributi del viso come capelli e sorriso, potrebbero essere utili per interpretare le immagini visive per le persone non vedenti o ipovedenti, ad esempio, ma l’azienda ha deciso che era problematico gli strumenti di profilazione generalmente disponibili al pubblico, ha affermato la signora Crampton.

In particolare, ha aggiunto, il cosiddetto classificatore di genere del sistema era binario, “e non è coerente con i nostri valori”.

Microsoft metterà anche nuovi controlli sulla sua funzione di riconoscimento facciale, che può essere utilizzata per eseguire controlli di identità o cercare una persona in particolare. Uber, ad esempio, utilizza il software nella sua app per verificare che il volto di un conducente corrisponda all’ID registrato per l’account di quel conducente. Gli sviluppatori di software che desiderano utilizzare lo strumento di riconoscimento facciale di Microsoft dovranno richiedere l’accesso e spiegare come intendono implementarlo.

Gli utenti dovranno inoltre presentare domanda e spiegare come utilizzeranno altri sistemi di intelligenza artificiale potenzialmente abusivi, come la voce neurale personalizzata. Il servizio può generare un’impronta vocale umana, basata su un campione del discorso di qualcuno, in modo che gli autori, ad esempio, possano creare versioni sintetiche della loro voce per leggere i loro audiolibri in lingue che non parlano.

A causa del possibile uso improprio dello strumento, per creare l’impressione che le persone abbiano detto cose che non hanno detto, i relatori devono eseguire una serie di passaggi per confermare che l’uso della loro voce è autorizzato e le registrazioni includono filigrane rilevabili da Microsoft .

“Stiamo compiendo passi concreti per essere all’altezza dei nostri principi di intelligenza artificiale”, ha affermato la signora Crampton, che ha lavorato come avvocato in Microsoft per 11 anni ed è entrata a far parte del gruppo di intelligenza artificiale etica nel 2018. “Sarà un viaggio enorme. “

Microsoft, come altre società tecnologiche, ha avuto problemi con i suoi prodotti artificialmente intelligenti. Nel 2016 ha rilasciato un chatbot su Twitter, chiamato Tay, progettato per apprendere la “comprensione della conversazione” dagli utenti con cui ha interagito. Il bot ha iniziato rapidamente a lanciare tweet razzisti e offensivi e Microsoft ha dovuto eliminarlo.

Nel 2020, i ricercatori hanno scoperto che gli strumenti di sintesi vocale sviluppati da Microsoft, Apple, Google, IBM e Amazon funzionavano meno bene per i neri. Il sistema di Microsoft era il migliore del gruppo, ma identificava erroneamente il 15% delle parole per i bianchi, rispetto al 27% per i neri.

L’azienda aveva raccolto diversi dati vocali per addestrare il suo sistema di intelligenza artificiale, ma non aveva capito quanto potesse essere diverso il linguaggio. Quindi ha assunto un esperto di sociolinguistica dell’Università di Washington per spiegare le varietà linguistiche che Microsoft aveva bisogno di conoscere. È andato oltre i dati demografici e la varietà regionale nel modo in cui le persone parlano in contesti formali e informali.

“Pensare alla razza come un fattore determinante per il modo in cui qualcuno parla è in realtà un po’ fuorviante”, ha detto la signora Crampton. “Quello che abbiamo imparato consultando l’esperto è che in realtà una vasta gamma di fattori influenza la varietà linguistica”.

La signora Crampton ha affermato che il viaggio per correggere la disparità tra voce e testo ha contribuito a informare le linee guida stabilite nei nuovi standard dell’azienda.

“Questo è un periodo critico per la definizione di norme per l’IA”, ha affermato, indicando i regolamenti proposti dall’Europa che stabiliscono regole e limiti all’uso dell’intelligenza artificiale. “Speriamo di essere in grado di utilizzare il nostro standard per cercare di contribuire alla discussione brillante e necessaria che deve essere svolta sugli standard a cui le aziende tecnologiche dovrebbero attenersi”.

Un vivace dibattito sui potenziali danni dell’IA è in corso da anni nella comunità tecnologica, alimentato da errori ed errori che hanno conseguenze reali sulla vita delle persone, come gli algoritmi che determinano se le persone ottengono o meno benefici per il benessere. Le autorità fiscali olandesi hanno erroneamente sottratto i sussidi per l’assistenza all’infanzia alle famiglie bisognose quando un algoritmo difettoso ha penalizzato le persone con doppia nazionalità.

Il software automatizzato per il riconoscimento e l’analisi dei volti è stato particolarmente controverso. L’anno scorso, Facebook ha chiuso il suo sistema decennale per identificare le persone nelle foto. Il vicepresidente dell’intelligenza artificiale dell’azienda ha citato le “molte preoccupazioni sul posto della tecnologia di riconoscimento facciale nella società”.

Diversi uomini di colore sono stati arrestati ingiustamente dopo corrispondenze difettose di riconoscimento facciale. E nel 2020, contemporaneamente alle proteste di Black Lives Matter dopo l’uccisione da parte della polizia di George Floyd a Minneapolis, Amazon e Microsoft hanno emesso moratorie sull’uso dei loro prodotti di riconoscimento facciale da parte della polizia negli Stati Uniti, affermando leggi più chiare sulla sua servivano.

Da allora, Washington e il Massachusetts hanno approvato una regolamentazione che richiede, tra le altre cose, il controllo giudiziario sull’uso da parte della polizia degli strumenti di riconoscimento facciale.

La signora Crampton ha affermato che Microsoft aveva valutato se iniziare a rendere disponibile il suo software alla polizia negli stati con leggi sui libri ma aveva deciso, per ora, di non farlo. Ha detto che potrebbe cambiare con il cambiamento del panorama legale.

Arvind Narayanan, professore di informatica a Princeton ed esperto di intelligenza artificiale, ha affermato che le aziende potrebbero fare un passo indietro rispetto alle tecnologie che analizzano il volto perché erano “più viscerali, al contrario di vari altri tipi di intelligenza artificiale che potrebbero essere dubbi ma che non lo facciamo sentiamo necessariamente nelle nostre ossa.

Le aziende potrebbero anche rendersi conto che, almeno per il momento, alcuni di questi sistemi non sono così redditizi dal punto di vista commerciale, ha affermato. Microsoft non può dire quanti utenti avesse per le funzionalità di analisi facciale di cui si sta sbarazzando. Il signor Narayanan ha previsto che le aziende avrebbero meno probabilità di abbandonare altre tecnologie invasive, come la pubblicità mirata, che profila le persone affinché scelgano gli annunci migliori da mostrare loro, perché erano una “vacca da mungere”.

Leave a Comment