Aggiornamenti del regolamento sull’intelligenza artificiale: Cina, UE e Stati Uniti

I sistemi di intelligenza artificiale (AI) sono destinati a modificare drasticamente il modo in cui le aziende e i governi operano su scala globale, con cambiamenti significativi già in corso. Questa tecnologia si è manifestata in molteplici forme, tra cui elaborazione del linguaggio naturale, apprendimento automatico e sistemi autonomi, ma con gli input appropriati può essere sfruttata per fare previsioni, consigli e persino decisioni.

Di conseguenza, le imprese stanno adottando sempre più questa tecnologia dinamica. Uno studio globale del 2022 condotto da IBM ha rilevato che il 77% delle aziende sta attualmente utilizzando l’IA o sta esplorando l’IA per un uso futuro, creando valore aumentando la produttività attraverso l’automazione, un migliore processo decisionale e una migliore esperienza del cliente. Inoltre, secondo uno studio PwC del 2021, la pandemia di COVID-19 ha aumentato il ritmo di adozione dell’IA per il 52% delle aziende, cercando di mitigare l’impatto delle crisi sulla pianificazione della forza lavoro, sulla resilienza della catena di approvvigionamento e sulla proiezione della domanda.

Sfide della regolamentazione globale

Per queste numerose aziende che investono risorse significative nell’IA, è fondamentale comprendere i quadri legali attuali e proposti che regolano questa nuova tecnologia. In particolare per le aziende che operano a livello globale, il compito di garantire che la loro tecnologia di intelligenza artificiale sia conforme alle normative applicabili sarà complicato dai diversi standard che stanno emergendo da Cina, Unione Europea (UE) e Stati Uniti

Cina

La Cina ha preso l’iniziativa nel spostare i regolamenti sull’IA oltre la fase della proposta. Nel marzo 2022, la Cina ha approvato un regolamento che disciplina l’uso da parte delle aziende di algoritmi nei sistemi di raccomandazione online, richiedendo che tali servizi siano morali, etici, responsabili, trasparenti e “diffondano energia positiva”. Il regolamento obbliga le aziende a notificare agli utenti quando un algoritmo di intelligenza artificiale sta svolgendo un ruolo nel determinare quali informazioni mostrare loro e offre agli utenti la possibilità di rinunciare a essere presi di mira. Inoltre, il regolamento vieta gli algoritmi che utilizzano i dati personali per offrire prezzi diversi ai consumatori. Ci aspettiamo che questi temi si manifestino nelle normative sull’IA in tutto il mondo man mano che si sviluppano.

Unione europea

Nel frattempo, nell’UE, la Commissione europea ha pubblicato una proposta di quadro normativo generale intitolata “Artificial Intelligence Act”, che avrebbe una portata molto più ampia rispetto al regolamento emanato dalla Cina. La proposta si concentra sui rischi creati dall’IA, con le applicazioni ordinate in categorie di rischio minimo, rischio limitato, rischio elevato o rischio inaccettabile. A seconda del livello di rischio designato di un’applicazione, ci saranno azioni o obblighi governativi corrispondenti. Finora, gli obblighi proposti si concentrano sul miglioramento della sicurezza, della trasparenza e della responsabilità delle applicazioni di intelligenza artificiale attraverso la supervisione umana e il monitoraggio continuo. In particolare, le aziende dovranno registrare sistemi di IA ad alto rischio autonomi, come i sistemi di identificazione biometrica remota, in una banca dati dell’UE. Se la proposta di regolamento viene approvata, la prima data per la conformità sarebbe la seconda metà del 2024 con potenziali sanzioni per non conformità che vanno dal 2 al 6% delle entrate annuali di un’azienda.

Inoltre, il regolamento generale sulla protezione dei dati (GDPR) dell’UE precedentemente emanato ha già implicazioni per la tecnologia dell’IA. L’articolo 22 vieta le decisioni basate su processi esclusivamente automatizzati che producono conseguenze legali o effetti simili per le persone a meno che il programma non ottenga il consenso esplicito dell’utente o soddisfi altri requisiti.

stati Uniti

Finora negli Stati Uniti c’è stato un approccio frammentato alla regolamentazione dell’IA, con gli stati che hanno emanato le proprie leggi sull’intelligenza artificiale. Molte delle normative emanate si concentrano sulla creazione di varie commissioni per determinare come le agenzie statali possono utilizzare la tecnologia dell’IA e per studiare i potenziali impatti dell’IA sulla forza lavoro e sui consumatori. Le iniziative statali in sospeso comuni fanno un ulteriore passo avanti e regolerebbero la responsabilità e la trasparenza dei sistemi di IA quando elaborano e prendono decisioni sulla base dei dati dei consumatori.

A livello nazionale, il Congresso degli Stati Uniti ha emanato il National AI Initiative Act nel gennaio 2021, creando la National AI Initiative che fornisce “un quadro generale per rafforzare e coordinare le attività di ricerca, sviluppo, dimostrazione e istruzione sull’IA in tutti i dipartimenti e le agenzie degli Stati Uniti. . . .” La legge ha creato nuovi uffici e task force volti ad attuare una strategia nazionale di intelligenza artificiale, coinvolgendo una moltitudine di agenzie amministrative statunitensi tra cui la Federal Trade Commission (FTC), il Dipartimento della Difesa, il Dipartimento dell’Agricoltura, il Dipartimento dell’Istruzione e il Dipartimento della Salute e Servizi Umani.

La legislazione nazionale in attesa include l’Algorithmic Accountability Act del 2022, che è stato introdotto in entrambe le camere del Congresso nel febbraio 2022. In risposta ai rapporti secondo cui i sistemi di intelligenza artificiale possono portare a risultati parziali e discriminatori, la legge proposta indirizzerebbe la FTC a creare regolamenti che impongono “entità coperte”, comprese le imprese che soddisfano determinati criteri, per eseguire valutazioni di impatto quando utilizzano processi decisionali automatizzati. Ciò includerebbe specificamente quelli derivati ​​dall’IA o dall’apprendimento automatico.

La Federal Trade Commission è proattiva

Sebbene la FTC non abbia promulgato regolamenti specifici per l’IA, questa tecnologia è sul radar dell’agenzia. Nell’aprile 2021 la FTC ha emesso una nota in cui si informava le aziende che l’utilizzo dell’IA che produce risultati discriminatori equivale a una violazione della Sezione 5 della legge FTC, che vieta le pratiche sleali o ingannevoli. E la FTC potrebbe presto fare un ulteriore passo avanti con questo avvertimento: nel giugno 2022 l’agenzia ha indicato che presenterà un avviso avanzato di regolamentazione preliminare per “assicurare che il processo decisionale algoritmico non si traduca in una discriminazione dannosa” con il periodo di commento pubblico che termina con Agosto 2022. La FTC ha anche recentemente pubblicato un rapporto al Congresso in cui discuteva di come l’IA possa essere utilizzata per combattere i danni online, che vanno da truffe, falsi profondi e vendita di oppioidi, ma sconsigliava di fare eccessivo affidamento su questi strumenti, citando la suscettibilità della tecnologia alla produzione risultati imprecisi, parziali e discriminatori.

Potenziale responsabilità per le imprese negli Stati Uniti

Le aziende dovrebbero discernere attentamente se altre normative specifiche non relative all’IA potrebbero esporle a potenziali responsabilità per il loro utilizzo della tecnologia dell’IA. Ad esempio, la US Equal Employment Opportunity Commission (EEOC) ha presentato una guida nel maggio 2022 avvertendo le aziende che il loro uso di strumenti decisionali algoritmici per valutare i candidati e i dipendenti di lavoro potrebbe violare l’Americans with Disabilities Act, in parte, intenzionalmente o non intenzionalmente escludendo le persone con disabilità. Ulteriori analisi delle linee guida dell’EEOC possono essere trovate qui.

Impatto più ampio sulle imprese statunitensi

Molte altre agenzie e uffici statunitensi stanno iniziando ad addentrarsi nella mischia dell’IA. Nel novembre 2021, l’Office of Science and Technology Policy della Casa Bianca ha sollecitato il coinvolgimento delle parti interessate in tutti i settori nel tentativo di sviluppare una “Carta dei diritti per una società automatizzata”. Tale Carta dei diritti potrebbe coprire argomenti come il ruolo dell’IA nel sistema di giustizia penale, le pari opportunità, i diritti dei consumatori e il sistema sanitario. Inoltre, il National Institute of Standards and Technology (NIST), che rientra nel Dipartimento del Commercio degli Stati Uniti, si sta impegnando con le parti interessate per sviluppare “un quadro di gestione del rischio volontario per sistemi di intelligenza artificiale affidabili”. Il risultato di questo progetto può essere analogo al quadro normativo proposto dall’UE, ma in un formato volontario.

Qual è il prossimo?

Il tema generale delle normative sull’IA emanate e in sospeso a livello globale è il mantenimento della responsabilità, della trasparenza e dell’equità dell’IA. Per le aziende che sfruttano la tecnologia AI, garantire che i propri sistemi rimangano conformi alle varie normative volte a raggiungere questi obiettivi potrebbe essere difficile e costoso. Due aspetti del processo decisionale dell’IA rendono la supervisione particolarmente impegnativa:

  • Opacità in cui gli utenti possono controllare gli input di dati e visualizzare gli output, ma spesso non sono in grado di spiegare come e con quali punti dati il ​​sistema ha preso una decisione.

  • Adattamento frequente in cui i processi si evolvono nel tempo man mano che il sistema apprende.

Pertanto, è importante che le autorità di regolamentazione evitino di sovraccaricare le imprese per garantire che le parti interessate possano ancora sfruttare i grandi vantaggi delle tecnologie di intelligenza artificiale in modo conveniente. Gli Stati Uniti hanno l’opportunità di osservare i risultati dell’attuale azione normativa da parte della Cina e dell’UE per determinare se i loro approcci raggiungono un equilibrio favorevole. Tuttavia, gli Stati Uniti dovrebbero potenzialmente accelerare la promulgazione di leggi simili in modo che possano svolgere un ruolo nel dare il tono globale agli standard normativi dell’IA.

Grazie alla co-autrice Lara Coole, una collaboratrice estiva nell’ufficio di Foley & Lardner a Jacksonville, per i suoi contributi a questo post.

Leave a Comment

Your email address will not be published.