Northeastern lancia l’AI Ethics Board per tracciare un futuro responsabile nell’IA

Il mondo dell’intelligenza artificiale si sta espandendo e un gruppo di esperti di intelligenza artificiale di Northeastern vuole assicurarsi che lo faccia in modo responsabile.

Le auto a guida autonoma stanno colpendo la strada e le auto degli altri. Nel frattempo un programma di riconoscimento facciale ha portato al falso arresto di un uomo di colore a Detroit. Sebbene l’IA abbia il potenziale per alterare il modo in cui interagiamo con il mondo, è uno strumento creato dalle persone e porta con sé i loro pregiudizi e le loro prospettive limitate. Ma Cansu Canca, fondatore e direttore di AI Ethics Lab, crede che le persone siano anche la soluzione a molte delle barriere etiche che devono affrontare la tecnologia AI.

Con l’AI Ethics Advisory Board, Canca, co-presidente del consiglio e responsabile dell’etica dell’IA dell’Institute for Experiential AI at Northeastern, e un gruppo di oltre 40 esperti sperano di tracciare un futuro responsabile per l’IA.

“Ci sono molte domande etiche che sorgono nello sviluppo e nell’utilizzo di sistemi di intelligenza artificiale, ma ci sono anche molte domande su come rispondere a queste domande in modo strutturato e organizzato”, ha affermato Canca. “Rispondere a entrambe queste domande richiede esperti, in particolare esperti di etica ed esperti di intelligenza artificiale, ma anche esperti in materia”.

Il consiglio è uno dei primi nel suo genere e, sebbene sia ospitato nel nord-est, è composto da esperti multidisciplinari provenienti dall’interno e dall’esterno dell’università, con competenze che vanno dalla filosofia alla progettazione dell’interfaccia utente.

“Il comitato consultivo per l’etica dell’intelligenza artificiale ha lo scopo di capire: qual è la cosa giusta da fare nello sviluppo o nell’implementazione di sistemi di intelligenza artificiale?” ha detto Canca. “Questa è la questione etica. Ma per rispondere abbiamo bisogno di qualcosa di più della semplice intelligenza artificiale ed etica”.

L’approccio multidisciplinare del consiglio coinvolge anche esperti del settore come Tamiko Eto, responsabile della conformità alla ricerca, del rischio tecnologico, della privacy e dell’IRB per il fornitore di servizi sanitari Kaiser Permanente. Eto ha sottolineato che, indipendentemente dal fatto che l’IA sia utilizzata nell’assistenza sanitaria o nella difesa, gli impatti devono essere analizzati in modo approfondito.

“L’uso di strumenti abilitati all’intelligenza artificiale nel settore sanitario e oltre richiede una profonda comprensione delle potenziali conseguenze”, ha affermato Eto. “Qualsiasi implementazione deve essere valutata nel contesto di pregiudizi, privacy, equità, diversità e una varietà di altri fattori, con il contributo di più gruppi con competenze specifiche del contesto”.

L’AI Ethics Advisory Board fungerà da consulente esterno e obiettivo per le aziende che sono alle prese con questioni etiche dell’IA. Quando un’azienda contatta il consiglio con una richiesta, determinerà gli esperti in materia più adatti ad affrontare tale questione. Tali esperti formeranno una sottocommissione più piccola che avrà il compito di considerare la questione da tutte le prospettive pertinenti e quindi di risolvere il caso.

Leave a Comment

Your email address will not be published.