Il mondo dell’intelligenza artificiale si sta espandendo e un gruppo di esperti di intelligenza artificiale di Northeastern vuole assicurarsi che lo faccia in modo responsabile.
Le auto a guida autonoma stanno colpendo la strada e le auto degli altri. Nel frattempo un programma di riconoscimento facciale ha portato al falso arresto di un uomo di colore a Detroit. Sebbene l’IA abbia il potenziale per alterare il modo in cui interagiamo con il mondo, è uno strumento creato dalle persone e porta con sé i loro pregiudizi e le loro prospettive limitate. Ma Cansu Canca, fondatore e direttore di AI Ethics Lab, crede che le persone siano anche la soluzione a molte delle barriere etiche che devono affrontare la tecnologia AI.
Con l’AI Ethics Advisory Board, Canca, co-presidente del consiglio e responsabile dell’etica dell’IA dell’Institute for Experiential AI at Northeastern, e un gruppo di oltre 40 esperti sperano di tracciare un futuro responsabile per l’IA.
“Ci sono molte domande etiche che sorgono nello sviluppo e nell’utilizzo di sistemi di intelligenza artificiale, ma ci sono anche molte domande su come rispondere a queste domande in modo strutturato e organizzato”, ha affermato Canca. “Rispondere a entrambe queste domande richiede esperti, in particolare esperti di etica ed esperti di intelligenza artificiale, ma anche esperti in materia”.
Il consiglio è uno dei primi nel suo genere e, sebbene sia ospitato nel nord-est, è composto da esperti multidisciplinari provenienti dall’interno e dall’esterno dell’università, con competenze che vanno dalla filosofia alla progettazione dell’interfaccia utente.
“Il comitato consultivo per l’etica dell’intelligenza artificiale ha lo scopo di capire: qual è la cosa giusta da fare nello sviluppo o nell’implementazione di sistemi di intelligenza artificiale?” ha detto Canca. “Questa è la questione etica. Ma per rispondere abbiamo bisogno di qualcosa di più della semplice intelligenza artificiale ed etica”.
L’approccio multidisciplinare del consiglio coinvolge anche esperti del settore come Tamiko Eto, responsabile della conformità alla ricerca, del rischio tecnologico, della privacy e dell’IRB per il fornitore di servizi sanitari Kaiser Permanente. Eto ha sottolineato che, indipendentemente dal fatto che l’IA sia utilizzata nell’assistenza sanitaria o nella difesa, gli impatti devono essere analizzati in modo approfondito.
“L’uso di strumenti abilitati all’intelligenza artificiale nel settore sanitario e oltre richiede una profonda comprensione delle potenziali conseguenze”, ha affermato Eto. “Qualsiasi implementazione deve essere valutata nel contesto di pregiudizi, privacy, equità, diversità e una varietà di altri fattori, con il contributo di più gruppi con competenze specifiche del contesto”.
L’AI Ethics Advisory Board fungerà da consulente esterno e obiettivo per le aziende che sono alle prese con questioni etiche dell’IA. Quando un’azienda contatta il consiglio con una richiesta, determinerà gli esperti in materia più adatti ad affrontare tale questione. Tali esperti formeranno una sottocommissione più piccola che avrà il compito di considerare la questione da tutte le prospettive pertinenti e quindi di risolvere il caso.
Ma l’obiettivo non è solo quello di affrontare le preoccupazioni di aziende specifiche. Canca e i membri del consiglio sperano di rispondere a domande più ampie su come l’IA può essere implementata eticamente in contesti del mondo reale.
“La mentalità è per risolvere veramente le domande, non solo ‘gestire’ la domanda per il cliente, ma risolvere veramente la domanda e contribuire al progresso della pratica”, ha affermato Canca. “Questo non è un comitato di revisione o un comitato di conformità. Il nostro approccio è uno: ‘Identifichiamo le questioni etiche e creiamo tecnologie migliori. Miglioriamo la tecnologia con tutte queste capacità multidisciplinari che abbiamo, che possiamo portare a bordo.’”
È un approccio che Ricardo Baeza-Yates, co-presidente del consiglio di amministrazione, direttore della ricerca per l’Institute for Experiential AI e professore di pratica al Khoury College of Computer Science, ha ritenuto necessario per affrontare le questioni della privacy e della discriminazione che sono più comunemente visto nell’uso dell’IA. Baeza-Yates ha detto che quest’ultimo è particolarmente preoccupante, dal momento che non è sempre una semplice soluzione tecnica.
“Questo a volte deriva dai dati, ma a volte deriva anche dal sistema”, ha affermato Baeza-Yates. “Quello che stai cercando di ottimizzare a volte può essere il problema.”
Baeza-Yates indica i programmi di riconoscimento facciale e l’IA dell’e-commerce che hanno profilato le persone di colore e rafforzato pregiudizi e forme di discriminazione preesistenti. Ma il problema etico più noto nell’attuale uso dell’IA è l’auto a guida autonoma, che Baeza-Yates ha paragonato al problema del tram, un famoso esperimento mentale filosofico.
“Sappiamo che le auto a guida autonoma uccideranno meno persone [than human drivers], di sicuro”, ha detto Baeza-Yates. “Il problema è che stiamo salvando molte persone, ma uccideremo anche alcune persone che prima non erano in pericolo. Per lo più, si tratterà di persone vulnerabili, donne, bambini, anziani che, ad esempio, non si sono mossi così velocemente come si aspettava la modella o il bambino si è mosso troppo velocemente perché la modella si aspettasse”.
Le conversazioni sulle implicazioni etiche di tecnologie come l’auto a guida autonoma stanno iniziando solo nelle aziende. Per ora, l’etica dell’IA sembra molto “misteriosa” per molte aziende, ha detto Canca, il che può portare a confusione e disinteresse. Con il consiglio, Canca spera di avviare una conversazione più significativa e coinvolta e di porre un approccio basato sull’etica al centro del modo in cui le aziende affrontano la tecnologia andando avanti.
“Possiamo aiutarli a capire i problemi che stanno affrontando e a capire i problemi che devono risolvere attraverso un adeguato scambio di conoscenze”, ha affermato Canca. “Attraverso la consulenza, possiamo aiutarli a porre le domande giuste e aiutarli a trovare soluzioni o mitigazioni nuove e innovative. Le aziende stanno diventando sempre più interessate a stabilire una pratica di intelligenza artificiale responsabile, ma è importante che lo facciano in modo efficiente e in un modo che si adatti alla loro struttura organizzativa”.
Per le richieste dei mediasi prega di contattare Shannon Nargi all’indirizzo s.nargi@northeastern.edu o 617-373-5718.