Guarda dietro le quinte: non lasciarti abbagliare dalle affermazioni di “intelligenza artificiale”

Attualmente viviamo in un’era di “intelligenza artificiale”, ma non come le aziende che vendono “IA” vorrebbero farti credere. Secondo la Silicon Valley, le macchine stanno rapidamente superando le prestazioni umane in una varietà di compiti da quelli banali, ma ben definiti e utili come la trascrizione automatica a abilità molto più vaghe come “comprensione della lettura” e “comprensione visiva”. Secondo alcuni, queste abilità rappresentano addirittura un rapido progresso verso l'”Intelligenza Generale Artificiale”, o sistemi che sono in grado di apprendere nuove abilità da soli.

Date queste affermazioni grandiose e in definitiva false, abbiamo bisogno di una copertura mediatica che tenga conto delle aziende tecnologiche. Troppo spesso, invece, quello che otteniamo sono reportage senza fiato, anche in pubblicazioni venerabili come il New York Times.

Se i media ci aiutassero a superare l’hype, cosa vedremmo? Vedremmo che ciò che viene chiamato “AI” è in realtà sistemi di riconoscimento di schemi che elaborano quantità insondabili di dati utilizzando enormi quantità di risorse informatiche. Questi sistemi riproducono quindi probabilisticamente i modelli che osservano, con vari gradi di affidabilità e utilità, ma sempre guidati dai dati di addestramento. Per la trascrizione automatica di diverse varietà di inglese, la macchina può mappare le forme d’onda all’ortografia, ma si bloccherà con nomi di prodotti, persone o luoghi di spicco di recente. Nella traduzione dal turco all’inglese, le macchine mapperanno il pronome turco neutrale rispetto al genere “o” in “he” se il predicato “è un dottore” e “lei” se è “un’infermiera”, perché questi sono i modelli più importanti in i dati di allenamento.

Sia nella trascrizione automatica che nella traduzione automatica, il pattern matching è almeno vicino a quello che vogliamo, se siamo attenti a capire e rendere conto delle modalità di errore mentre utilizziamo la tecnologia. Problemi più grandi sorgono quando la gente dice sistemi che pretendono di fare cose come dedurre diagnosi di salute mentale dalle voci o “criminalità” dalle immagini dei volti delle persone: queste cose non sono possibili.

Tuttavia, è sempre possibile creare un sistema informatico che fornisca il tipo di output atteso (diagnosi di salute mentale, punteggio del crimine) per un input (registrazione vocale, foto). Il sistema non sarà sempre sbagliato. A volte potremmo avere informazioni indipendenti che ci permettono di decidere che è giusto, altre volte daranno un output plausibile, se non verificabile. Ma anche quando le risposte sembrano giuste per la maggior parte dei casi di test, ciò non significa che il sistema stia effettivamente facendo l’impossibile. Può fornire risposte che riteniamo “corrette” per caso, sulla base di correlazioni spurie nel set di dati, o perché siamo troppo generosi nell’interpretazione dei suoi output.

È importante sottolineare che se le persone che implementano un sistema credono che stia svolgendo il compito (non importa quanto mal definito), i risultati dei sistemi “IA” verranno utilizzati per prendere decisioni che influiscono sulla vita delle persone reali.

Perché i giornalisti e altri sono così pronti a credere alle affermazioni dei magici sistemi di “IA”? Credo che un fattore importante siano i sistemi show-pony come GPT-3 di OpenAI, che usano il riconoscimento di schemi per “scrivere” un testo apparentemente coerente “predicendo” ripetutamente quale parola viene dopo in una sequenza, fornendo un’impressionante illusione di intelligenza. Ma l’unica intelligenza coinvolta è quella degli umani che leggono il testo. Siamo noi a fare tutto il lavoro, usando intuitivamente le nostre capacità di comunicazione come facciamo con le altre persone e immaginando una mente dietro la lingua, anche se non c’è.

Anche se potrebbe non sembrare importante se un giornalista è ingannato da GPT-3, ogni pezzo che si adula per la sua presunta “intelligenza” dà credito ad altre applicazioni di “IA” – quelle che presumibilmente classificano le persone (come criminali, come dotate di malattia, ecc.) e consentono ai loro operatori di fingere che, poiché un computer sta facendo il lavoro, questo deve essere oggettivo e fattuale.

Dovremmo invece pretendere un giornalismo che non si lascia abbagliare dalle pretese di “intelligenza artificiale” e guarda dietro le quinte. Abbiamo bisogno di un giornalismo che ponga domande chiave come: quali modelli nei dati di formazione porteranno i sistemi a replicare e perpetuare i danni del passato contro i gruppi emarginati? Cosa accadrà alle persone soggette alle decisioni del sistema, se gli operatori del sistema le ritengono accurate? Chi trae vantaggio dal trasferire queste decisioni su un computer apparentemente oggettivo? In che modo questo sistema concentrerebbe ulteriormente il potere e quali sistemi di governo dovremmo chiedere per opporci a ciò?

È doveroso ricordare a tutti che i computer sono semplicemente strumenti. Possono essere utili se impostiamo loro compiti di dimensioni adeguate che corrispondono bene alle loro capacità e manteniamo il giudizio umano su cosa fare con l’output. Ma se confondiamo la nostra capacità di dare un senso al linguaggio e alle immagini generate dai computer per i computer che sono entità “pensanti”, rischiamo di cedere il potere, non ai computer, ma a coloro che si nasconderebbero dietro le quinte.

Leave a Comment