Le cinque giganti della tecnologia, Apple, Amazon, Alphabet, Microsoft e Facebook, dominano il mercato mondiale e hanno alimentato due narrazioni strettamente collegate riguardo alla tecnologia: l’intelligenza artificiale e il suo problema legato ai pregiudizi. L’IA viene presentata come una forza potente, onnipresente e inarrestabile che può risolvere i problemi più grandi dell’umanità, benché in sostanza si tratti di trovare schemi in enormi quantità di dati. Il problema dei pregiudizi viene discusso in molti ambiti, dalla pubblicità online che mostra lavori più remunerativi agli uomini, ai servizi di consegna a domicilio che ignorano i quartieri più poveri, ai sistemi di riconoscimento facciale che discriminano le persone di colore, fino agli strumenti di selezione del personale che filtrano invisibilmente le donne.
Attorno a questi episodi di discriminazione vi è un alone problematico di auto-giustificazione: attraverso la quantificazione, naturalmente, vediamo il mondo in cui già viviamo. Tuttavia, ogni volta che emergono questi casi, ci si stupisce e ci si distacca dalle comunità realmente interessate, scoprendo che i sistemi basati sui nostri dati replicano e amplificano le disuguaglianze di razza, genere e classe sociale. Studiosi e professionisti si sono affrettati a trovare soluzioni ai problemi di pregiudizio nell’IA, cercando di rendere i dati e gli algoritmi maggiormente imparziali e obiettivi. Si è iniziato a pensare alla “giustizia” come obiettivo, concentrandosi sulle possibili definizioni matematiche e misurabili di questo concetto.
Questo approccio presenta tre problemi principali. Il primo è che trattare il pregiudizio come un problema computazionale ne oscura le cause profonde. Il pregiudizio è un problema sociale e cercare di risolverlo entro i confini della logica dell’automazione risulta sempre inadeguato. In secondo luogo, anche un’apparente soluzione al problema dei pregiudizi può avere conseguenze indesiderate. Ad esempio, immaginiamo un sistema di riconoscimento facciale che non funzioni correttamente su donne di colore a causa della loro scarsa rappresentanza sia nei dati di addestramento che tra i progettisti del sistema. Cerchiamo di migliorare il sistema, ma nel farlo, espone le minoranze, in particolare, a ulteriori danni. Infine, il terzo e più pericoloso problema è la distrazione che si crea dalla necessità di affrontare questioni più grandi e urgenti a causa del falso fascino di “risolvere” il problema del pregiudizio nell’IA.
Il pregiudizio è reale, ma è anche un diversivo affascinante che ci distoglie dalle questioni più importanti, come l’enorme asimmetria tra il costo sociale e il guadagno privato nell’implementazione di sistemi automatizzati. Inoltre, nega la possibilità di porsi domande cruciali come: dovremmo costruire questi sistemi affatto? Accettando passivamente le narrazioni esistenti sull’IA, si abbandona un’ampia area di sfida e immaginazione, normalizzando la pratica di cattura massiccia di dati e spostando sempre più il controllo nelle mani delle aziende tecnologiche. In questo contesto, non sorprende che molte delle voci più autorevoli nel denunciare il problema del pregiudizio nell’IA lo facciano con il sostegno e la benedizione di Facebook, Microsoft, Alphabet, Amazon e Apple. Se riconosciamo la natura intrinsecamente compromessa del dibattito sui pregiudizi nell’IA, possiamo individuare opportunità meritevoli di attenzione sostenuta da parte delle politiche pubbliche. Il primo passo è affrontare la questione della cessione indiscriminata dei dati della società che supporta lo sviluppo dei sistemi di IA. È tempo di rivalutare radicalmente chi detiene il controllo sui vastissimi tesori di dati attualmente appannaggio delle aziende tecnologiche.
Una politica dei dati più efficace incoraggerebbe una concorrenza più vivace e l’innovazione, entrambe rallentate dall’aumento del potere di mercato concentrato nelle mani dei giganti della tecnologia. La seconda grande opportunità è affrontare le domande esistenziali fondamentali e costruire processi robusti per risolverle. Quali sistemi meritano di essere costruiti? Quali problemi devono essere affrontati con maggiore urgenza? Chi è nella posizione migliore per farlo? E chi decide? Abbiamo bisogno di meccanismi di responsabilità genuini, esterni alle aziende e accessibili alle comunità e ai governi locali, affinché ogni sistema di IA integrato nella vita delle persone possa essere contestato, giustificato e eventualmente corretto.
L’intelligenza artificiale evoca un’onnipotenza mitica e oggettiva, ma è sostenuta da gruppi reali di denaro, potere e dati. Al servizio di queste forze, ci vengono presentate storie persuasive che promuovono un’ampia dipendenza da sistemi di classificazione basati sulla sorveglianza e regressivi che coinvolgono tutti noi in un esperimento sociale senza precedenti. Ora, più che mai, è necessaria una risposta robusta, audace e fantasiosa alle sfide che l’intelligenza artificiale pone alla nostra società.
Cosa ne pensi?
Mostra l'area commenti