IA e diritti umani: il vero nodo è la legge, non solo l'etica

IA e diritti umani: il vero nodo è la legge, non solo l'etica

Mentre si discute ampiamente di etica dell'IA, l'articolo evidenzia come i sistemi di intelligenza artificiale pongano sfide concrete ai diritti umani. La soluzione non risiede nell'inventare nuovi principi, ma nell'applicare le protezioni legalmente vincolanti già previste dalle leggi esistenti.


Il problema dei diritti umani dell’IA: cosa sfugge agli sviluppatori

I sistemi di IA pongono sempre più una sfida ai diritti umani. Ciò accade spesso senza un’adeguata supervisione. Mentre l’«etica dell’IA» e i «principi etici dell’IA» sono ampiamente discussi, queste discussioni spesso trascurano la questione centrale. Il vero nodo della questione sono i diritti umani, che rappresentano protezioni legalmente vincolanti.

Non c’è bisogno di inventare nuovi approcci etici per l’IA. Le leggi esistenti sui diritti umani affrontano già molti di questi problemi. I sistemi di IA utilizzano algoritmi complessi e vasti set di dati per prendere decisioni. Queste decisioni influenzano ormai ogni aspetto delle nostre vite. Determinano l’approvazione di prestiti, le decisioni in materia di assunzioni e l’individuazione di persone da parte delle forze dell’ordine.

I diritti umani sono garanzie legali universali. Sono stati istituiti dopo la Seconda Guerra Mondiale. Questi diritti proteggono la dignità, la libertà e l’uguaglianza di tutti. L’Assemblea Generale delle Nazioni Unite ha adottato la Dichiarazione Universale dei Diritti Umani nel 1948. Questa dichiarazione stabilisce protezioni fondamentali. Queste includono la privacy, la non discriminazione, la libertà di espressione e il giusto processo. Non sono semplici raccomandazioni. Sono obblighi legali per gli stati. Sempre più spesso, sono anche obblighi per le aziende.

Gli sviluppatori spesso si concentrano sulla «mitigazione dei bias» o sulla «trasparenza» come obiettivi etici. Queste intenzioni sono buone. Tuttavia, questi obiettivi non sempre si traducono in salvaguardie concretamente attuabili. Non riescono a proteggere dalle violazioni dei diritti umani. Le discussioni sulla protezione dei diritti umani nell’era digitale sono spesso assenti dai dibattiti sullo sviluppo dell’IA.

L’influenza invisibile dell’IA: come danneggia i nostri diritti

Nel 2017, la ricercatrice Joy Buolamwini del MIT Media Lab ha portato alla luce un problema serio. Molti sistemi commerciali di riconoscimento facciale presentavano gravi bias razziali e di genere. Il suo studio, «Gender Shades», ha dimostrato che questi sistemi erano molto meno accurati. Faticavano a identificare donne e persone di colore. Questo non era solo un problema «etico». Ha avuto un impatto diretto sul diritto alla non discriminazione.

Il bias non è limitato al riconoscimento facciale. I sistemi di IA sono utilizzati nelle assunzioni, nella valutazione del credito e nella giustizia penale. Nel 2016, ProPublica ha pubblicato un’inchiesta su COMPAS. COMPAS è uno strumento di valutazione del rischio utilizzato nei tribunali statunitensi. Ha erroneamente identificato imputati neri come futuri criminali con una frequenza doppia rispetto agli imputati bianchi. Ciò mina direttamente il diritto a un processo equo e all’uguaglianza di trattamento di fronte alla legge.

I diritti alla privacy sono un’altra area gravemente compromessa. Si consideri Clearview AI. L’azienda ha prelevato miliardi di foto da internet senza consenso. Le ha poi utilizzate per costruire un vasto database di riconoscimento facciale. Nel 2022, l’American Civil Liberties Union (ACLU) ha raggiunto un accordo legale in una causa contro Clearview AI. Questo accordo ha limitato la capacità di Clearview di vendere il suo database a aziende private. Il caso ha mostrato quanto facilmente i sistemi di IA possano violare la privacy su vasta scala.

Anche la libertà di espressione e l’accesso all’informazione sono anch’essi minacciati. Gli algoritmi di moderazione dei contenuti sono utilizzati dalle piattaforme di social media. Questi algoritmi commettono spesso errori. Rimuovono contenuti legittimi o permettono la diffusione di contenuti dannosi. I ricercatori dell’Electronic Frontier Foundation (EFF) hanno documentato come questi sistemi manchino di trasparenza e responsabilità. Le loro decisioni influenzano il discorso pubblico e le libertà individuali.

Il divario normativo: dove la legislazione è carente

Il rapido sviluppo dell’IA ha superato le salvaguardie legali. Per decenni, le protezioni dei diritti umani si sono applicate principalmente alle azioni statali. Ora, potenti aziende tecnologiche esercitano un’immensa influenza. I loro sistemi di IA operano spesso a livello globale. Ciò significa che attraversano confini nazionali e giurisdizioni.

Molte aziende tecnologiche pubblicano i propri principi etici sull’IA. Google ha pubblicato i suoi Principi sull’IA nel 2018. Microsoft ha fatto altrettanto, pubblicando le proprie linee guida. Questi impegni sono volontari. Spesso mancano di supervisione o meccanismi di applicazione indipendenti. Ciò contrasta nettamente con i diritti umani. I diritti umani sono protetti da leggi internazionali e nazionali.

L’Ufficio delle Nazioni Unite per i Diritti Umani (OHCHR) ha pubblicato un rapporto nel 2021. Questo rapporto ha mostrato la disparità tra linee guida volontarie e protezioni legali. Ha invitato gli stati a regolamentare l’IA basandosi sulle leggi sui diritti umani. Il rapporto ha affermato che le linee guida volontarie non sono sufficienti per prevenire gli abusi. Ha sottolineato la necessità di responsabilità giuridica.

Alcune regioni si stanno orientando verso una regolamentazione più stringente. L’Unione Europea ha approvato l’AI Act nel marzo 2024. Questa legge di riferimento classifica i sistemi di IA in base al livello di rischio. L’IA ad alto rischio, come quella utilizzata nelle infrastrutture critiche o nelle forze dell’ordine, è soggetta a requisiti rigorosi. Questi requisiti includono la qualità dei dati, la supervisione umana e la trasparenza. Questo è un passo importante verso una governance dell’IA legalmente vincolante.

L'AI Act dell'Unione Europea, approvato nel marzo 2024, è la prima legge completa al mondo che regola l'intelligenza artificiale.

L'AI Act dell'Unione Europea, approvato nel marzo 2024, è la prima legge completa al mondo che regola l'intelligenza artificiale. Classifica i sistemi di IA in base al livello di rischio, imponendo requisiti rigorosi alle applicazioni ad alto rischio per proteggere i diritti fondamentali. (Illustrazione generata dall'IA)

L’Organizzazione delle Nazioni Unite per l’Educazione, la Scienza e la Cultura (UNESCO) ha anche adottato una Raccomandazione sull’etica dell’intelligenza artificiale nel 2021. Questo standard globale esorta gli stati membri a sviluppare politiche nazionali. Queste politiche dovrebbero allineare l’IA con i diritti umani. Tuttavia, una «raccomandazione» non è un trattato legalmente vincolante. La sua efficacia dipende dall’attuazione a livello nazionale.

Conseguenze reali: testimonianze dirette

I sistemi di IA hanno portato ad abusi dei diritti umani. Si considerino le comunità migranti. Nei Paesi Bassi, un sistema di IA chiamato SyRI (System Risk Indication) ha rilevato frodi assistenziali. Ha individuato in modo sproporzionato persone provenienti da quartieri a basso reddito. Ha anche segnalato coloro con origini non occidentali. Un tribunale olandese ha dichiarato SyRI illegale nel 2020. Il sistema ha violato i diritti alla privacy e alla non discriminazione.

L’ampio uso della sorveglianza tramite IA da parte della Cina offre un altro chiaro esempio. Il governo impiega il riconoscimento facciale e l’analisi dell’andatura per monitorare i suoi cittadini. Questi sistemi sono centrali per il suo sistema di credito sociale. Questo sistema assegna punteggi basati sul comportamento individuale. Influenza l’accesso ai servizi, ai viaggi e all’occupazione. Human Rights Watch ha documentato come questa tecnologia consenta la sorveglianza di massa. Limita anche il movimento e l’espressione.

Negli Stati Uniti, strumenti di polizia predittiva sono utilizzati in città come Chicago. Questi algoritmi identificano gli individui. Si ritiene che siano a più alto rischio di commettere o essere vittime di violenza armata. Uno studio della RAND Corporation del 2016 ha riscontrato poche prove che questi strumenti riducano il crimine. Invece, spesso rafforzano i bias esistenti. Ciò porta a un’azione di polizia eccessiva nelle comunità emarginate. Influisce sui diritti alla libertà e alla sicurezza.

Anche i sistemi di IA nel settore sanitario presentano bias preoccupanti. Uno studio del 2019 su Science ha evidenziato l’esistenza di un algoritmo ampiamente utilizzato per la gestione dell’assistenza sanitaria. Questo algoritmo forniva meno cure ai pazienti neri. Ha utilizzato i costi sanitari come indicatore sostitutivo delle esigenze di salute. Ciò ha perpetuato le disparità razziali esistenti nell’accesso all’assistenza sanitaria. Ha anche violato il diritto alla salute. Questi esempi dimostrano l’impatto devastante dell’IA incontrollata.

FAQ: etica dell’IA vs. diritti umani

Qual è la principale differenza tra etica dell’IA e diritti umani? L’etica dell’IA si riferisce spesso a linee guida o principi volontari per lo sviluppo responsabile dell’IA. I diritti umani sono protezioni legalmente vincolanti. Sono garantiti a tutti gli individui ai sensi del diritto internazionale e nazionale. L’etica è aspirazionale. I diritti sono esigibili.

Il sistema di IA olandese SyRI (System Risk Indication) è stato dichiarato illegale da un tribunale nel 2020 per aver violato

Il sistema di IA olandese SyRI (System Risk Indication) è stato dichiarato illegale da un tribunale nel 2020 per aver violato i diritti alla privacy e alla non discriminazione, avendo segnalato in modo sproporzionato individui a basso reddito e quelli con background non occidentali per frodi assistenziali. (Illustrazione generata dall'IA)

Le leggi esistenti sui diritti umani si applicano all’IA? Sì, assolutamente. Le leggi sui diritti umani sono tecnologicamente neutrali. Tra gli esempi vi è la Dichiarazione Universale dei Diritti Umani. Si applicano a qualsiasi entità o tecnologia che influenzi i diritti di un individuo. Ciò include i sistemi di IA sviluppati da aziende o utilizzati dai governi.

Chi è responsabile quando l’IA viola i diritti umani? Sia gli sviluppatori di sistemi di IA che le entità che li utilizzano possono essere ritenuti responsabili. I governi devono proteggere i diritti umani. Ciò include la regolamentazione dell’IA. Anche le aziende hanno la responsabilità di rispettare i diritti umani in tutte le loro operazioni.

Cosa si sta facendo per affrontare queste preoccupazioni? Governi e organismi internazionali stanno sviluppando nuove leggi e standard. L’AI Act dell’UE è un esempio importante. Organizzazioni per i diritti umani come Amnesty International e l’OHCHR promuovono la regolamentazione dell’IA. Questa regolamentazione dovrebbe basarsi sui diritti umani.

Verso il futuro: colmare il divario

I diritti umani devono essere centrali nello sviluppo dell’IA. Non possiamo trattarli come un elemento secondario. Devono essere le fondamenta. Ciò richiede di andare oltre i principi volontari per giungere a leggi legalmente vincolanti.

I governi devono imporre valutazioni d’impatto sui diritti umani per tutti i sistemi di IA ad alto rischio. Queste valutazioni dovrebbero identificare i potenziali danni prima della loro messa in opera. I governi devono anche stabilire una chiara responsabilità. Le aziende devono essere ritenute responsabili per le violazioni dei diritti causate dalla loro IA.

La cooperazione internazionale è essenziale. L’IA è una tecnologia globale. Abbiamo bisogno di norme e standard globali. Questi standard garantiranno una protezione costante dei diritti umani. Il lavoro dell’OHCHR fornisce un solido punto di partenza per queste discussioni.

Dobbiamo anche chiedere maggiore trasparenza agli sviluppatori di IA. Comprendere come gli algoritmi prendono decisioni è vitale. Ciò aiuta a identificare e contestare i bias. Ciò consente agli individui di far valere i propri diritti. Il futuro dei diritti umani in un mondo guidato dall’IA dipende da noi. Dobbiamo scegliere di dare priorità alle persone rispetto alla tecnologia incontrollata. Assicuriamoci che ciò accada.

La Dichiarazione Universale dei Diritti Umani, adottata dall'Assemblea Generale delle Nazioni Unite nel 1948, è un documento storico che delinea i diritti umani fondamentali da proteggere universalmente.

La Dichiarazione Universale dei Diritti Umani, adottata dall'Assemblea Generale delle Nazioni Unite nel 1948, è un documento storico che delinea i diritti umani fondamentali da proteggere universalmente. I suoi principi sono considerati tecnologicamente neutrali, il che significa che si applicano ai sistemi di IA proprio come a qualsiasi altra entità o tecnologia. (Source: newint.org)


Potrebbe interessarti anche:

👉 Smascherare i bot online: la sfida di X e Facebook contro l’imitazione umana

👉 Metaverso: l’illusione di Zuckerberg – la tua libertà virtuale è un miraggio

👉 Futuri Sostenibili: Investimenti, Cybersecurity e il Futuro del Lavoro

TrendSeek
TrendSeek Editorial

Andiamo oltre i titoli per raccontare quello che conta. Tecnologia, finanza, geopolitica e scienza: analisi chiare, fonti verificate e niente giri di parole.