IA : l'éthique ne suffit pas, les droits humains s'imposent

IA : l'éthique ne suffit pas, les droits humains s'imposent

Les débats sur l'éthique de l'IA occultent trop souvent la question fondamentale des droits humains. Le cadre juridique existe déjà, il suffit de l'appliquer pour encadrer les systèmes d'intelligence artificielle.


L’IA face aux droits humains : ce que les développeurs négligent

Les systèmes d’IA interrogent de plus en plus les droits humains. Et ce, bien souvent, sans surveillance adéquate. Bien que l’« éthique de l’IA » et les « principes éthiques de l’IA » fassent l’objet de nombreux débats, ces discussions passent souvent à côté de la question fondamentale. Or, cette question est celle des droits humains, des protections juridiquement contraignantes.

Il n’est pas nécessaire d’inventer de nouveaux cadres éthiques pour l’IA. Les lois existantes sur les droits humains couvrent déjà bon nombre de ces enjeux. Les systèmes d’IA utilisent des algorithmes complexes et d’énormes volumes de données pour prendre leurs décisions. Ces décisions impactent désormais toutes les facettes de nos vies. Elles déterminent l’approbation de prêts, les résultats d’embauche et les signalements aux forces de l’ordre.

Les droits humains sont des garanties légales universelles. Ils ont été établis après la Seconde Guerre mondiale. Ces droits protègent la dignité, la liberté et l’égalité de chacun. L’Assemblée générale des Nations Unies a adopté la Déclaration universelle des droits humains en 1948. Cette déclaration énonce les protections fondamentales. Celles-ci incluent le respect de la vie privée, la non-discrimination, la liberté d’expression et les garanties d’une procédure équitable. Ce ne sont pas des suggestions. Ce sont des obligations légales pour les États. De plus en plus, elles sont aussi des obligations pour les entreprises.

Les développeurs se concentrent souvent sur la « réduction des biais » ou la « transparence » en tant qu’objectifs éthiques. Ces intentions sont bonnes. Cependant, ces objectifs ne se traduisent pas toujours par des garanties juridiquement contraignantes. Ils n’offrent pas une protection suffisante contre les violations des droits humains. Les discussions sur la protection des droits humains à l’ère numérique sont souvent absentes des débats sur le développement de l’IA.

L’emprise invisible de l’IA : comment elle porte atteinte à nos droits

En 2017, la chercheuse Joy Buolamwini du MIT Media Lab a mis en lumière un grave problème. De nombreux systèmes commerciaux de reconnaissance faciale révélaient de graves biais raciaux et de genre. Son étude, « Gender Shades », a révélé que ces systèmes étaient beaucoup moins précis. Ils avaient du mal à identifier les femmes et les personnes de couleur. Ce n’était pas seulement une question « éthique ». Cela a directement impacté le droit à la non-discrimination.

Les biais ne se limitent pas à la reconnaissance faciale. Les systèmes d’IA sont utilisés dans le recrutement, l’évaluation de la solvabilité et la justice pénale. En 2016, ProPublica a publié une enquête sur COMPAS. COMPAS est un outil d’évaluation des risques utilisé dans les tribunaux américains. Il a classé à tort les accusés noirs comme de futurs criminels deux fois plus souvent que les accusés blancs. Cela sape directement le droit à un procès équitable et à l’égalité de traitement devant la loi.

Les droits à la vie privée sont une autre victime de taille. Prenons l’exemple de Clearview AI. L’entreprise a aspiré des milliards de photos sur internet sans consentement. Elle les a ensuite utilisées pour construire une vaste base de données de reconnaissance faciale. En 2022, l’American Civil Liberties Union (ACLU) a transigé dans un procès contre Clearview AI. Cet accord a limité la capacité de Clearview à vendre sa base de données à des entreprises privées. L’affaire a montré avec quelle facilité les systèmes d’IA peuvent violer la vie privée à grande échelle.

La liberté d’expression et l’accès à l’information sont également menacés. Les algorithmes de modération de contenu sont utilisés par les plateformes de médias sociaux. Ces algorithmes font souvent des erreurs. Ils suppriment des contenus légitimes ou permettent la propagation de contenus nuisibles. Des chercheurs de l’Electronic Frontier Foundation (EFF) ont mis en évidence le manque de transparence et de responsabilité de ces systèmes. Leurs décisions impactent le discours public et les libertés individuelles.

Le fossé réglementaire : là où la législation fait défaut

Le développement rapide de l’IA a pris de vitesse les garanties légales. Pendant des décennies, les protections des droits humains s’appliquaient principalement aux actions des États. Désormais, de puissantes entreprises technologiques exercent une influence considérable. Leurs systèmes d’IA opèrent souvent à l’échelle mondiale. Cela signifie qu’ils traversent les frontières nationales et les ordres juridiques.

De nombreuses entreprises technologiques publient leurs propres principes éthiques en matière d’IA. Google a publié ses principes d’IA en 2018. Microsoft a emboîté le pas avec ses propres lignes directrices. Ces engagements sont volontaires. Ils manquent souvent de mécanismes de surveillance ou d’application indépendants. Cela contraste fortement avec les droits humains. Les droits humains sont protégés par les lois internationales et nationales.

Le Haut-Commissariat des Nations Unies aux droits humains (HCDH) a publié un rapport en 2021. Ce rapport a montré la disparité entre les lignes directrices volontaires et les protections légales. Il a appelé les États à réglementer l’IA en s’appuyant sur les lois relatives aux droits humains. Le rapport a souligné que les lignes directrices volontaires ne suffisent pas à prévenir les abus. Il a souligné la nécessité d’une responsabilité juridique.

Certaines régions s’orientent vers une réglementation plus stricte. L’Union européenne a adopté la loi sur l’IA en mars 2024. Cette loi historique classe les systèmes d’IA par niveau de risque. Les IA à haut risque, telles que celles utilisées dans les infrastructures critiques ou le maintien de l’ordre, sont soumises à des exigences strictes. Ces exigences incluent la qualité des données, la surveillance humaine et la transparence. C’est un pas majeur vers une gouvernance de l’IA juridiquement contraignante.

The European Union AI Act, passed in March 2024, is the world's first comprehensive law regulating a

La loi sur l'IA de l'Union européenne, adoptée en mars 2024, est la première loi complète au monde qui régit l'intelligence artificielle. Elle classe les systèmes d'IA par niveau de risque, imposant des exigences strictes aux applications à haut risque pour protéger les droits fondamentaux. (Illustration générée par l'IA)

L’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO) a également adopté une Recommandation sur l’éthique de l’intelligence artificielle en 2021. Cette norme mondiale exhorte les États membres à élaborer des politiques nationales. Ces politiques devraient mettre l’IA en conformité avec les droits humains. Cependant, une « recommandation » n’est pas un traité juridiquement contraignant. Son efficacité dépend de la mise en œuvre nationale.

Conséquences réelles : témoignages du terrain

Les systèmes d’IA ont conduit à des violations des droits humains. Prenons l’exemple des communautés migrantes. Aux Pays-Bas, un système d’IA appelé SyRI (System Risk Indication) a identifié la fraude aux prestations sociales. Il a ciblé de manière disproportionnée des personnes issues de quartiers à faibles revenus. Il a également ciblé celles d’origine non occidentale. Un tribunal néerlandais a déclaré SyRI illégal en 2020. Le système violait les droits à la vie privée et à la non-discrimination.

L’utilisation extensive de la surveillance par l’IA en Chine offre un autre exemple clair. Le gouvernement déploie la reconnaissance faciale et l’analyse de la démarche pour surveiller ses citoyens. Ces systèmes sont au cœur de son système de crédit social. Ce système attribue des scores basés sur le comportement individuel. Il affecte l’accès aux services, aux voyages et à l’emploi. Human Rights Watch a montré comment cette technologie permet la surveillance de masse. Elle limite également la liberté de mouvement et d’expression.

Aux États-Unis, des outils de police prédictive sont utilisés dans des villes comme Chicago. Ces algorithmes identifient des individus. Ils sont considérés comme présentant un risque plus élevé de commettre ou de subir des violences armées. Une étude de la RAND Corporation de 2016 n’a trouvé que peu de preuves que ces outils réduisent la criminalité. Au lieu de cela, ils renforcent souvent les biais existants. Cela conduit à une surveillance excessive dans les communautés marginalisées. Cela impacte les droits à la liberté et à la sécurité.

Les systèmes d’IA dans les soins de santé présentent également des biais préoccupants. Une étude de 2019 publiée dans Science a révélé qu’un algorithme largement utilisé dans la gestion des soins de santé accordait moins de soins aux patients noirs. Il utilisait les coûts des soins de santé comme substitut aux besoins en matière de santé. Cela a perpétué les disparités raciales existantes dans l’accès aux soins de santé. Cela a également violé le droit à la santé. Ces exemples prouvent l’impact dévastateur d’une IA non contrôlée.

FAQ : éthique de l’IA face aux droits humains

Quelle est la principale différence entre l’éthique de l’IA et les droits humains ? L’éthique de l’IA fait souvent référence à des lignes directrices ou des principes volontaires pour un développement responsable de l’IA. Les droits humains sont des protections juridiquement contraignantes. Ils sont garantis à tous les individus en vertu du droit international et national. L’éthique est une aspiration. Les droits sont exécutoires.

The Dutch AI system SyRI (System Risk Indication) was ruled illegal by a court in 2020 for violating

Le système d'IA néerlandais SyRI (System Risk Indication) a été déclaré illégal par un tribunal en 2020 pour avoir violé les droits à la vie privée et à la non-discrimination, ayant ciblé de manière disproportionnée des personnes à faibles revenus et celles d'origine non occidentale pour fraude aux prestations sociales. (Illustration générée par l'IA)

Les lois existantes sur les droits humains s’appliquent-elles à l’IA ? Oui, absolument. Les lois sur les droits humains sont neutres sur le plan technologique. La Déclaration universelle des droits humains en est un exemple. Elles s’appliquent à toute entité ou technologie qui impacte les droits d’un individu. Cela inclut les systèmes d’IA développés par des entreprises ou déployés par des gouvernements.

Qui est responsable lorsque l’IA viole les droits humains ? Les développeurs de systèmes d’IA et les entités qui les déploient peuvent être tenus responsables. Les gouvernements doivent protéger les droits humains. Cela inclut la réglementation de l’IA. Les entreprises ont également la responsabilité de respecter les droits humains tout au long de leurs opérations.

Que fait-on pour répondre à ces préoccupations ? Les gouvernements et les organismes internationaux élaborent de nouvelles lois et normes. La loi sur l’IA de l’UE en est un exemple majeur. Des organisations de défense des droits humains comme Amnesty International et le HCDH plaident pour une réglementation de l’IA. Cette réglementation devrait être basée sur les droits humains.

Aller de l’avant : combler le fossé

Les droits humains doivent être au centre du développement de l’IA. Nous ne pouvons pas les considérer comme un élément secondaire. Ils doivent être le fondement. Cela nécessite de passer des principes volontaires à des lois juridiquement contraignantes.

Les gouvernements doivent exiger des évaluations d’impact sur les droits humains pour tous les systèmes d’IA à haut risque. Ces évaluations devraient identifier les préjudices potentiels avant le déploiement. Les gouvernements doivent également établir une responsabilité claire. Les entreprises doivent être tenues responsables des violations des droits causées par leur IA.

La coopération internationale est essentielle. L’IA est une technologie mondiale. Nous avons besoin de normes mondiales. Ces normes garantiront une protection constante des droits humains. Le travail du HCDH offre un excellent point de départ pour ces discussions.

Nous devons également exiger une plus grande transparence de la part des développeurs d’IA. Comprendre comment les algorithmes prennent des décisions est vital. Cela aide à identifier et à contester les biais. Cela donne aux individus les moyens de faire valoir leurs droits. L’avenir des droits humains dans un monde piloté par l’IA dépend de nous. Nous devons choisir de privilégier les personnes plutôt que la technologie non contrôlée. Assurons-nous que cela se produise.

The Universal Declaration of Human Rights, adopted by the United Nations General Assembly in 1948, i

La Déclaration universelle des droits humains, adoptée par l'Assemblée générale des Nations Unies en 1948, est un document historique qui énonce les droits humains fondamentaux à protéger universellement. Ses principes sont considérés comme neutres sur le plan technologique, ce qui signifie qu'ils s'appliquent aux systèmes d'IA tout comme à toute autre entité ou technologie. (Source : newint.org)


Vous pourriez aussi aimer:

👉 Démasquer les bots en ligne : le défi du mimétisme sur X et Facebook

👉 Meta : l’identité virtuelle, une liberté sous conditions

👉 Avenirs durables : Investissement, Cybersécurité et Avenir du travail

TrendSeek
TrendSeek Editorial

Nous allons au-delà des gros titres pour raconter ce qui compte vraiment. Technologie, finance, géopolitique et science : analyses claires, sources vérifiées et sans détour.