La IA desafía los derechos humanos: la solución está en la ley, no en nuevas éticas

La IA desafía los derechos humanos: la solución está en la ley, no en nuevas éticas

Los sistemas de inteligencia artificial ponen en riesgo garantías jurídicamente vinculantes. El debate ético obvia que las leyes de derechos humanos ya ofrecen el marco necesario para su regulación y supervisión.


El problema de la IA con los derechos humanos: lo que los desarrolladores olvidan

Los sistemas de IA ponen cada vez más en jaque los derechos humanos. Esto a menudo ocurre sin la supervisión adecuada. Aunque la “ética de la IA” y los “principios éticos de la IA” son ampliamente debatidos, estas conversaciones suelen obviar el problema central. El problema radica en los derechos humanos, que son garantías jurídicamente vinculantes.

No es necesario inventar nuevos marcos éticos para la IA. Las leyes de derechos humanos existentes ya contemplan muchas de estas preocupaciones. Los sistemas de IA utilizan algoritmos complejos y grandes volúmenes de datos para tomar decisiones. Estas decisiones ahora inciden en todos los aspectos de nuestra vida. Determinan la aprobación de préstamos, los resultados de contratación y el marcaje por parte de las fuerzas del orden.

Los derechos humanos son garantías legales universales. Se establecieron después de la Segunda Guerra Mundial. Estos derechos protegen la dignidad, la libertad y la igualdad de todas las personas. La Asamblea General de la ONU adoptó la Declaración Universal de Derechos Humanos en 1948. Esta declaración describe protecciones clave. Estas incluyen la privacidad, la no discriminación, la libertad de expresión y el debido proceso. No son sugerencias. Son obligaciones legales para los estados. Cada vez más, también son obligaciones para las empresas.

Los desarrolladores a menudo se centran en la “mitigación de sesgos” o la “transparencia” como objetivos éticos. Estas intenciones son buenas. Sin embargo, estos objetivos no siempre se traducen en salvaguardias exigibles. No logran proteger contra las violaciones de los derechos humanos. Las discusiones sobre la protección de los derechos humanos en la era digital suelen brillar por su ausencia en los debates sobre el desarrollo de la IA.

El control invisible de la IA: cómo daña nuestros derechos

En 2017, la investigadora Joy Buolamwini del MIT Media Lab expuso un problema grave. Muchos sistemas comerciales de reconocimiento facial mostraron un grave sesgo racial y de género. Su estudio, “Gender Shades”, reveló que estos sistemas eran mucho menos precisos. Tenían dificultades para identificar a mujeres y personas de color. Esto no era solo un problema “ético”. Impactó directamente el derecho a la no discriminación.

El sesgo no se limita al reconocimiento facial. Los sistemas de IA se utilizan en la contratación, la calificación crediticia y la justicia penal. En 2016, ProPublica informó sobre COMPAS. COMPAS es una herramienta de evaluación de riesgos utilizada en los tribunales de EE. UU. Etiquetó falsamente a los acusados negros como futuros delincuentes con el doble de frecuencia que a los acusados blancos. Esto socava directamente el derecho a un juicio justo y a la igualdad de trato ante la ley.

Los derechos de privacidad son otra de las principales víctimas. Consideremos Clearview AI. La empresa extrajo miles de millones de fotos de internet sin consentimiento. Luego las utilizó para construir una vasta base de datos de reconocimiento facial. En 2022, la Unión Americana de Libertades Civiles (ACLU) llegó a un acuerdo en una demanda contra Clearview AI. Este acuerdo limitó la capacidad de Clearview para vender su base de datos a empresas privadas. El caso demostró con qué facilidad los sistemas de IA pueden violar la privacidad a una escala masiva.

La libertad de expresión y el acceso a la información también enfrentan amenazas. Las plataformas de redes sociales utilizan algoritmos de moderación de contenido. Estos algoritmos a menudo cometen errores. Eliminan el discurso legítimo o permiten que se difunda contenido dañino. Investigadores de la Electronic Frontier Foundation (EFF) documentaron cómo estos sistemas carecen de transparencia y rendición de cuentas. Sus decisiones afectan al discurso público y las libertades individuales.

La brecha regulatoria: donde las leyes se quedan cortas

El rápido desarrollo de la IA ha superado las salvaguardias legales. Durante décadas, las protecciones de los derechos humanos se aplicaron principalmente a las acciones estatales. Ahora, poderosas empresas tecnológicas ejercen una inmensa influencia. Sus sistemas de IA a menudo operan a nivel global. Esto significa que cruzan fronteras nacionales y jurisdicciones legales.

Muchas empresas tecnológicas emiten sus propios principios éticos de IA. Google publicó sus Principios de IA en 2018. Microsoft siguió con sus propias directrices. Estos compromisos son voluntarios. A menudo carecen de supervisión o mecanismos de aplicación independientes. Esto contrasta fuertemente con los derechos humanos. Los derechos humanos están protegidos por leyes internacionales y nacionales.

La Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos (ACNUDH) publicó un informe en 2021. Este informe mostró la disparidad entre las directrices voluntarias y las protecciones legales. Instó a los estados a regular la IA aplicando las leyes de derechos humanos. El informe afirmó que las directrices voluntarias no son suficientes para prevenir abusos. Subrayó la necesidad de responsabilidad jurídica.

Algunas regiones están avanzando hacia una regulación más estricta. La Unión Europea aprobó la Ley de IA en marzo de 2024. Esta ley histórica clasifica los sistemas de IA por nivel de riesgo. La IA de alto riesgo, como la utilizada en infraestructura crítica o aplicación de la ley, enfrenta requisitos estrictos. Estos requisitos incluyen calidad de datos, supervisión humana y transparencia. Este es un paso importante hacia una gobernanza de la IA de obligado cumplimiento.

La Ley de IA de la Unión Europea, aprobada en marzo de 2024, es la primera ley integral del mundo que regula la inteligencia artificial.

La Ley de IA de la Unión Europea, aprobada en marzo de 2024, es la primera ley integral del mundo que regula la inteligencia artificial. Clasifica los sistemas de IA por nivel de riesgo, imponiendo requisitos estrictos a las aplicaciones de alto riesgo para proteger los derechos fundamentales. (Ilustración generada por IA)

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) también adoptó una Recomendación sobre la Ética de la Inteligencia Artificial en 2021. Esta norma global insta a los estados miembros a desarrollar políticas nacionales. Estas políticas deben alinear la IA con los derechos humanos. Sin embargo, una “recomendación” no es un tratado jurídicamente vinculante. Su eficacia depende de la implementación nacional.

Consecuencias reales: historias desde el frente

Los sistemas de IA han provocado abusos de los derechos humanos. Consideremos las comunidades migrantes. En los Países Bajos, un sistema de IA llamado SyRI (System Risk Indication) identificó fraude de bienestar social. Señaló desproporcionadamente a personas de barrios de bajos ingresos. También identificó a aquellos con orígenes no occidentales. Un tribunal holandés declaró ilegal a SyRI en 2020. El sistema violó los derechos a la privacidad y a la no discriminación.

El uso extensivo de la vigilancia por IA en China ofrece otro ejemplo claro. El gobierno despliega reconocimiento facial y análisis de la marcha para vigilar a sus ciudadanos. Estos sistemas son fundamentales en su sistema de crédito social. Este sistema asigna puntuaciones basadas en el comportamiento individual. Afecta el acceso a servicios, viajes y empleo. Human Rights Watch documentó cómo esta tecnología permite la vigilancia masiva. También limita el movimiento y la expresión.

En Estados Unidos, se utilizan herramientas de policía predictiva en ciudades como Chicago. Estos algoritmos identifican a individuos. Se cree que tienen un mayor riesgo de cometer o ser víctimas de violencia armada. Un estudio de RAND Corporation de 2016 aportó escasas pruebas de que estas herramientas reduzcan el crimen. En cambio, a menudo refuerzan los sesgos existentes. Esto lleva a una vigilancia excesiva en comunidades marginadas. Afecta a los derechos a la libertad y la seguridad.

Los sistemas de IA en la atención médica también muestran sesgos preocupantes. Un estudio de Science de 2019 reveló que un algoritmo ampliamente utilizado para gestionar la atención médica. Este algoritmo brindaba menos atención a los pacientes negros. Utilizaba los costos de atención médica como un indicador de las necesidades de salud. Esto perpetuó las disparidades raciales existentes en el acceso a la atención médica. También violó el derecho a la salud. Estos ejemplos demuestran el impacto devastador de la IA sin control.

Preguntas frecuentes: ética de la IA vs. derechos humanos

¿Cuál es la principal diferencia entre la ética de la IA y los derechos humanos? La ética de la IA a menudo se refiere a directrices o principios voluntarios para el desarrollo responsable de la IA. Los derechos humanos son garantías jurídicamente vinculantes. Están garantizados a todas las personas en virtud del derecho internacional y nacional. La ética es aspiracional. Los derechos son exigibles.

El sistema de IA holandés SyRI (System Risk Indication) fue declarado ilegal por un tribunal en 2020 por violar

El sistema de IA holandés SyRI (System Risk Indication) fue declarado ilegal por un tribunal en 2020 por violar los derechos a la privacidad y a la no discriminación, al haber **señalado** desproporcionadamente a individuos de bajos ingresos y a aquellos con orígenes no occidentales por fraude de bienestar social. (Ilustración generada por IA)

¿Las leyes de derechos humanos existentes se aplican a la IA? Sí, absolutamente. Las leyes de derechos humanos son tecnológicamente neutrales. Entre los ejemplos se incluye la Declaración Universal de Derechos Humanos. Se aplican a cualquier entidad o tecnología que afecte a los derechos de un individuo. Esto incluye los sistemas de IA desarrollados por empresas o implementados por gobiernos.

¿Quién es responsable cuando la IA viola los derechos humanos? Tanto los desarrolladores de sistemas de IA como las entidades que los implementan pueden ser considerados responsables. Los gobiernos deben proteger los derechos humanos. Esto incluye la regulación de la IA. Las empresas también tienen la responsabilidad de respetar los derechos humanos en todas sus operaciones.

¿Qué se está haciendo para abordar estas preocupaciones? Los gobiernos y los organismos internacionales están desarrollando nuevas leyes y estándares. La Ley de IA de la UE es un ejemplo importante. Organizaciones de derechos humanos como Amnistía Internacional y el ACNUDH abogan por una regulación de la IA. Esta regulación debe basarse en los derechos humanos.

Avanzando: cerrando la brecha

Los derechos humanos deben ocupar un lugar central en el desarrollo de la IA. No podemos tratarlos como una ocurrencia tardía. Deben ser la base. Esto requiere ir más allá de los principios voluntarios hacia leyes de obligado cumplimiento.

Los gobiernos deben exigir evaluaciones de impacto en los derechos humanos para todos los sistemas de IA de alto riesgo. Estas evaluaciones deben identificar los posibles daños antes de la implementación. Los gobiernos también deben establecer una clara responsabilidad. Las empresas deben ser consideradas responsables por las violaciones de derechos causadas por su IA.

La cooperación internacional es esencial. La IA es una tecnología global. Necesitamos normas y estándares globales. Estos estándares garantizarán una protección constante de los derechos humanos. El trabajo del ACNUDH proporciona un sólido punto de partida para estas discusiones.

También debemos exigir una mayor transparencia a los desarrolladores de IA. Comprender cómo los algoritmos toman decisiones es vital. Esto ayuda a identificar y cuestionar los sesgos. Esto empodera a las personas para hacer valer sus derechos. El futuro de los derechos humanos en un mundo impulsado por la IA depende de nosotros. Debemos elegir priorizar a las personas sobre la tecnología sin control. Asegurémonos de que esto suceda.

La Declaración Universal de Derechos Humanos, adoptada por la Asamblea General de las Naciones Unidas en 1948, es un documento histórico que describe los derechos humanos fundamentales que deben protegerse universalmente.

La Declaración Universal de Derechos Humanos, adoptada por la Asamblea General de las Naciones Unidas en 1948, es un documento histórico que describe los derechos humanos fundamentales que deben protegerse universalmente. Sus principios se consideran tecnológicamente neutrales, lo que significa que se aplican a los sistemas de IA al igual que a cualquier otra entidad o tecnología. (Fuente: newint.org)


También te puede interesar:

👉 Bots en línea: El reto de detectar su suplantación en X y Facebook

👉 Metaverso: la identidad virtual que Zuckerberg controla

👉 Futuros Sostenibles: Inversión, Ciberseguridad y Futuro del Trabajo

TrendSeek
TrendSeek Editorial

Vamos más allá de los titulares para contar lo que realmente importa. Tecnología, finanzas, geopolítica y ciencia: análisis claro, fuentes verificadas y sin rodeos.