Latest courses

Hacia una nueva ley sobre IA: Convergencias y divergencias

Encabezados
Print Friendly and PDF


Hacia una nueva ley sobre IA: Convergencias y divergencias

El Consejo de la Unión Europea ha llegado a un acuerdo político para la regulación de la inteligencia artificial en los países comunitarios. Aunque aún hay trámites pendientes para convertir este pacto en un texto legal, la nueva normativa ya ha generado críticas en el sector tecnológico, tanto en Estados Unidos como en Europa. Thierry Breton, comisario de Mercado Interior, anunció que la UE se convierte en el primer continente en establecer normas claras para el uso de la IA, destacando que es una plataforma para que las nuevas empresas y los investigadores de la UE lideren la carrera mundial de la IA.

Sin embargo, las críticas no se han hecho esperar, especialmente por parte de la Asociación de la Industria de la Informática y las Comunicaciones en Europa, que incluye a empresas como Amazon, Apple, Google, Intel, Meta, Uber y X, entre otras. En un comunicado, expresaron su preocupación por la imposición de «obligaciones estrictas a los desarrolladores de tecnologías punteras», argumentando que esto podría aumentar el riesgo de frenar la innovación en Europa. Casper Klynge, vicepresidente de Asuntos Gubernamentales en Europa de Microsoft, también señaló que la regulación podría afectar negativamente a la innovación y provocar un éxodo de empresas y talentos europeos de IA hacia otras regiones. Además, se criticó la rapidez con la que se llegó al acuerdo, sugiriendo que se sacrificó una legislación pensada para el futuro de la IA a cambio de una resolución rápida.

A pesar de aspectos positivos, como la prohibición de sistemas de puntuación social, hay críticas de Amnistía Internacional España, que considera que la ley viola los derechos humanos y deja puertas abiertas para la utilización de tecnologías que podrían vulnerar esos derechos. La ejecución de la ley corresponderá a los Estados europeos, con supervisión de la Oficina Europea de IA. Respecto a la aplicación de la ley, se espera que la identificación biométrica se utilice de manera rigurosa y en casos excepcionales. Las empresas serán responsables de determinar el nivel de riesgo de su tecnología, con controles posteriores por parte de la UE. Las violaciones de la ley pueden resultar en multas significativas. Aunque hay preocupaciones sobre el posible impacto en la competitividad de la UE en el desarrollo de la IA en comparación con EE. UU. y China, algunos defienden que la ley proporcionará una ventaja competitiva al situar a la IA europea a la vanguardia del respeto a los derechos humanos. Se espera que esta normativa influya en otros países para regular sus mercados de IA.

La ley clasifica la tecnología de IA en cuatro niveles de riesgo y prohíbe el uso de sistemas que representen una amenaza clara a los derechos fundamentales. Se prohíben, entre otros usos, la categorización biométrica por creencias políticas, religiosas, filosóficas, raza y orientación sexual. La ley también establece evaluaciones obligatorias del impacto en los derechos fundamentales y permite a los ciudadanos presentar quejas sobre sistemas de IA. En cuanto a las sanciones, las multas pueden variar según la infracción y el tamaño de la empresa, y se espera que la ley entre en vigor aproximadamente en 2026, con disposiciones específicas aplicándose en plazos más cortos. Aunque la ley busca proteger a los ciudadanos y promover la innovación, ha generado ciertas críticas y preocupaciones, especialmente en el sector tecnológico.

La Ley de Inteligencia Artificial, se enfoca en garantizar la seguridad y el respeto a los derechos fundamentales y la democracia, al mismo tiempo que impulsa la innovación. Algunos de sus puntos clave incluyen:

-Prohibiciones específicas: Se prohíben ciertas aplicaciones de IA, como la categorización biométrica basada en características sensibles, reconocimiento de emociones en lugares de trabajo, puntuación social y la IA que manipula el comportamiento humano o explota vulnerabilidades.

-Permisos y salvaguardas para fuerzas del orden: Se establecen condiciones estrictas y autorización judicial para el uso de sistemas de identificación biométrica por parte de las fuerzas del orden.

-Obligaciones para sistemas de IA de alto riesgo: Se requieren evaluaciones obligatorias del impacto en los derechos fundamentales para los sistemas de IA de alto riesgo.

-Requisitos transparentes: Se establecen requisitos transparentes para los sistemas de IA de uso general, con obligaciones más estrictas para los modelos de alto impacto.

-Apoyo a la innovación: Se promueve la innovación y se brinda apoyo a las PYMES a través de entornos de pruebas regulatorios y pruebas en el mundo real.

Aunque se espera que la normativa no entre en vigor hasta al menos 2026, las empresas desarrolladoras de IA se espera que adopten voluntariamente las obligaciones que la ley establece antes de su implementación formal. Esta medida tiene como objetivo autorregularse y facilitar una transición suave. El resultado de la implementación de la Ley de Inteligencia Artificial de la Unión Europea podría tener varios impactos en el desarrollo y uso de la inteligencia artificial en la región. Algunos posibles resultados incluyen:

-Protección de derechos fundamentales: La ley busca garantizar que la inteligencia artificial en Europa respete los derechos fundamentales y la democracia. Si se implementa correctamente, podría proporcionar un marco legal sólido para proteger los derechos de los ciudadanos frente a posibles abusos de la IA.

-Fomento de la innovación ética: Al establecer principios generales y una lista de riesgos, la ley podría alentar el desarrollo de tecnologías de inteligencia artificial de manera ética y responsable. Las empresas podrían verse impulsadas a adoptar prácticas que respeten los derechos humanos y eviten riesgos significativos.

-Impacto en empresas de IA: Las empresas desarrolladoras de inteligencia artificial, incluidas aquellas que crean tecnologías como ChatGPT, podrían tener que ajustar sus prácticas y tecnologías para cumplir con los requisitos de la ley. Esto podría incluir la implementación de medidas de transparencia y la adaptación a las regulaciones específicas.

-Desafíos de implementación: La ejecución efectiva de la ley dependerá de la supervisión y aplicación por parte de los Estados miembros de la UE. Pueden surgir desafíos en términos de cómo las empresas evalúan y clasifican el riesgo de sus sistemas de IA, así como en la aplicación coherente de las sanciones por incumplimiento.

-Influencia global: Dado el papel de liderazgo de la UE en la formulación de normas, la ley podría influir en cómo otros países desarrollan sus propias regulaciones sobre inteligencia artificial. Sin embargo, también podría haber desafíos en la armonización global de estándares y regulaciones.

Considero que regular la IA es un sistema de protección a los derechos que tenemos, pero también podemos hacer que avance mediante la creación de bancos de pruebas en un entorno seguro, que permita su desarrollo y valore los riesgos presentes y futuros. La investigación es un pilar fundamental para la tecnología y esto también sería interesante que la nueva ley lo recogiera.

 

Arantxa Serantes

Hacia una nueva ley sobre IA: Convergencias y divergencias

 

Cómo citar este artículo: SERANTES, ARANTXA. (2023). Hacia una nueva ley sobre IA: Convergencias y divergenciasNuminis Revista de Filosofía, Época I, Año 2, (CS20). ISSN ed. electrónica: 2952-4105. https://www.numinisrevista.com/2023/12/Hacia-una-nueva-ley-sobre-IA-Convergencias-y-divergencias.html

Numinis Logo
UAM Logo
Lulaya Academy Logo

Licencia de Creative Commons
Esta revista está bajo una licencia de Creative Commons Reconocimiento-NoComercial-CompartirIgual 4.0 Internacional

No hay comentarios:

Publicar un comentario