Regulación de la IA en Europa

· 700 palabras · Lectura de 4 minutos

Cada vez más países alrededor del mundo están creando leyes y políticas para regular la inteligencia artificial (IA). Aunque inicialmente Estados Unidos tuvo una postura más flexible hacia la IA, ahora hay un fuerte llamado a regularla. La Casa Blanca publicó el «Blueprint for an AI Bill of Rights», una guía para proteger los derechos de los estadounidenses en la era de la IA, y en 2023, el presidente Joe Biden firmó una orden ejecutiva sobre IA. En China, la Administración del Ciberespacio emitió directrices sobre servicios de IA generativa, mientras que el Reino Unido anunció un enfoque pro-innovación para regular la IA, principalmente mediante leyes ya existentes.

A nivel internacional, la Organización para la Cooperación y el Desarrollo Económicos (OCDE) adoptó algunos Principios no vinculantes sobre IA en 2019, la UNESCO lanzó un conjunto de Recomendaciones sobre la Ética de la IA en 2021, y el G7 acordó algunos Principios Internacionales de Orientación sobre Inteligencia Artificial en 2023. El Consejo de Europa está finalizando una convención internacional sobre IA. Además, en el marco de la nueva asociación tecnológica entre la UE y EE.UU. (el Consejo de Comercio y Tecnología), ambos buscan establecer un entendimiento común sobre los principios que deberían regir una IA confiable y responsable.

En diciembre de 2023, los legisladores de la Unión Europea lograron un acuerdo político sobre el borrador de la ley de inteligencia artificial (IA). Propuesto por la Comisión Europea en abril de 2021, este proyecto de ley es el primer reglamento horizontal y vinculante a nivel mundial sobre IA, estableciendo un marco común para el uso y suministro de sistemas de IA en la UE.

La legislación ofrece una clasificación que establece distintas obligaciones y derechos basados en un enfoque de «riesgo». Por ejemplo; un sistema de IA será de «alto riesgo» si puede tener un impacto perjudicial en la salud, la seguridad o los derechos fundamentales. Un sistema que presenta riesgos limitados, pero que no ofrece transparencia, tendrá obligaciones de información y transparencia. Un sistema que representa un riesgo mínimo, no tendrán mayores obligaciones.

Entre los sistemas de alto riesgo se identificaron los que tienen un componente de seguridad en un producto, como los autos con ayuda de manejo, o juguetes con IA en un componente de seguridad. También los utilizados por las agencias gubernamentales en el cumplimiento de la ley, por ejemplo; el sistema de créditos sociales chino representa una afectación a los derechos del hombre.

Los sistemas de IA con riesgo limitado, como chatbots, reconocimiento de emociones, categorización biométrica y deepfakes, deberán cumplir con algunas obligaciones de transparencia. Los sistemas de IA de bajo o mínimo riesgo podrán usarse en la UE sin requisitos legales adicionales, aunque se fomentará la adopción voluntaria de estándares más altos a través de códigos de conducta.

Acá surge un problema que estudié en el doctorado y tiene que ver con las definiciones. No existe una definición legal sobre lo que es la inteligencia artificial que no conduzca a la incertidumbre jurídica por la falta de claridad. Si la definición es muy amplia, esto traerá incertidumbre entre los desarrolladores y usuarios. Se solicitó eliminar estas restricciones a los sistemas IA para investigación y los de código abierto (OSS).

La definición propuesta, que esta alineada con la de la OCDE, es esta:

«Un sistema de IA es un sistema basado en máquinas diseñado para >operar con diferentes niveles de autonomía y que puede mostrar >adaptabilidad después de su implementación y que, para objetivos >explícitos o implícitos, infiere, a partir de las entradas que >recibe, cómo generar salidas tales como predicciones, contenido, >recomendaciones o decisiones que pueden influir en entornos físicos >o virtuales.»

Existe preocupación porque dejar la evaluación de riesgos en manos de los propios proveedores puede hacer que las reglas para prácticas prohibidas y de alto riesgo sean ineficaces. Expertos sugieren que los proveedores podrían clasificar erróneamente los sistemas de alto riesgo para que parezcan cumplir con las normas. Se recomienda que ciertos sistemas de alto riesgo sean evaluados por entidades independientes antes de su uso.

Referencias:

Parlamento Europeo. (2024, julio 18). EU Artificial Intelligence Act. https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_EN.pdf

Advertencia: Un sistema de inteligencia artificial fue utilizado para traducir, resumir o mejorar la redacción de este artículo.