La Comisión Europea propuso su primera normativa en materia de IA, el 21 de abril de 2021. En diciembre de 2022, el Consejo de la UE anunció su posición al respecto, misma que fue votada por el Parlamento Europeo el 14 de junio de 2023, teniendo como resultado nuevas medidas para la reglamentación de la IA que serán acordadas por los 27 países miembros.
Lo que se pretende con la ley europea de IA es generar parámetros comunes para su reglamentación, a partir de un enfoque equilibrado en su manejo y funcionamiento que garantice la seguridad de los sistemas y el respeto de los derechos fundamentales, los valores y los principios que rigen a la UE. De igual forma, se acordó una base de datos que regulará ocho ámbitos de aplicación de acuerdo al nivel de riesgo y las sanciones en la ley podrán alcanzar hasta el 6% de los ingresos globales de las empresas involucradas.
En un nivel de riesgo inaceptable se establecen: el uso de sistemas de identificación biométrica en tiempo real en espacios públicos, con la excepción de una orden judicial; la manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos, por ejemplo, los juguetes que se activan por voz estarán prohibidos para evitar propiciar comportamientos peligrosos para la niñez; la puntuación social o la clasificación de las personas en función de su comportamiento, estatus socioeconómico o características personales, para evitar una posible discriminación. Con un nivel de riesgo alto, se sitúan a las actividades de identificación biométrica remota, el derecho a la salud, la cirugía asistida por robots, el derecho a recibir un servicio o un crédito.
Los sistemas como el ChatGPT, se ubican con un nivel de riesgo limitado, por lo que deberán ser transparentes en su uso, es decir, revelar si el contenido ha sido generado o no por la IA, además de evitar que se generen contenidos ilegales. Finalmente, con un nivel de riesgo mínimo o nulo se sitúan a los videojuegos o el spam, cuyo uso es libre.
Es evidente, que la reglamentación en la UE de la IA trata de evitar que se afecten los derechos personales e impedir en todo momento la discriminación y su impacto negativo. Si bien, la implementación de dicha normativa en los países miembros terminará hasta 2025, estos lineamientos pueden servir de ejemplo para legislar a nivel local. Empero, habrá que determinar qué sistema normativo utilizar. Optar por una normativa diversa a la de China, Estados Unidos o Europa, dificultaría su implementación y traería consigo conflictos de extraterritorialidad, en el sentido de qué ley aplicar en un entorno soberano.
En México, debemos ser cuidadosos en el diseño de una ley que regule a la IA, a fin de alinear la legislación de la materia principalmente con los derechos personales, el derecho a la protección de datos y el derecho a la propiedad intelectual. Pero, además evitar que se confronte con las leyes existentes.
Por Hilda Nucci
Colaboradora
@hilnucci
MAAZ