DIPLOMACIA DIGITAL

Avances en la regulación de la IA (1)

En 2023, se reunieron en GB líderes mundiales, ejecutivos corporativos y expertos académicos para la primera cumbre global de seguridad en el rubro

OPINIÓN

·
Carlos de Icaza / Diplomacia Digital / Opinión El Heraldo de MéxicoCréditos: El Heraldo de México

En 2023, se reunieron en GB líderes mundiales, ejecutivos corporativos y expertos académicos para la primera cumbre global de seguridad en el rubro

Tras los anuncios de Microsoft y Google sobre innovadoras soluciones tecnológicas que permitirán incorporar a las computadoras personales y otros dispositivos aplicaciones de Inteligencia Artificial (IA), al tiempo que habrán de transformar los motores de búsqueda, es claro que todos vamos –querámoslo o no– a interactuar mucho más con la IA generativa.

En este escenario caben al menos tres preguntas: ¿Cómo pueden aprovecharse estas tecnologías para el bien? ¿Cómo podemos tener confianza en la seguridad de la IA? y ¿Cómo van las negociaciones globales para regular la IA?

Con respecto a la primera pregunta, la próxima semana tendrá lugar una importante conferencia convocada en el marco de la ONU,  por la Unión Internacional de Telecomunicaciones (UIT). Se trata de la Cumbre Mundial de la IA para el bien 2024, que "ofrece un punto de encuentro para que múltiples expertos con diferentes opiniones puedan examinar los últimos avances de la IA y establecer cómo se puede garantizar que esta tecnología continúe siendo una fuerza para el bien, promoviendo el crecimiento inclusivo y el progreso sostenible y equitativo para todos", según señaló la Secretaria General de la UIT, Sra. Bogdan-Martin. Sobre el contexto y resultados de la cumbre versará nuestra próxima columna.

Como lo comentamos  el año pasado, en noviembre de 2023, reunieron en Bletchley Park, Gran Bretaña, líderes mundiales, ejecutivos corporativos y expertos académicos para la primera cumbre global de seguridad de IA, con la expectativa de avanzar hacia un consenso sobre la regulación de una tecnología que podría representar una amenaza para la humanidad.

En la segunda cumbre de Seguridad de la IA realizada la semana pasada en Seúl, Corea, 16 corporaciones de Norteamérica, Asia, Europa y el  Medio Oriente –incluyendo OpenAI, Mistral, Amazon, Anthropic, Google, Meta, Microsoft e IBM– pusieron en blanco y negro un conjunto de compromisos  para  identificar riesgos de la IA, establecer umbrales en los que esos riesgos se considerarían demasiado altos y ser transparentes al respecto, según una declaración de Reino Unido, que lo calificó como una primicia histórica.

En cuanto a la tercera pregunta, la semana pasada el Comité de Ministros del Consejo de Europa - un organismo internacional de 46 estados miembros del viejo continente - aprobó el primer tratado internacional jurídicamente vinculante destinado a garantizar el respeto de los derechos humanos, del Estado de derecho y las normas jurídicas democráticas en el uso de los sistemas de inteligencia artificial (IA).

El tratado, que también está abierto a países no europeos, establece un marco jurídico que abarca todo el ciclo de los sistemas de IA y que se ocupa de los riesgos que pueden plantear, a la vez que promueve la innovación responsable.

Por su parte el Consejo Europeo que reúne a los 27 jefes de Estado o de Gobierno de la Unión Europea dio la aprobación final a la Ley de IA de la UE que ya hemos comentado. Como dijo el Quijote: "ladran Sancho, señal que cabalgamos". 

POR CARLOS DE ICAZA

EMBAJADOR EMÉRITO Y EXSUBSECRETARIO DE RELACIONES EXTERIORES

EEZ