EL MUNDO DEL DERECHO

La Inteligencia Artificial como actor en la democracia

La inteligencia Artificial (IA) es posiblemente el avance tecnológico que mayor expectativa ha causado en el último año con motivo del lanzamiento del chatbot conocido como ChatGPT

La Inteligencia Artificial como actor en la democracia

La Inteligencia Artificial (IA) es posiblemente el avance tecnológico que mayor expectativa ha causado en el último año con motivo del lanzamiento del chatbot conocido como ChatGPT, el cual, como ya es de conocimiento general, es capaz de articular respuestas puntuales en lenguaje natural como si fuera un ser humano a prácticamente cualquier pregunta que le sea formulada, con base en el uso de la big data y el machine learning.

Esa gran expectación causada por el ChatGPT representa la punta de un gran iceberg que se ha ido gestando durante décadas y cuyo desarrollo no ha sido lineal y mucho menos permanentemente progresivo. En efecto, la IA no es algo novedoso; surgió desde la segunda mitad del siglo XX –con sus altas y sus bajas–, así como tampoco lo ha sido su introducción en la vida cotidiana: ya desde la década de los 90s empezaron a aparecer las primeras máquinas dentro de distintos mercados para el consumo de las personas de a pie con artefactos como las aspiradoras inteligentes, los videojuegos o, incluso los efectos especiales en el ámbito del cine y el entretenimiento

Sigue leyendo: 

Suman proyecto jurídico

Violencia contra las mujeres: entre la cultura y el derecho

Incluso sobre esto, convendría recordar a la famosa máquina con IA bautizada como Deep Blue, la cual fue capaz de vencer al ajedrecista más hábil del mundo en su momento, el gran maestro ruso de esta disciplina, Garri Kasparov en 1997. 

Ciertamente, la humanidad está experimentando una nueva “primavera” de la IA que ha revitalizado el concepto de sociedad 4.0 –acuñado por Klaus Schwab, presidente ejecutivo del Foro Económico Mundial– o bien, como lo denominan otros, la cuarta revolución industrial; siendo ambos conceptos coincidentes en hacer alusión a la etapa en la que los avances tecnológicos impactan en tres ámbitos muy específicos con un potencial transformador sin precedentes: la robótica, la Inteligencia Artificial y la computación cuántica. 

Los decisivos avances de la IA en fechas recientes resuenan para muchos, especialmente para aquellos que no son nativos digitales. Como toda una revolución que podría ser similar en magnitud a la acontecida en su momento con la aparición de la web, las primeras computadoras dirigidas al público general y los smartphones. 

Sin duda, cada nueva revolución trae consigo notas características e implicaciones distintas, sin embargo, existen elementos en esta que riman con el pasado en cuanto a su potencial de transformar el mundo –efectos y alcances que, como es de esperarse, aún no están claros como suele pasar en este tipo de procesos de cambio–.

Ahora bien, toda revolución tecnológica que inicia o se origina en un campo concreto es capaz de adaptarse y continuar su desarrollo hacia otros ámbitos, teniendo impacto e incidencia en aspectos o elementos que no se tenían contemplados en un primer momento. La transformación tecnológica que trajo aparejadas a las Tecnologías de la Información y la Comunicación (TICs) ha alcanzado al ámbito electoral, por lo que el ejercicio de la democracia no ha estado exento de ese fenómeno, como tampoco lo estuvo en otros tiempos con la aparición de la televisión.

El primer debate presidencial televisado en Estados Unidos fue entre Richard Nixon y John F. Kennedy. Durante toda la campaña, sin embargo, uno de los dos candidatos, y su equipo de campaña, comprendieron la importancia de aprovechar las herramientas tecnológicas que ofrecía su tiempo y trasladarlas a la arena política como una ventaja comparativa valiosa para vencer a sus oponentes. Así, Kennedy desarrolló una estrategia de campaña que priorizó el uso de la televisión como un medio de comunicación con los votantes, exponiendo constantemente su imagen frente a la cámara, a diferencia del resto de sus rivales.

De esa forma, la campaña del candidato demócrata logró potenciar el alcance de sus mensajes a las votantes, siendo esto un elemento decisivo que lo llevó a obtener la victoria con el 49.72% del voto popular y poco más del 50% en los colegios electorales.

De forma análoga a lo sucedido con la televisión, las redes sociales han sido a partir del siglo XXI los espacios predilectos de grandes figuras políticas alrededor del mundo para darle proyección a sus campañas y en muchas ocasiones han sido el factor decisivo entre la victoria y la derrota electoral. 

En 2016, observamos como el continuo uso de las redes sociales por parte de Donald Trump –estrategia que, por cierto, mantendría durante todo su periodo en el cargo y no solo como una herramienta electoral– terminaría siendo un factor indispensable para alcanzar y convencer a ciertos grupos específicos de votantes que, si bien no le dieron la mayoría de votos populares –pues esa cifra la obtuvo la demócrata Hillary Clinton–, le brindó los números suficientes en los colegios electorales para hacerse con la presidencia de Estados Unidos

El reto para el sistema electoral no se encuentra en el uso de las redes sociales por parte de los candidatos –pues éstas implican únicamente un medio de comunicación y circulación de ideas que, por sí mismo, es benéfico para cualquier democracia–. El problema radica en las técnicas y prácticas que están siendo empleadas y replicadas por los equipos de campaña a través de ellas en todo el mundo con intenciones ética y jurídicamente cuestionables

Como ya es conocido ampliamente, las redes sociales funcionan en buena parte con algoritmos e IA, los cuales son los principales responsables de que nuestros teléfonos celulares conozcan con precisión –muchas veces, incluso, mejor que nosotros mismos– nuestras propias preferencias y necesidades. Esto, puede ser positivo desde el punto de vista económico y comercial por el hecho de acercar bienes y servicios a las personas que los requieren, así como para que la iniciativa privada mejore constantemente los productos que oferta a la sociedad. 

Quien haya pedido un servicio de Uber, debe saber que la aplicación ha encontrado el auto más cercano gracias a un algoritmo; si ha buscado una película en Netflix, el sistema ha ordenado y clasificado las películas o series disponibles tomando en cuenta sus gustos; ha buscado un producto en Amazon y tiempo después aparecen ante sus ojos ventanas que anuncian justo lo que buscaba. Todos estos son ejemplos de la manera en cómo las grandes compañías usan marketing algorítmico u otra clase de procesamiento de información para ofrecerle los servicios que usted necesita. Y lo cierto es que esto no es un fenómeno exclusivo de las grandes empresas, sino que en países desarrollados se está convirtiendo en una práctica extendida que permea hasta en las estrategias de medianos negocios

Asimismo, parte de la iniciativa privada emplea la información generada por algoritmos para predecir cuál será la cifra total de sus ventas y ganancias en cada periodo; definir quién del público objetivo de un negocio o tu base de clientes tiene mayores posibilidades de comprar un determinado producto; cuál es el desempeño esperado de cada una de las personas que forma parte de su equipo de trabajo, entre otros aspectos útiles. Es, por tanto, una herramienta que aumenta el crecimiento de las empresas, al mismo tiempo permite mayor eficiencia en su funcionamiento interno.  

Todo eso puede ser, en principio, positivo mientras el derecho a la privacidad y el correcto tratamiento de los datos personales de las personas estén garantizados. Sin embargo, ¿qué sucede si se trasladan esas herramientas a la esfera pública, concretamente, en los procesos electorales? ¿cómo los agentes estatales seguimos garantizando el acceso democrático al poder ante servicios que son prestados y –hasta este momento– mayormente regulados por particulares? 

La simbiosis redes sociales-algoritmos-IA trasladada al terreno electoral no ha dejado de presentar retos y problemas para todas las democracias, incluso para aquellas que gozan de un mayor grado de consolidación. Diversas Universidades de Estados Unidos efectuaron un estudio sobre el impacto de los algoritmos en la percepción de una muestra de personas en colaboración con Meta (antes Facebook). El estudio confirmó que los algoritmos no solo afectan el consumo de las personas, sino también tienen un impacto en sus creencias.  

Esa manipulación se exacerba cuando se introduce tecnología que tiene la capacidad de aprender y pensar de manera autónoma, emulando el proceso de reflexión humano. En ese sentido, la IA va más allá que un simple algoritmo y, de hecho, puede, a través de su pensamiento autónomo, distorsionarlo en su favor a medida que su inteligencia va siendo mayor como consecuencia del avance tecnológico y la innovación que está en marcha. 

La IA de tipo predictiva que se usa tanto a nivel comercial funciona bajo la llamada microsegmentación, es decir, clasificando a los consumidores. Al trasladar esos procesos al ámbito electoral, se hace la división no en torno a gustos, sino creencias y visiones políticas.

A través de la microsegmentación, los equipos de campaña de un determinado candidato son capaces de ajustar el mensaje en función del público al que va dirigido. Es una nueva versión de targeting político mucho más precisa, pero que otorga al candidato un impacto manipulador muy fuerte al contar con datos exactos sobre las creencias de la gente.

La campaña que llevó a Barack Obama a la presidencia fue pionera en el uso de la IA y la microsegmentación para llevar el mensaje correcto en función del público receptor del mensaje. Esa forma de hacer campaña fue replicada por Donald Trump, abriendo paso al escándalo de talla mundial bajo el nombre de Cambridge Analytica, una empresa que logró modelar de manera detallada al electorado estadounidense a fin de ofrecer políticamente, no lo que el candidato propone, sino lo que la gente quiere escuchar. 

A la lista de jefes de estado que hoy están en el cargo gracias, en alguna medida al uso de la IA, habría que sumar los apellidos Trudeau, Macron o Modi, solo por mencionar algunos.  

Lo anterior, puede representar un reto para las democracias, en la medida que los actores políticos no defienden de manera auténtica sus posiciones y, por tanto, el electorado no conocerá realmente el perfil por el que vota. Asimismo, abre la puerta a malas prácticas electorales que encuentran en la IA un gran aliado para la manipulación y deliberación no auténtica.  

Hablando de otro reto que plantea la IA, para nadie es una novedad que en todo el mundo las conocidas granjas de bots –que no son otra cosa que programas automatizados que operan con IA– han sido auspiciadas y usadas por diversos actores políticos para posicionar su imagen y sus expresiones con la intención de marcar o dirigir la agenda pública en un momento determinado. Bueno, pues lo cierto esto este fenómeno está adquiriendo nuevos alcances nunca antes vistos. 

En un artículo publicado por el periodista Samuel Woolley para la revista de tecnología del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés), se explica cómo los bots en redes sociales están evolucionando a medida que algunos hackers no éticos introducen machine learning en su funcionamiento, lo está dando como resultado que estas máquinas posean un mejor desempeño que los humanos para realizar fraudes como el phishing y desinformar a la sociedad.  

Y si las nuevas versiones de bots con IA no supusieran ya por sí mismas un reto mayúsculo propiciar la auténtica deliberación humana en que se sustenta el sistema democrático, a ese fenómeno habría que sumar el uso de la denominada IA generativa en las campañas, –la cual es diferente a la IA predictiva que se usa para prever nuestras preferencias–. A diferencia de la IA predictiva que usa datos históricos para sacar conclusiones y la IA de tipo causal, que se centra en encontrar patrones entre variables aparentemente independientes, la IA generativa es aquella que crea contenido original y valioso, como imágenes, videos, pinturas, entre otras muchas cosas. En ese sentido, se trata –permítanme la analogía– del hemisferio derecho si la IA tuviera cerebro, es decir, es su faceta más creativa y artística

Estos tres enfoques de la IA están siendo fusionados para crear una versión mucho más versátil y potente al conjuntar la vertiente lógica compuesta principalmente por la IA de tipo predictivo y causal, con la creativa que representa la IA generativa. A esta nueva clase se le llama IA hipermodal. Recientemente, la compañía de monitoreo de aplicaciones Dynatrace lanzó la primera plataforma de este tipo a sus clientes. 

Pero ¿Qué tiene que ver todo esto con la democracia y las elecciones? Todo. La realidad social aún en su vorágine de cambio tecnológico no deja de exigir que las condiciones en las que se celebran los procesos democráticos sean equitativas para los competidores y brinden información cierta e igual para que la ciudadanía de forma libre decida cuál es la mejor opción política.

Estar atentos en cómo la IA impacta en nuestras interacciones sociales es una obligación de todos: autoridades, actores políticos y ciudadanía. 

Al igual que las granjas de bots en redes sociales, el fenómeno de las llamadas noticias falsas o fake news ya no es ninguna novedad. Lo que es actual y menos conocido es que esa IA generativa se esta usando para imitar nuestra voz, nuestros gestos y replicar nuestro cuerpo o cara a partir del análisis de nuestros movimientos y gestos. Gracias a la IA estamos transitando del fenómeno de las fake news, al de las deepfake o noticias ultrafalsas que en apariencia se ven reales, pero no lo son.  

En el terreno electoral y político esta clase de IA ya ha dado ejemplos de su trascendencia e impacto. En Estados Unidos recientemente fue publicado por el equipo de campaña del gobernador de Florida –quien aspira a la candidatura presidencial por el partido republicano– un video de Donald Trump en el que supuestamente aparecía abrazando a Anthony Fauci, el médico que gestionó el combate contra la pandemia de COVID-19 y cuya persona se encuentra ampliamente criticada dentro de dicho partido.

Este video fue circulado con la clara intención de desprestigiar al expresidente frente a los militantes y dirigentes partidistas que se debaten si postularlo para un segundo periodo o no. 

En otro caso, se difundió un video en el que el presidente Joe Biden supuestamente ordenaba el servicio militar obligatorio para contribuir en la guerra de Ucrania y, como tercer ejemplo, tenemos un video difundido en Tiktok en el que aparecía falsamente la senadora demócrata Elizabeth Warren llamando a prohibir o desincentivar el voto republicano en las próximas elecciones federales.

Todos estos casos muestran las intenciones de algunos grupos políticos para usar la IA con el único fin de generar, a través de mentiras o verdades parciales, emociones y percepciones en el votante que lo obliguen a inclinarse en favor o en contra de determinado político. Esta mala práctica afecta sin duda la calidad de las democracias, pues centra los puntos de debate al seno de la sociedad en torno a hechos que ni siquiera han sucedido –o no de la forma en que son presentados–, empañando el auténtico debate que debe existir para que los ciudadanos elijan al político que mejor pueda solventar los problemas que se consideran prioritarios. 

A la intención de esparcir mentiras o negar la realidad con el objetivo de beneficiarse y generar un clima de desconfianza marcado por la duda permanente, incluso hacia la información verán –en que la gente termina por no sabe qué creer–, se le ha denominado como “dividendo mentiroso”. Es una forma clara de elusión de la responsabilidad sobre hechos que no convienen a una figura pública y, lamentablemente, en el ámbito electoral ha tenido un vertiginoso desarrollo. 

Ahora bien, al final del camino la IA no, necesariamente, debe verse como una amenaza para la democracia, porque también tiene efectos positivos en el funcionamiento de nuestro sistema electoral y, en esa medida, puede servir al fortalecimiento de nuestro sistema político. Hay algunos ejemplos relevantes de esto: 

En Estados Unidos se está usando la IA para identificar variaciones en la firma de los votantes que sufragan por correo (militares en servicio o personas que están en el extranjero) para determinar si el voto es válido.

En diversos países, la IA generativa está siendo usada para crear información útil para los ciudadanos en respuesta a la desinformación. Para ello, se han creado chatbots que resuelven dudas, comprueban datos y proporcionan información relevante.

La IA también esta siendo usada para detectar precisamente la información falsa que generan otros modelos de IA.
Particularmente, en Europa, la IA está siendo usada para facilitar los procesos de fiscalización de los partidos y candidatos, encontrando y discriminando información importante entre la gran cantidad de datos contables que se generan. 

Estos ejemplos son evidencia de la importancia que tiene la apuesta por la transformación digital de las autoridades. Generalmente, el derecho y las instituciones –como encargadas de regular la realidad– han ido por detrás de los cambios sociales que han transformado el estado de cosas. Pero esa prudencia y desface natural de las instituciones no puede ser justificación para el rezago. 

En ese sentido, si nos preguntamos qué pueden hacer los Estados y, especialmente, las autoridades electorales para afrontar los problemas que han sido mencionados, la respuesta puede encontrarse con mucha probabilidad en la permanente apuesta por la modernización institucional a fin de alcanzar o superar a los infractores. 

Muchos gobiernos ya están tomando cartas en el asunto, aunque la regulación está desfasada de la realidad. Es posible observar que lo que actualmente orienta la actuación de desarrolladores y gobiernos son directrices éticas y el intercambio de experiencias que se desarrolla en cumbres y congresos.

Los esfuerzos de regulación nos obligan a observar la experiencia de Estados Unidos y de la Unión Europea.

Por un lado, Estados Unidos ha regulado las actividades de coordinación y educación sobre IA en todas las agencias federales. Ese esfuerzo regulatorio ha ido de la mano con otras directrices éticas con la publicación de un proyecto de Carta de Derechos de la IA (sin efectos vinculantes).

Recientemente, a finales de octubre de este año y en el contexto de la Cumbre de Bletchley de la que hablaré más adelante, el presidente Joe Biden publicó una Orden ejecutiva (conocida como The Blueprint for an AI Bill of Rights) que busca impulsar el liderazgo de Estados Unidos en la implementación de la IA. En la orden, se establece que la IA debe ser segura, por lo que dispone la necesidad de crear pruebas de evaluación y políticas de regulación que exijan a los desarrolladores los resultados de las pruebas de seguridad. Asimismo, propone la creación de estándares para evitar el fraude y que la ciudadanía detecte contenido generado por IA, para evitar noticias falsas e incluso, prevé la necesidad de que las agencias cuenten con personal designado (chief IA officers) a fin de identificar responsabilidades y coordinar actividades.

Del lado europeo, los estados miembros de la Unión Europea se organizaron con el fin de crear regulación homogénea sobre derechos humanos, riesgos, responsabilidad civil y seguridad sectorial. Aunque no se han emitido las reglas es importante destacar que se ha sugerido que en los servicios públicos como la administración de justicia y la democracia sean considerados temas de alto riesgo en donde la implementación de la IA debe hacerse prudentemente.

En nuestro país, no contamos aún con legislación específica en materia de IA, ni es posible identificar una estrategia gubernamental en estos momentos. Sin embargo, los avances están llegando de la mano del poder legislativo, particularmente del Senado de la República, instancia que en su Comisión de Ciencia y tecnología ya está analizando el tema. Concretamente, la cámara alta ha puesto en marcha la Alianza Nacional de Inteligencia Artificial (ANIA) con el propósito de sumar, reconocer y fortalecer la IA en México. 

Para lograr esto, la UNESCO elaborará, en coordinación con el Senado, un diagnóstico sobre el estado de la tecnología en el país para que el Congreso de la Unión se aproxime a los riesgos y beneficios de la IA y la regule. Para elaborar tal diagnóstico, se realizarán diversas mesas de trabajo que conjuntarán al sector público, privado y social con esfuerzos interdisciplinarios para escuchar a todas las voces involucradas.

Estos esfuerzos regulatorios conviven con directrices éticas globales y regionales. No se puede pasar por alto el primer marco normativo global instaurado en 2021 por la UNESCO, los Principios de la OCDE sobre Inteligencia Artificial que colocan a la IA al servicio de las personas y el planeta, la Declaración de Santiago que pone la colaboración como eje rector, la Declaración de Toronto sobre la protección de los derechos de igualdad y la no discriminación en sistemas de aprendizaje automático o los recientes Principios Orientadores y el Código de Conducta de la Inteligencia Artificial aprobados por el G7

Todos estos desafíos son compartidos. De ahí que las cumbres que en IA se celebran sean relevantes para combatirlos.

A nivel latinoamericano, la Cumbre Ministerial y de Altas Autoridades de América Latina y el Caribe sobre la ética de la Inteligencia Artificial (IA) –organizada por la UNESCO– se creó para el intercambio de mejores prácticas en políticas públicas y, a nivel global, es indispensable mencionar a la Cumbre Mundial de Seguridad de la Inteligencia Artificial en Londres (Cumbre de Bletchley) como un intento mundial de agremiar a gobiernos y desarrolladores.

Esta cumbre trascendió por la pretensión de crear un instituto de seguridad permanente, con sede en Reino Unido que sugirió tensión con un instituto similar que se está implementado en EU y que fue anunciado en la Orden Ejecutiva Biden, y por propiciar la colaboración internacional en temas de seguridad de la IA, particularmente, para observar los beneficios y riesgos de esta herramienta.

Con todo esto, queda claro que aún existe una falta de regulación formal en la materia por parte de prácticamente todos los países, el diálogo a nivel internacional se ha centrado en estándares éticos y las cumbres celebradas no han logrado crear instituciones que logren coordinar los esfuerzos gubernamentales en torno a la IA

La judicatura de la que formo parte no es ajena a estas discusiones. El aprovechamiento de las tecnologías es necesario para todas las instancias y órganos del Estado, incluidos los tribunales a nivel nacional o internacional. Sin embargo, ante ese imperativo han surgido asimismo preocupaciones por la opacidad de los sistemas de IA que pueden ser contrarios a la justicia abierta, el debido proceso y el Estado de Derecho.

Tras discusiones abiertas e identificación de necesidades comunes, en los últimos días la UNESCO lanzó un kit de herramientas para operadores jurídicos y usuarios que alerta sobre los beneficios y los riesgos de la IA en el trabajo legal. 

El kit nos lleva de la mano de conceptos y nos ayuda a entender cómo se construyen las cajas negras en los sistemas de IA para evidenciar la posible alimentación de categorías prohibidas en los proxies a fin de prevenir riesgos de derechos humanos. En estas aproximaciones se ha develado la necesidad de que siempre exista un ser humano en el circuito en la validación de las decisiones.

En el ámbito judicial se tienen identificadas claras ventajas y desventajas en la implementación de la IA en la administración de justicia. Si detallamos las preocupaciones que están detrás de cada uno de estos elementos, es evidente la interrelación de éstas con las inquietudes y riesgos que ya están presentes en otros sectores.

La experiencia nos ha enseñado ser cautelosos en el uso de estas herramientas en el acceso y provisión de justicia. El Caso Mata vs. Avianca Airlines, Inc. demostró la necesidad de ser más cautelosos en el empleo de programas de IA –como ChatGPT, Harvey.AI o Google Bard–. En ese asunto, un juez federal exigió a abogados y litigantes presentar evidencia que demostrara que en su petición no participó inteligencia artificial generativa ante el riesgo de citaciones falsas y sesgos discriminatorios.

Las decisiones judiciales y de los tribunales –en general– para la administración de justicia deberán considerar todos los riesgos asociados sin temor a las nuevas tecnologías. Para volver a la IA un aliado de un tribunal abierto, será entonces necesario conocer a profundidad los proxies que conforman los sistemas y contar con colaboraciones interdisciplinarias que eviten cualquier sesgo contrario a los derechos y prohibiciones legales.

En la arena electoral la complejidad de la interacción en medios digitales y la provisión de los servicios por entes privados, nos lleva a repensar cómo proteger la libertad de expresión en su doble dimensión (libertad de información). En esta ironía en la que el flujo de las ideas es abundante se presenta el riesgo de sordear –en algunos casos intencionalmente– la información verdadera y las opiniones que se están difundiendo en demérito de que la ciudadanía cuente con lo necesario para la toma de sus decisiones.

El libre tránsito de ideas y la maximización del debate electoral presenta nuevos desafíos que conviven con estrategias políticas en las que los intermediarios de las plataformas se tornan como actores políticos de relevancia: su colaboración con las autoridades es vital.

El uso ético de las tecnologías y la vocación de la tecnología al servicio de la ciudadanía debe ser el principio que oriente la actuación de los agentes estatales y de los desarrolladores. Estamos, afortunadamente, en el proceso de diálogo regulatorio; esperemos que las sanciones en el empleo malicioso de las tecnologías tarde en llegar, no por impunidad sino por ausencia de faltas.

Por último, considero importante que las autoridades electorales y los legisladores evaluemos el grado de vigencia de nuestro orden jurídico en relación con las exigencias de la realidad presente, particularmente en torno al modelo de comunicación política actual instituido desde 2007. Cabría preguntarse si dicho modelo se encuentra en consonancia con los tiempos y si debemos regular tiempos en redes sociales o si éste ya ha quedado superado desde la aparición de las redes sociales –y ahora la IA–.

Los nuevos retos que plantea la IA transformarán nuestro sistema electoral como sucederá probablemente en muchos otros ámbitos. Legisladores, gobiernos y jueces debemos trabajar en conjunto con los impulsores de estas tecnologías y con otros sectores relevantes de la sociedad para abrazar el cambio, poniendo a la tecnología al servicio de la humanidad, al mismo tiempo que protegemos aquellos valores e instituciones que garantizan nuestra estabilidad y prosperidad en todos sentidos.   

dhfm 

Temas