Un grupo de expertos y ejecutivos en Inteligencia Artificial (IA) advirtió que la tecnología presenta un "riesgo de extinción", esto se dijo en una alarmante delcaración conjunta, la cual fue publicada el el día de hoy martes 30 de mayo. El jefe de OpenAI, Sam Altman, cuya firma creó ChatGPT, además del "padrino de la IA", Geoffrey Hinton, se encontraban entre más de 350 figuras prominentes que ven a la IA como una amenaza existencial. A través de una carta abierta organizada por el Centro sin fines de lucro para la Seguridad de la IA, los especialistas dijeron lo siguiente:
“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, enfatizaron los expertos en una declaración de 22 palabras.
La IA puede fomentar caos en la sociedad, agitación económica y más
De acuerdo con la breve declaración, estos expertos se suman a la serie de advertencias ya emitidas sobre los principales expertos que alertan el verdadero potencial de la IA, que podría fomentar el caos en la sociedad, con riesgos potenciales que incluyen: la difusión de información errónea, una gran agitación económica a través de la pérdida de empleos o incluso ataques directos a la humanidad. Sin embargo, la realidad ahorita es que ha aumentado la popularidad de este producto gracias a la intervención de OpenAI con ChatGPT y las aplicaciones que surgieron a la par de esta Inteligencia Artificial.
Y es que los riesgos potenciales sobre la Inteligencia Artificial siempre estuvieron a la vista. Tan es así que la semana pasada —cuando una foto fue generada por la IA— expuso falsamente información delicada del Pentágono lo cual desencadenó una liquidación que borró brevemente miles de millones en valor del mercado de valores de Estados Unidos antes de que fuera desacreditada. Por su parte, el Centro para la Seguridad de la IA declaró que la breve carta tenía la intención de "abrir la discusión" sobre el tema, además de ampliar "el espectro de riesgos importantes y urgentes de la IA".
¿Qué dicen los especialistas?
Además de Sam Altman y Geoffrey Hinton, los otros personajes de la industria que destacaron en la carta, incluyeron a: el jefe de Google DeepMind Demis Hassabis y otro destacado líder del laboratorio de Inteligencia Artificial, el director ejecutivo de Anthropic, Dario Amodei.
Altman, Hassabis y Amodei formaron parte de un grupo selecto de expertos que se reunió con el presidente Joe Biden a principios de este mes para analizar los posibles riesgos y regulaciones de la IA. Asimismo, Hinton y otro firmante, Yoshua Bengio, ganaron el Premio Turing 2018, el mayor honor del mundo de la computación por su trabajo sobre avances en redes neuronales que se describieron como "grandes saltos en inteligencia artificial".
“A medida que lidiamos con los riesgos inmediatos de la IA, como: el uso malicioso, la información errónea y la pérdida de poder; la industria de la IA y los gobiernos de todo el mundo también deben enfrentar seriamente el riesgo de que las futuras IA puedan representar una amenaza para la existencia humana.”, explicó Dan Hendrycks, director de el Centro para la Seguridad de la IA.
Por ello e, especialista cree que debemos de mitigar el riesgo de extinción de la IA, y que para ello se requerirá una acción global. “El mundo ha cooperado con éxito para mitigar los riesgos relacionados con la guerra nuclear. Se necesita el mismo nivel de esfuerzo para abordar los peligros que plantean los futuros sistemas de IA.", agregó Hendrycks.
A pesar de su papel de liderazgo en OpenAI, Sam Altman también ha expresado sus preocupaciones sobre el desarrollo desenfrenado de sistemas avanzados de IA. En un testimonio en Capitol Hill a principios de este mes, el vocero se pronunció a favor de las regulaciones gubernamentales para la tecnología, entre otras medidas de seguridad. En ese momento, el CEO admitió que su peor temor es que la Inteligencia Artificial pueda "causar un daño significativo al mundo" sin supervisión. Por otra parte, Hinton renunció recientemente a su trabajo de medio tiempo como investigador de IA para Google, pues así podría hablar más libremente sobre sus preocupaciones.
Otro en hablar fue el millonario Elon Musk se encontraba entre los cientos de expertos que pidieron una pausa de seis meses en el desarrollo avanzado de IA para que los líderes pudieran considerar cómo proceder de manera segura. Su extensa carta abierta —firmada por algunos de los mismos expertos que respaldaron la declaración del Centro para la Seguridad de la IA— sugirió que los peligros de la IA incluían la posible "pérdida de control de nuestra civilización". Asimismo vio "poca posibilidad" de que la Inteligencia Artificial "se convierta en Terminator" , una referencia al peor de los casos de la ciencia ficción de 1984 de James Cameron.