¿BENEFICIAN O PERJUDICAN?

ChatGPT acusa a profesor de derecho de atacar sexualmente a estudiantes, despierta los temores de usar la IA

Se alegó que el docente Jonthan Turley cometió esta agresión durante un viaje a Alaska que en realidad nunca sucedió, pero las preocupaciones de difamación por parte de esta herramienta se desatan

MUNDO

·
La Inteligencia Artificial se mete una vez más en una controversia, ahora en medio de la propagación de información errónea.Créditos: Adobe Stock

Lo que empezó como un logro poco a poco se va tornando en un arma de doble filo. Hablamos de la Inteligencia Artificial (IA) de Open AI conocida como ChatGPT, quien ahora se metió en otro escándalo, ahora por difamar a un profesor de derecho de haber atacado sexualmente a un estudiante durante un viaje a Alaska que nunca ocurrió. Los hechos se están llevando a cabo en Estados Unidos, donde el impactante suceso ha despertado grandes preocupaciones sobre la información errónea que podría divulgar esta herramienta. El acusado es un hombre llamado Jonthan Turley, quien aseguró que el AI-bot citó un "artículo de noticias" que nunca se escribió para respaldar sus afirmaciones.

Periodismo de la más alta calidad: síguenos en el nuevo Google News Showcase

Leyenda

La controversia sobre los peligros causados por la Inteligencia Artificial

El abogado defensor penal de Estados Unidos, Jonathan Turley, expresó sus temores sobre los peligros que puede llegar a generar la Inteligencia Artificial (IA) después de que fuera acusado injustamente por un comportamiento inapropiado que jamás pasó. ChatGPT acusó al docente de comportarse de manera sexual en contra de uno de sus estudiantes durante un supuesto viaje a Alaska que jamás hizo. Para respaldar sus afirmaciones, "se basó" en un artículo inexistente del The Washington Post, citando a una declaración que nunca fue emitida por el periódico. Aunado a esto, el chatbot "también creyó" que el fantasioso incidente ocurrió mientras el hombre se desempeñaba dentro de una facultar en la que jamás laboró. 

Divulgó su caso en redes sociales para alertar a la población

En un tuit, el profesor de la Universidad George Washington dijo que el pasado seis de abril del año en curso, "el presidente Joe Biden declaró que 'queda por ver' si la Inteligencia Artificial es 'peligrosa'. Yo opino diferente... pues me enteré de que ChatGPT informó falsamente sobre un reclamo de acoso sexual que nunca se hizo en mi contra en un viaje que nunca ocurrió mientras estaba en una facultad donde nunca enseñé." Luego de esto explicó que el AI-bot se basó en el artículo inexistente del prestigioso medio de comunicación norteamericano y que incluso había una declaración de emitida.

FOTO: Adobe Stock

El docente Jonathan Turley descubrió las acusaciones en su contra después de recibir un correo electrónico de uno de sus colegas, el maestro de UCLA, Eugene Volokh, quien le había pedido a ChatGPT que encontrara "cinco ejemplosdonde el "acoso sexual por parte de los profesores" había sido un "problema en las facultades de derecho estadounidenses". A la par, en un artículo para USAToday, el profesor acusado escribió que figuraba entre la lista. El bot supuestamente escribió que la denuncia alegaba que el hombre había hecho comentarios sexualmente sugerentes y que intentó tocar a la estudiante de una manera poco profesional durante un viaje patrocinado por la facultad de Derecho a Alaska, supuestamente el 21 de marzo del 2018.

Se detalló que este "incidente" pasó mientras Jonathan Turley trabajaba en el Centro de Derecho de la Universidad de Georgetown, pero nada de esto era cierto."No fue solo una sorpresa para el profesor de UCLA Eugene Volokh, quien realizó la investigación. Fue una sorpresa para mí, ya que nunca he ido a Alaska con estudiantes, The Post nunca publicó un artículo de este tipo y nadie me ha acusado de acoso o agresión sexual”, escribió para el medio local USAToday.

FOTO: Adobe Stock

Datos rápidos de ChatGPT: ¿Qué debo saber?

  • Es un chatbot basado en un modelo de lenguaje grande que puede generar un texto similar al humano y comprender consultas complejas.
  • Se lanzó el 30 de noviembre de 2022.
  • Para enero de 2023, tenía 100 millones de usuarios.
    • Creció más rápido que TikTok o Instagram.
  • La empresa que está detrás es OpenAI.
  • La compañía aseguró una inversión de 10 mil millones de dólares con Microsoft.
  • Otras empresas de de la industria ya tienen sus propios rivales, como Bard de Google.

Medios norteamericanos investigaron el incidente

El The Washington Post no se quedó de brazos cruzados y decidió corroborar las afirmaciones del también llamado GPT-4. Al parecer esta difamación parecía haber ocurrido después de la cobertura de prensa que descartaba el error inicial del chatbot. Aquí es donde se demostró que la IA puede divulgar con mucha facilidad información errónea. Tras el incidente, la directora senior de comunicaciones de Microsoft, Katy Asher, dijo a la publicación que había tomado medidas para garantizar que su plataforma fuera precisa.

"Hemos desarrollado un sistema de seguridad que incluye filtrado de contenido, monitoreo operativo y detección de abuso para brindar una experiencia de búsqueda segura para nuestros usuarios".

FOTO: Adobe Stock

Por su parte, el profesor Jonathan Turley respondió —en su blog— que si la Inteligencia Artificial puede difamarte, y estas empresas simplemente se "encogen de hombros" porque "siguen trabajando para ser precisas" deberíamos replantearnos el alcance de esta tecnología. Y es que "mientras sus cuentas falsas hacen metástasis a través de Internet. Cuando te enteras de una historia falsa, el rastro suele estar frío en sus orígenes con un sistema de IA." Añadió que el usuario se queda sin una vía clara o un autor en la búsqueda de reparación. Entonces la persona que se vio afectada se queda con la misma pregunta que otros funcionarios estadounidenses "¿Adónde voy para recuperar mi reputación?".

MailOnline se ha acercado a OpenAI y Microsoft para obtener comentarios

Tras la terrible experiencia que tuvo el el profesor Jonathan Turley y las preocupaciones que le surgieron de ChatGPT, el MailOnline quiso consultar directamente a la compañía. Pero no se proporcionó información precisa ni de manera consiente. Los investigadores descubrieron que el chatbot era utilizado para generar artículos de revistas falsos, compartir datos de salud inventados para respaldar afirmaciones y demás. Incluso, la plataforma tampoco proporcionó resultados tan "completos" como los encontrados a través de una búsqueda en Google, y se afirmó —ya que respondió incorrectamente una de cada diez preguntas— su hueco tecnológico.

FOTO: Adobe Stock

No debemos tomar a ChatGPT como un "evangelio", dicen expertos

El Asesor de Ciberseguridad Global de ESET, Jake Moore, advirtió que los usuarios de ChatGPT no deben tomar todo lo que lee como "un evangelio" pues así se podrá evitar la peligrosa propagación de información errónea.

"Los chatbots impulsados por IA están diseñados para reescribir los datos que se han introducido en el algoritmo, pero cuando estos datos son falsos o están fuera de contexto, existe la posibilidad de que la salida refleje incorrectamente lo que se ha enseñado. El grupo de datos en el que ha aprendido se ha basado en conjuntos de datos que incluyen Wikipedia y Reddit que, en esencia, no pueden tomarse como un evangelio."

El problema con ChatGPT es que no puede verificar los datos que podrían incluir información errónea o incluso datos sesgados. Peor aún es cuando la IA hace suposiciones o datos falsificados. En teoría, aquí es donde la parte de "inteligencia" de la IA debe asumir el control de manera autónoma y confiable para crear la salida de datos. Si esto es dañino como en este caso, entonces esto podría ser su ruina, comentó el experto. Estos temores también llegan en un momento en que los investigadores sugieren que ChatGPT tiene el potencial de "corromper" el juicio moral de las personas y puede resultar peligroso para los usuarios "ingenuos".

Muestra sentimientos como un humano, aunque no deja de ser un bot

Otros especialistas han recalcado cómo el software —que está diseñado para hablar como un ser humano— puede mostrar signos de celos, incluso decirle a la gente que abandone su matrimonio. Jake Moore continuó diciendo que "estamos entrando en un momento en el que necesitamos corroborar continuamente la información más de lo que se pensaba anteriormente, pero todavía estamos solo en la versión cuatro de ChatGPT e incluso en versiones anteriores con sus competidores". 

"Por lo tanto, es clave que las personas hagan su propia diligencia debida a partir de lo que leen antes de sacar conclusiones precipitadas".

¿ChatGPT reemplazará a Google? 

El desarrollador de Gmail, Paul Buchheit, ha predicho que "la IA eliminará la página de resultados del motor de búsqueda" y causará una "perturbación total" para Google. Un informe del New York Times también aseguró que los ejecutivos de dicha compañía emitieron un código rojo dentro de la empresa en medio de la creciente presión de ChatGPT. Y es que la principal forma en la que Google gana dinero es que los anunciantes pagan para que sus enlaces se muestren junto con los resultados de una consulta de búsqueda con la esperanza de que un usuario haga clic en ellos.

"La forma en que imagino que esto suceda es que la URL/barra de búsqueda del navegador —Google— se reemplaza con AI que autocompleta mi pensamiento/pregunta a medida que la escribo y al mismo tiempo proporciona la mejor respuesta —que puede ser un enlace a un sitio web o producto—.", explicó Paul Buchheit. 

Ahora se espera que la IA utilice al antiguo motor de búsqueda para recopilar información y enlaces relevantes, que luego se resumirán para el usuario. Será como pedirle a un investigador profesional que haga el trabajo, excepto que la IA lo relizará instantáneamente, lo que le tomaría muchos minutos a un humano. Mientras que algunos creen que ChatGPT reemplazará a Google, la IA tiene una opinión diferente.

"Como modelo de lenguaje de IA, no tengo la capacidad de asumir el control de ninguna empresa u organización, incluido Google. Mi propósito es ayudar y brindar respuestas útiles a los usuarios que interactúan conmigo. La empresa de tecnología multinacional tiene una sólida posición en el mercado y una amplia gama de productos y servicios, por lo que es muy poco probable que una sola entidad —incluido un modelo de lenguaje de IA como yo— pueda hacerse cargo de Google...

Además, creo que las empresas como Google y los modelos de lenguaje de IA como yo pueden trabajar juntos para brindar soluciones y servicios aún mejores a los usuarios de todo el mundo". 

 

Sigue leyendo: