• Suscríbete y recibe todas las noticias
  • Anúnciate con nosotros
jueves 5 junio, 2025
Ahora Chiapas Noticias
  • Chiapas
  • Nacional
  • Deportes
  • Mundo
  • Política
  • Estilo y Vida
  • Insólito y Viral
  • Multimedia
  • Espectáculos
  • Tecnología
No Result
View All Result
  • Chiapas
  • Nacional
  • Deportes
  • Mundo
  • Política
  • Estilo y Vida
  • Insólito y Viral
  • Multimedia
  • Espectáculos
  • Tecnología
No Result
View All Result
Ahora Chiapas Noticias
No Result
View All Result
Home Tecnología

IA no distingue verdad de mentira: el riesgo de confiar en chatbots como verificadores

Con la reducción de verificadores humanos en las plataformas tecnológicas, los usuarios recurren cada vez más a los chatbots basados en IA -como Grok, de xAI, ChatGPT, de OpenAI, y Gemini, de Google.

by Ahora Chiapas
junio 3, 2025
in Tecnología
0
ComparteTweet

Cuando la desinformación se disparó durante los cuatro días de conflicto entre India y Pakistán, los usuarios de redes sociales recurrieron a un chatbot de inteligencia artificial (IA) para verificar los hechos, pero se encontraron con más falsedades, lo que subraya su poca fiabilidad como herramienta de verificación de datos.

Con la reducción de verificadores humanos en las plataformas tecnológicas, los usuarios recurren cada vez más a los chatbots basados en IA -como Grok, de xAI, ChatGPT, de OpenAI, y Gemini, de Google- en busca de información fiable.

«Hola @Grok, ¿esto es verdad?», se ha convertido en una pregunta habitual en la plataforma X de Elon Musk, donde el asistente de IA está integrado, lo que refleja la creciente tendencia a buscar desmentidos al instante en las redes sociales. Pero las respuestas suelen estar plagadas de desinformación.

Grok, ahora bajo un nuevo escrutinio por insertar «genocidio blanco», una teoría conspirativa de extrema derecha, en consultas que no están relacionadas con ello, identificó erróneamente un antiguo video del aeropuerto de Jartum, en Sudán, como un ataque con misiles contra la base aérea Nur Khan de Pakistán durante el reciente conflicto de ese país con India.

Las grabaciones de un edificio en llamas en Nepal se identificaron erróneamente como que «probablemente» fueran la respuesta militar de Pakistán a los ataques indios.

«La creciente confianza en Grok como verificador de datos se produce cuando X y otras grandes empresas tecnológicas han reducido sus inversiones en verificadores de datos humanos», declaró a la AFP McKenzie Sadeghi, investigadora del organismo de vigilancia de la desinformación NewsGuard.

«Nuestras investigaciones han demostrado repetidamente que los chatbots de IA no son fuentes fiables de noticias e información, especialmente cuando se trata de noticias de actualidad», advirtió.

Repetir falsedades

La investigación de NewsGuard reveló que 10 de los principales chatbots eran propensos a repetir falsedades, incluidas narrativas de desinformación rusa.

En un estudio reciente de ocho herramientas de búsqueda con IA, el Centro Tow para el Periodismo Digital de la Universidad de Columbia descubrió que los chatbots eran «generalmente malos para declinar preguntas que no podían responder con precisión, ofreciendo en su lugar respuestas incorrectas o especulativas».

Cuando los verificadores digitales de la AFP en Uruguay preguntaron a Gemini sobre una imagen de una mujer generada por IA, no solo confirmó su autenticidad, sino que inventó detalles sobre su identidad y el lugar donde probablemente se tomó la imagen.

Hace poco, Grok calificó de «auténtico» un supuesto video de una anaconda gigante nadando en el río Amazonas, citando incluso expediciones científicas que parecían creíbles para apoyar su falsa afirmación.

En realidad, el video fue generado por IA, reportaron los verificadores de la AFP en América Latina, que señalaron que muchos usuarios citaron la evaluación de Grok como prueba de que el clip era real.

Estos hallazgos han suscitado preocupación, ya que las encuestas muestran que los usuarios están cambiando cada vez más los motores de búsqueda tradicionales por chatbots de IA para recopilar y verificar información.

xAI, de Musk, atribuyó a una «modificación no autorizada» la generación de publicaciones no solicitadas por Grok que hacían referencia al «genocidio blanco» en Sudáfrica. Cuando el experto en IA David Caswell le preguntó a Grok quién podría haber modificado su sistema, el chatbot señaló a Musk como el culpable «más probable».

Musk, el multimillonario sudafricano partidario del presidente Donald Trump, ya había afirmado previamente que los líderes de Sudáfrica estaban «incitando abiertamente al genocidio» de la población blanca.

«Hemos visto cómo los asistentes de inteligencia artificial pueden falsificar resultados o dar respuestas sesgadas después de que programadores humanos modifiquen específicamente sus instrucciones», declaró a la AFP Angie Holan, directora de la Red Internacional de Verificación de Datos.

«Me preocupa especialmente la forma en que Grok ha gestionado incorrectamente solicitudes sobre asuntos muy sensibles tras recibir instrucciones para proporcionar respuestas preautorizadas».

Te puede interesar:  Renault Koleos inicia una nueva era

Previous Post

China acusa a EE. UU. de medidas de “supresión extrema” que quiebran la tregua arancelaria

Next Post

La Vía Láctea y Andrómeda podrían no colisionar después de todo

Ahora Chiapas

Next Post
La Vía Láctea y Andrómeda podrían no colisionar después de todo

La Vía Láctea y Andrómeda podrían no colisionar después de todo

No Result
View All Result

Entradas recientes

  • ¿Cómo hacer una mascarilla para tener las cejas más pobladas? Adiós al microblanding
  • Reddit demanda a Anthropic por uso ilegal de contenido
  • Museo en Miami explora el futuro de la interacción humana con la IA y sus dilemas éticos
  • ¿Qué sienten realmente los perros al bañarse? La ciencia tiene la respuesta
  • Trump ordena investigar el uso de una «pluma automática» de Biden para firmar documentos
Facebook Twitter Instagram Youtube TikTok

Chiapas, México
Derechos Reservados © 2024 [email protected] .

No Result
View All Result
  • Chiapas
  • Nacional
  • Deportes
  • Mundo
  • Política
  • Estilo y Vida
  • Insólito y Viral
  • Multimedia
  • Espectáculos
  • Tecnología

Chiapas, México
Derechos Reservados © 2024 [email protected] .