
Algunos usuarios en X de Elon Musk están recurriendo al bot de IA de Musk, Grok, para la verificación de hechos, lo que suscita preocupaciones entre verificadores de hechos humanos de que esto pueda alimentar la desinformación.
A principios de este mes, X habilitó a los usuarios para llamar a xAI's Grok y hacer preguntas sobre diferentes temas. La medida fue similar a Perplejidad, que ha estado ejecutando una cuenta automatizada en X para ofrecer una experiencia similar.
Poco después de que xAI creara la cuenta automatizada de Grok en X, los usuarios comenzaron a experimentar haciendo preguntas. Algunas personas en mercados, incluida India, comenzaron a pedirle a Grok que verifique hechos sobre comentarios y preguntas que apuntan a creencias políticas específicas.
Los verificadores de hechos están preocupados por utilizar a Grok, u otro asistente de IA de este tipo, de esta manera porque los bots pueden enmarcar sus respuestas para que suenen convincentes, incluso si no son factualmente correctas. Se han visto casos de propagación de noticias falsas y desinformación con Grok en el pasado.
En agosto del año pasado, cinco secretarios de estado instaron a Musk a implementar cambios críticos en Grok después de que la información engañosa generada por el asistente surgiera en las redes sociales antes de las elecciones de EE. UU.
Otros chatbots, incluidos ChatGPT de OpenAI y Gemini de Google, también se vieron generando información inexacta sobre las elecciones el año pasado. Separadamente, los investigadores de desinformación encontraron en 2023 que los chatbots de IA, incluido ChatGPT, podían usarse fácilmente para producir textos convincentes con narrativas engañosas.
“Los asistentes de IA, como Grok, son muy buenos usando lenguaje natural y dando una respuesta que suena como si la hubiera dicho un ser humano. Y de esa manera, los productos de IA tienen esta afirmación sobre naturalidad y respuestas auténticas, incluso cuando potencialmente están muy equivocadas. Esa sería la peligros aquí,” Angie Holan, directora de la Red Internacional de Verificación de Datos (IFCN) en Poynter, dijo a TechCrunch.

A diferencia de los verificadores de hechos de IA, los verificadores de hechos humanos utilizan múltiples fuentes creíbles para verificar la información. También asumen total responsabilidad por sus hallazgos, con sus nombres y organizaciones adjuntos para garantizar la credibilidad.
Pratik Sinha, cofundador del sitio web de verificación de hechos sin fines de lucro de la India, Alt News, dijo que aunque Grok actualmente parece tener respuestas convincentes, solo es tan bueno como los datos con los que se le suministra.
“¿Quién decidirá con qué datos se le suministra, y ahí es donde la interferencia gubernamental, etc., entrará en juego,” señaló.
“No hay transparencia. Cualquier cosa que carezca de transparencia causará daño porque cualquier cosa que carezca de transparencia puede moldearse de cualquier forma.”
“Podría ser mal utilizado - para difundir desinformación”
En una de las respuestas publicadas a principios de esta semana, la cuenta de Grok en X reconocía que “podría ser mal utilizado - para difundir desinformación y violar la privacidad.”
Sin embargo, la cuenta automatizada no muestra ningún descargo de responsabilidad a los usuarios cuando obtienen sus respuestas, lo que les lleva a estar desinformados si, por ejemplo, ha alucinado la respuesta, que es la desventaja potencial de la IA.

“Puede inventar información para proporcionar una respuesta,” Anushka Jain, investigadora asociada del colectivo de investigación multidisciplinaria Digital Futures Lab con sede en Goa, dijo a TechCrunch.
También hay preguntas sobre cuánto Grok utiliza las publicaciones en X como datos de entrenamiento, y qué medidas de control de calidad utiliza para verificar hechos de dichas publicaciones. El verano pasado, implementó un cambio que parecía permitir que Grok consumiera datos de usuario de X por defecto.
La otra área problemática de los asistentes de IA como Grok accesibles a través de plataformas de redes sociales es su entrega de información en público, a diferencia de ChatGPT u otros chatbots que se utilizan de forma privada.
Incluso si un usuario es muy consciente de que la información que obtiene del asistente podría ser engañosa o no del todo correcta, otros en la plataforma aún podrían creer en ella.
Esto podría causar graves daños sociales. Se vieron casos de eso anteriormente en India cuando la desinformación circuló por WhatsApp y llevó a linchamientos de turba. Sin embargo, esos incidentes graves ocurrieron antes de la llegada de GenAI, que ha hecho que la generación de contenido sintético sea aún más fácil y parezca más realista.
“Si ves muchas de estas respuestas de Grok, vas a decir, hey, bueno, la mayoría de ellas son correctas, y eso puede ser así, pero va a haber algunas que estén equivocadas. Y cuántas? No es una pequeña fracción. Algunos de los estudios de investigación han mostrado que los modelos de IA están sujetos a tasas de error del 20%... y cuando se equivocan, pueden ir realmente mal con consecuencias del mundo real,” Holan de IFCN dijo a TechCrunch.
IA vs. verificadores de hechos reales
Aunque las empresas de IA, incluido xAI, están perfeccionando sus modelos de IA para que se comuniquen más como humanos, todavía no son, y no pueden, reemplazar a los humanos.
En los últimos meses, las empresas de tecnología están explorando formas de reducir la dependencia de los verificadores de hechos humanos. Plataformas como X y Meta comenzaron a adoptar el nuevo concepto de verificación de hechos crowdsourced a través de las llamadas Notas de la Comunidad.
Naturalmente, tales cambios también preocupan a los verificadores de hechos.
Sinha de Alt News cree de manera optimista que las personas aprenderán a diferenciar entre máquinas y verificadores de hechos humanos y valorarán más la precisión de los humanos.
“Vamos a ver que el péndulo eventualmente se balanceará hacia una verificación de hechos más exhaustiva,” dijo Holan de IFCN.
Sin embargo, señaló que mientras tanto, es probable que los verificadores de hechos tengan más trabajo con la información generada por IA que se propaga rápidamente.
“Gran parte de este problema depende de si realmente te importa lo que es verdadero o no. ¿Solo estás buscando el aspecto de algo que suena y se siente verdadero sin ser realmente cierto? Porque eso es lo que te darán los asistentes de IA,” afirmó.
X y xAI no respondieron a nuestra solicitud de comentario.