Tecnología

Grok, el chatbot de xAI, repitió teorías conspirativas sobre «el genocidio blanco» en Sudáfrica sin que se lo consultaran

El sistema de inteligencia artificial desarrollado por la empresa de Elon Musk generó respuestas fuera de contexto con referencias a una teoría conspirativa sin sustento. El incidente fue corregido horas después, pero reaviva el debate sobre los límites de la IA

El miércoles, el chatbot de xAI, Grok, exhibió un comportamiento extraño. A través de su cuenta oficial en la red social X (@grok), el sistema repitió referencias al “genocidio blanco” en Sudáfrica, incluso cuando los usuarios no hicieron preguntas al respecto.

El modelo de Inteligencia Artificial desarrollado por la compañía de Elon Musk también reiteró comentarios relacionados con los bóeres, tal como se conoce a los primeros colonos holandeses que se establecieron en Sudáfrica en el siglo XVII.

Por ejemplo, un usuario le preguntó a Grok sobre el salario de un jugador de béisbol profesional y el chatbot respondió: “La afirmación de genocidio blanco en Sudáfrica es muy debatida”, para luego añadir las visiones que desmienten y las que apoyan esa teoría.

La mayoría de esos mensajes fueron eliminados en X. Por lo demás, el problema se solucionó a las pocas horas y las respuestas del chatbot ahora se ajustan a las consultas que recibe.

¿Qué es el “genocidio blanco” en Sudáfrica?

Siguiendo a La Vanguardia, aquella es una teoría conspirativa de extrema derecha que divulgaron figuras como Elon Musk y Tucker Carlson.

Por lo demás, las singulares respuestas de Grok tienen un contexto de mención ineludible: se producen después de que el presidente de Estados Unidos, Donald Trump, concediera asilo a 54 sudafricanos blancos, acelerando ese trámite, mientras que miles de refugiados de otros países llevan años esperando su autorización, indica la fuente.

En ese marco, el mandatario dijo que ellos han sido víctimas de un “genocidio” y que “los agricultores blancos están siendo brutalmente asesinados”.

Cabe mencionar que no se han presentado pruebas que respalden estas afirmaciones.

Un recordatorio de la fragilidad de los chatbots

Tal como observa la publicación TechCrunch, las extrañas respuestas de Grok “nos recuerdan que los modelos de IA son una tecnología aún incipiente y que no siempre pueden ser una fuente fiable de información”.

De hecho, los errores del sistema de xAI no son aislados. Recientemente, los desarrollos de OpenAI y Google también presentaron falencias y lanzaron respuestas extrañas. Recientemente, la organización detrás de ChatGPT debió lanzar una corrección luego de que el chatbot entregue comentarios demasiado aduladores. Por su parte, Gemini también erró con datos erróneos sobre temas políticos, y anteriormente obligó a declaraciones rutilantes del CEO de la empresa, quien dijo que ciertas respuestas del modelo fueron “inaceptables”.

Entradas recientes

Trabajadores de FATE, junto a varios gremios y organizaciones sociales, cortaron Panamericana para exigir marcha atrás de los casi mil despidos

Hubo intervención de Gendarmería, pero negociaron que se corte una sola mano y la fuerza…

febrero 19, 2026

Un sismo de 4,7 puntos sacudió Mar del Plata

El Instituto Nacional de Prevención Sísmica informa que la intensidad fue nivel débil

febrero 19, 2026

Jueves con tormentas fuertes a la mañana, tormentas aisladas en la tarde y por la noche cielo mayormente nublado

El Servicio Meteorológico Nacional (SMN) anunció para este 19 de febrero una temperatura mínima de…

febrero 19, 2026

¿De qué va a trabajar la pibada?

En un mercado laboral donde los datos oficiales muestran un aumento sostenido del desempleo y…

febrero 19, 2026

Varios camiones volcaron por el fuerte viento en la autopista Rosario-Córdoba

El incidente se produce entre Armstrong y Tortugas en medio de un alerta meteorológico por…

febrero 19, 2026

Organizaciones taxistas solicitaron suba de tarifa del 30% y pidieron ayuda a la Provincia para el recambio de unidades

Lo plantearon en audiencia en la comisión de Servicios Públicos. Reclaman un nuevo estudio de…

febrero 19, 2026