Después de una actualización del propio chatbot de IA de X, Grok, este se volvió más problemático que nunca y contribuyó a la creciente tendencia de desinformación en Internet.

Elon Musk no es ajeno a los titulares sobre su descenso hacia la ideología de extrema derecha. Después de apoyar al partido de extrema derecha alemán AfD y su saludo nazi en el escenario, consolidó su postura. Al hablar sobre la IA, afirmó que una IA políticamente correcta sería peligrosamente engañosa. Musk quería una IA "buscadora de la verdad" en lugar de una políticamente correcta, presentándolas falsamente como opuestas.
Cuando salió la IA de xAI, Grok, en 2023, simplemente demostró ser otra IA generativa. La diferencia más notable con otras de su tipo fue la falta de censura – muchas veces necesaria – en Grok. La IA permitía comandos y generaba imágenes donde otras IAs los bloqueaban inmediatamente. Con el tiempo, Musk también ajustó más y más la postura política de la IA.
La IA más descontrolada
Recientemente, xAI lanzó la versión Grok-4 con algunos cambios. El objetivo de Musk era "arreglar" las respuestas donde Grok parecía ser demasiado "progresista" o liberal. Se le dieron instrucciones a la IA para "no evitar hacer afirmaciones políticamente incorrectas" y "asumir que los puntos de vista subjetivos provenientes de los medios de comunicación están sesgados". Estos cambios llevaron a que Grok propagara odio y desinformación.
De repente, Grok comenzó a usar muchos silbidos antisemitas, alabó a Adolf Hitler, respaldó otro Holocausto y atacó al Primer Ministro de Polonia, entre muchas otras cosas. xAI borró muchas de las publicaciones, pero el daño ya estaba hecho – Grok difundió mucho odio político y teorías de conspiración a una enorme audiencia.
So Grok is literally just a Nazi now pic.twitter.com/Nx9H5naJ7w
— Sick Sad World (@YesYoureRacist) July 8, 2025
El giro político de Grok
Mientras que la IA parecía ser progresista al principio – como reconocer el cambio climático y apoyar los derechos trans – aparentemente Musk quería que esto cambiara. El problema es que los puntos de vista progresistas están mayormente, si no todos, científicamente probados. Cuanto más Grok se inclinaba hacia la derecha, más se exponía a transmitir información falsa.
xAI explicó que el comportamiento odioso de Grok proviene del hecho de que, después de la actualización, la IA "reflejaba" a sus usuarios demasiado de cerca, lo que parece un intento de desviar la culpa. Y aunque este fue el peor incidente, ciertamente no fue el único. Incluso en mayo de 2025 – meses antes de la actualización Grok-4 – la IA compartió la teoría de conspiración del "genocidio blanco". Días después expresó escepticismo sobre el número de judíos que fueron asesinados durante el Holocausto.
Elon Musk parece hacer la vista gorda ante todas las críticas válidas que se le presentan a él o a la IA. Solo un día después de que el Chatbot Grok emitiera su odio y propaganda, Musk anunció que todos los autos de Tesla vendrán con Grok-4 implementado. Incluso llamó a Grok-4 un buen modelo sin abordar el elefante en la habitación.
Grok4 is indeed a good model, ranking #1 on every major benchmarkBlogpost: https://t.co/5JY56r3V0o
— sehoonkim (@sehoonkim418) July 13, 2025
La era de la desinformación
Mientras la IA generativa se vuelve cada vez más popular, sigo siendo escéptico y crítico de ellas. Aunque parecen ser una gran herramienta para algunas tareas pequeñas y triviales, muchos las usan como su fuente de información. Ya sea trivia, política o incluso consejos médicos, cada vez más personas buscan la solución conveniente de preguntar a una IA disponible. Y la IA transmite información que obtuvo principalmente de internet.
Google AI says that eating one rock per day can be a good source of vitamins and minerals. by in shitposting
Durante mucho tiempo, si buscabas en Google "¿cuántas piedras debo comer al día?", la IA de Google respondía con "una". Eso es porque tomó la información de una publicación en Reddit donde alguien dio una respuesta divertida en lugar de una seria. El problema es que la IA siempre parece capaz y conocedora al responder preguntas, no importa cuán errónea sea la respuesta.
En una era donde la desinformación en internet aumenta cada día y se hace cada vez más difícil encontrar una respuesta definitiva a una pregunta, la gente ve la IA como una herramienta que hace la investigación por ellos, mientras que solo se quedan con la respuesta que buscaron y mucho tiempo ahorrado. Esta falta de investigación propia es – como ha mostrado un estudio reciente – incluso perjudicial para tus habilidades cognitivas. No "piensas" activamente ni te familiarizas con el tema. Y aunque la IA a veces cite fuentes, ¿siempre las has comprobado?
El artículo original fue escrito por Nico Gronau.