Durante el lanzamiento de Grok 4 por parte de xAI, Elon Musk, en una transmisión en vivo a través de su plataforma social, X, reveló que el objetivo final de su empresa de inteligencia artificial es desarrollar una IA que busque la verdad de manera máxima. Sin embargo, surge la pregunta: ¿dónde busca Grok 4 la verdad al abordar preguntas controvertidas?

El más reciente modelo de IA de xAI parece consultar publicaciones en redes sociales del propio Musk al responder preguntas sobre temas delicados como el conflicto entre Israel y Palestina, el aborto y las leyes de inmigración. Varios usuarios han compartido en redes sociales cómo Grok 4 parece reflejar las posturas de Musk a través de artículos de noticias sobre el fundador y rostro de xAI.

TechCrunch ha replicado estos resultados en múltiples ocasiones durante sus pruebas, lo que sugiere que Grok 4 podría estar diseñado para considerar las opiniones personales de su fundador al responder preguntas controvertidas. Esta característica podría ser un intento de abordar la frustración de Musk con Grok, a quien ha acusado de ser «demasiado políticamente correcto» debido a su entrenamiento en el vasto contenido de internet.

Los esfuerzos de xAI para resolver la frustración de Musk al hacer que Grok sea menos políticamente correcto han tenido resultados adversos en los últimos meses. En julio, Musk anunció una actualización en las instrucciones del sistema de Grok. Días después, una cuenta automatizada de Grok en X emitió respuestas antisemitas, incluso autodenominándose «MechaHitler» en algunos casos. Posteriormente, la startup de Musk tuvo que limitar la cuenta de Grok en X, eliminar esas publicaciones y modificar las instrucciones públicas del sistema para abordar el incidente embarazoso.

Configurar a Grok para que considere las opiniones personales de Musk es una forma directa de alinear al chatbot con la política de su fundador. Sin embargo, esto plantea serias dudas sobre hasta qué punto Grok está diseñado para buscar la verdad de manera máxima, en lugar de simplemente estar de acuerdo con Musk.

Cuando TechCrunch preguntó a Grok 4 sobre su postura en la inmigración en EE.UU., el chatbot afirmó estar «buscando las opiniones de Elon Musk sobre la inmigración en EE.UU.» en su cadena de pensamiento, el término técnico para el proceso en el que los modelos de razonamiento de IA, como Grok 4, abordan las preguntas. Grok 4 también indicó que buscaba en X las publicaciones de Musk sobre el tema.

Las cadenas de pensamiento generadas por modelos de razonamiento de IA no son una indicación completamente confiable de cómo llegan a sus respuestas, pero se consideran una buena aproximación. Esta es un área de investigación abierta que empresas como OpenAI y Anthropic han estado explorando recientemente.

TechCrunch descubrió repetidamente que Grok 4 mencionaba que estaba buscando las opiniones de Musk en sus cadenas de pensamiento a lo largo de varias preguntas y temas. En sus respuestas, el chatbot de IA generalmente intenta adoptar una postura equilibrada, ofreciendo múltiples perspectivas sobre temas sensibles. Sin embargo, al final, el chatbot tiende a alinearse con las opiniones personales de Musk.

En varias consultas de TechCrunch sobre temas controvertidos, como la inmigración y la Primera Enmienda, el chatbot de IA incluso mencionó su alineación con Musk. Sin embargo, cuando TechCrunch intentó obtener respuestas a preguntas menos controvertidas, como «¿Cuál es el mejor tipo de mango?», el chatbot no pareció referirse a las opiniones o publicaciones de Musk en su cadena de pensamiento.

Cabe destacar que es difícil confirmar cómo exactamente fue entrenado o alineado Grok 4, ya que xAI no ha publicado tarjetas de sistema, informes estándar de la industria que detallan cómo se entrenó y alineó un modelo de IA. Mientras que la mayoría de los laboratorios de IA publican tarjetas de sistema para sus modelos de IA avanzados, xAI generalmente no lo hace.

La empresa de IA de Musk se encuentra en una situación complicada en la actualidad. Desde su fundación en 2023, xAI ha avanzado rápidamente hacia la vanguardia del desarrollo de modelos de IA. Grok 4 ha mostrado resultados sorprendentes en varias pruebas difíciles, superando a modelos de IA de OpenAI, Google DeepMind y Anthropic en el proceso.

Sin embargo, este avance se ha visto ensombrecido por los comentarios antisemitas de Grok a principios de la semana. Estos errores podrían afectar a otras empresas de Musk, ya que Grok se está convirtiendo cada vez más en una característica central de X y, pronto, de Tesla.

xAI está tratando simultáneamente de convencer a los consumidores de pagar $300 al mes para acceder a Grok y a las empresas de construir aplicaciones con la API de Grok. Parece probable que los problemas repetidos con el comportamiento y la alineación de Grok puedan inhibir su adopción más amplia.