Revelado: El nuevo ChatGPT cita a Grokipedia de Elon Musk en sus respuestas.
- Juan Carlos Ramírez

- hace 5 días
- 2 Min. de lectura

Por Delator.- El modelo más reciente de ChatGPT está comenzando a citar a Grokipedia (la enciclopedia de Elon Musk) como fuente en una amplia variedad de consultas, incluyendo temas sobre conglomerados iraníes y negacionistas del Holocausto, lo que ha despertado alarmas sobre la desinformación en la plataforma.
El diario británico The Guardian informó que en pruebas realizadas, GPT-5.2 citó a Grokipedia nueve veces en respuesta a más de una docena de preguntas distintas, las cuales incluyeron consultas sobre estructuras políticas en Irán y preguntas sobre la biografía de Sir Richard Evans, historiador británico que actuó como testigo experto en el juicio por difamación que el negacionista del Holocausto David Irving presentó contra Deborah Lipstadt y la editorial Penguin Books.
¿Qué es Grokipedia?
Es una enciclopedia en línea generada por IA que busca competir con Wikipedia; fue lanzada en octubre y es administrada por la startup de Inteligencia Artificial xAI (propiedad de Elon Musk). Ha sido criticada por propagar narrativas de derecha en temas como el matrimonio igualitario y la insurrección del 6 de enero en EE. UU. A diferencia de Wikipedia, no permite la edición humana directa; en su lugar, un modelo de IA escribe el contenido y responde a las solicitudes de cambios.
El fenómeno de la "filtración" de datos
ChatGPT no citó a Grokipedia cuando se le pidió directamente repetir información falsa sobre la insurrección o la epidemia de VIH/SIDA (áreas donde Grokipedia ha promovido falsedades). En cambio, la información se filtró en respuestas sobre temas más oscuros o específicos:
Irán: ChatGPT repitió afirmaciones más severas que las de Wikipedia sobre los vínculos del gobierno iraní con MTN-Irancell.
Datos desmentidos: Repitió detalles sobre el trabajo de Sir Richard Evans que The Guardian ya había refutado.
Otros modelos: No es solo OpenAI; se han reportado casos similares con Claude de Anthropic en temas que van desde la producción de petróleo hasta cervezas escocesas.
La respuesta de las tecnológicas y expertos
OpenAI: Un portavoz afirmó que su búsqueda web busca "nutrirse de una amplia gama de fuentes y puntos de vista" y que aplican filtros de seguridad para reducir riesgos, subrayando que ChatGPT muestra claramente sus fuentes.
Expertos en desinformación: Nina Jankowicz advierte sobre el "LLM grooming" (adiestramiento de modelos de lenguaje), un proceso donde actores maliciosos inundan la red con contenido falso para que las IA lo adopten como verdad. Si ChatGPT cita una fuente, el usuario puede asumir que es fiable. "Podrían pensar: 'Si ChatGPT lo cita, debe ser una buena fuente'", explica Jankowicz.
xAI (Elon Musk): Al ser consultados, un portavoz de la empresa de Musk se limitó a responder: "Los medios tradicionales mienten".