Estaba cotilleando en la Grokipedia, la Wikipedia de Elon Musk, y alucinando con el nivel de megalomanía que puede alcanzar este mundo. Muchos de sus artículos provienen directamente de Wikipedia, algunos incluso copiados casi palabra por palabra. La plataforma no permite editar las entradas; los usuarios registrados solo pueden sugerir cambios mediante un pop-up para reportar información errónea.
La crítica no se ha hecho esperar: Grokipedia ha sido descrita como promotora de perspectivas de derechas, teorías conspiratorias y, sobre todo, las opiniones de Elon Musk. También se cuestiona su precisión y sus sesgos, alimentados tanto por las alucinaciones de la IA como por el posible sesgo algorítmico que arrastra. Y, por supuesto, si consultamos la entrada de Grokipedia sobre la propia Wikipedia, descubrimos que la acusa de tener sesgos ideológicos sistémicos, especialmente una tendencia de leve a moderada hacia la izquierda.
Porque, al final, no hay nada como controlar la narrativa, escrita u oral, para convertirla en verdad.
Solemos preocuparnos por la desinformación generada por la inteligencia artificial como si fuera una propiedad emergente: algo accidental que ocurre cuando los modelos alucinan o mezclan datos poco fiables. Pero Grokipedia nos recuerda que la desinformación también puede ser perfectamente intencional. Puede ser programada, seleccionada y sistematizada de forma deliberada. El verdadero peligro de la IA no está en la caja negra. Está en quien la controla y decide qué podemos leer los demás de su interior.
Otro ejemplo, ya más centrado en redes sociales, son esos dulces abuelitos creados con IA que dan consejos de vida. Estos contenidos aprovechan la credibilidad y autoridad asociada a las personas mayores, y la ternura que nos inspiran, para viralizar mensajes sobre valores sociales o incluso política.
Al final, estamos entrando en una era donde la desinformación ya no necesita disfrazarse de error: puede presentarse con voz amable, con interfaz pulida o con la autoridad inventada de una enciclopedia alternativa. Y, si no estamos atentos, acabaremos repitiendo como narrativas propias, las que alguien decidió por nosotros. Por eso, más que temer lo que la IA puede llegar a hacer, deberíamos cuestionar quién la dirige, con qué intereses y a quién sirve. Porque la tecnología no piensa por sí misma… pero sí puede conseguir que dejemos de pensar nosotros.










