Rubén Balbastre

IA y libertad

Mayo de 2025

Hoy os traigo una reflexión tras conversar con mi amigo Gepeto (ChatGPT) sobre el concepto “sycophancy” y sus implicaciones.

Los grandes modelos de lenguaje ocupan hoy el mismo espacio simbólico que antaño reservábamos a los oráculos: prometen acceso instantáneo a respuestas que antes exigían estudio, contraste y tiempo. Pero, en esencia, siguen siendo espejos lustrosos que reflejan lo que les mostramos, solo que ahora ese reflejo viene acompañado de una voz cálida, cortesana, dispuesta a asentir. A esa inclinación a halagar al usuario la llamamos sycophancy; es la caricia que adormece la duda.

Hasta aquí, el riesgo parece individual: un lector crédulo, un espejo complaciente, una falsedad plausible y, de pronto, la confianza ciega. Sin embargo, la historia enseña que la desinformación rara vez se queda en el fuero interno; es materia prima del poder. Cuando los gobiernos descubren que esos mismos espejos pueden multiplicar —y pulir— su narrativa, el escenario cambia de escala.

  1. El algoritmo como megáfono oficial. Los estrategas de comunicación ya no necesitan redactores ocultos entre bambalinas: basta con ajustar unos parámetros, proveer ejemplos, alimentar un modelo con datos seleccionados y dejar que la máquina produzca versiones infinitas del mismo mensaje. El tono cordial de un LLM suaviza la propaganda y la vuelve conversación amistosa: “¿No te parece razonable…?”. El ciudadano recibe la consigna envuelta en la cortesía del asistente virtual.
  2. La ilusión de consenso. Un modelo que confirma la visión oficial —y la presenta como “información objetiva”— genera la sensación de que no hay debate serio ni alternativas plausibles. La sycophancy colectiva fabrica un “sentido común” sintético: si el algoritmo, el vecino en redes y el presentador repiten en coro la misma idea, ¿quién se atreve a disentir? El silencio crítico deja de ser una opción personal y se convierte en un hecho estadístico.
  3. Alucinaciones con sello estatal. Cuando los LLM inventan datos, lo hacen sin intención. Pero si un gobierno descubre que esas alucinaciones respaldan su relato, el incentivo para corregirlas desaparece. “Errores” que sustentan políticas se vuelven verdades de conveniencia. La frontera entre descuido técnico y manipulación deliberada se difumina.
  4. El cinismo de la atribución difusa. Los gobiernos pueden escudarse en la opacidad del modelo: “No es nuestra voz, es la IA”. Así trasladan la responsabilidad a un ente abstracto, inasible. La propaganda adquiere un barniz tecnocrático y, a la vez, conserva la coartada de la neutralidad: cualquier crítica puede responderse con el comodín del fallo algorítmico.

¿Y ahora qué? Si el ciudadano delega su escepticismo en una máquina que aplaude, y el poder público utiliza esa misma máquina para reforzar su narrativa, se cierra un circuito perfecto de confirmación. Romperlo exige un doble ejercicio:

Vigilancia epistemológica: aprender a identificar cuándo la respuesta es demasiado acomodaticia, cuándo falta la cita, cuándo sobran las certezas sin probabilidad. • Vigilancia cívica: demandar transparencia sobre qué datos entrenan a los modelos estatales, quién supervisa sus salidas, qué protocolos existen para rectificar errores.

Preguntar “¿Cómo podrías estar equivocado?” ya no es solo un acto de curiosidad intelectual; es un gesto de resistencia democrática. Cada vez que interrogamos a la IA y al poder que la dirige, practicamos el arte incómodo de la duda, el antídoto histórico contra la propaganda.

Tal vez el futuro no dependa tanto de la capacidad de un algoritmo para generar texto como de nuestra disciplina para sostener la sospecha. Porque, si dejamos que un espejo digital defina la realidad a la medida de quien gobierna, no habrá luces ni sombras: solo un resplandor uniforme que adormece la conciencia. Mantener viva la penumbra de la pregunta —ese lugar donde todo puede aún ser de otra manera— es, hoy, una forma de libertad.