AHORA

Desinformación como estructura: economía de la atención y ‘contaminación’ epistémica


La desinformación suele narrarse como un accidente moral: gente que “cree cualquier cosa”, medios irresponsables, usuarios ingenuos, un puñado de granjas de bots. Esa explicación tranquiliza porque reduce un problema sistémico a una falla individual. Pero el fenómeno contemporáneo funciona mejor como estructura: una economía política de la atención donde la falsedad no solo circula, sino que rinde. No se trata únicamente de qué es verdad o mentira, sino de qué tipo de contenidos el sistema premia con visibilidad, dinero y poder.

El giro comunicativo clave lo anticipa la agenda-setting: McCombs y Shaw mostraron que los medios influyen menos dictando qué pensar y más fijando sobre qué pensar; la saliencia se fabrica por repetición, posición y volumen. En plataformas, ese mecanismo se automatiza: ya no decide un editor, decide un sistema de recomendación que optimiza lo que retiene atención. La agenda se vuelve un producto de métricas.

A partir de ahí, la desinformación opera como contaminación epistémica: ensucia el entorno cognitivo para que incluso información correcta pierda fuerza o llegue tarde. Lewandowsky y colegas lo describen desde la psicología cognitiva: la corrección no siempre borra el efecto de la mentira; la desinformación puede persistir en el razonamiento aun después de retractaciones claras. Esto tiene una implicación política brutal: si es más fácil sembrar duda que restaurar certeza, contaminar se vuelve estrategia racional.

Quién financia y distribuye narrativas

Si la desinformación es estructura, hay que seguir el rastro de financiamiento y distribución más que el del “contenido falso” aislado.

  1. Publicidad programática y monetización de tráfico
    En el modelo dominante, el dinero sigue al click. Sitios y cuentas capturan atención y la convierten en ingresos publicitarios o en captación (leads, afiliación, ventas, donaciones). Ese incentivo convierte la indignación, el miedo y el escándalo en activos: no porque sean “verdaderos”, sino porque son eficaces para retener. (Como economía: bajo costo de producción, alta volatilidad emocional, alto rendimiento por alcance.)

  2. Actores políticos y coaliciones de interés
    La desinformación rara vez es solo propaganda burda; con frecuencia es reencuadre: seleccionar datos, cortar contexto, insinuar causalidades. Esto reduce el riesgo legal (no siempre mienten explícitamente) y maximiza efecto narrativo.

  3. Mercados de influencia
    Servicios de amplificación, granjas de engagement, compra de seguidores, microinfluencers pagados, redes coordinadas. Lo central es la logística: la narrativa se vuelve campaña cuando tiene distribución sistemática.

El punto estructural es que la distribución hoy depende menos de credibilidad y más de optimización: qué contenido activa más reacción y por cuánto tiempo.

Qué métricas premian la falsedad

El corazón del problema es la ecuación de recompensa: en plataformas, “verdad” no es una métrica nativa; engagement sí lo es. Y ciertas formas de falsedad ganan porque son funcionales a esas métricas.

  • CTR (click-through rate): titulares más extremos y promesas más absolutas obtienen más clics que los matices.

  • Tiempo de permanencia / watch time: narrativas conspirativas o indignantes sostienen atención porque funcionan como series: siempre falta “la parte que no te contaron”.

  • Compartidos y comentarios: la polarización aumenta interacción; el contenido que activa identidad (nosotros/ellos) viaja más.

  • Microsegmentación: la publicidad y la recomendación permiten adaptar mensajes a nichos con sesgos específicos. La falsedad se vuelve “personalizada”: no busca convencer a todos, busca activar a los predispuestos.

Aquí la desinformación es rentable por diseño: el sistema premia lo que emocionalmente engancha, no lo que epistemológicamente resiste auditoría. Incluso cuando no hay intención maliciosa, el resultado es “selección natural” de contenidos más contaminantes.

La credibilidad como botín

Cuando el entorno está contaminado, la batalla se desplaza: no solo es “qué es verdad”, sino quién tiene autoridad para definirla. En ese escenario, la desinformación cumple dos funciones políticas simultáneas:

  1. Captura de agenda: desplaza temas complejos por relatos simples y movilizadores. (Agenda-setting en versión algorítmica.)

  2. Desgaste de árbitros: si todo “puede ser mentira”, entonces nada obliga; la evidencia se vuelve una opinión más, y la decisión se vuelve pura fuerza o identidad.

Lewandowsky et al. muestran por qué este daño es persistente: corregir es cognitivamente costoso, y el “residuo” de la mentira puede seguir influyendo. La contaminación epistémica, por tanto, no necesita ganar cada discusión: le basta con bajar el estándar de realidad compartida.

Cómo investigarlo sin caer en el cliché

Si lo quieres tratar con rigor periodístico (y no como sermón), hay tres líneas de verificación útiles:

  • Trazar el dinero: ¿qué cuentas/sitios monetizan? ¿qué redes publicitarias aparecen? ¿qué funnels llevan a venta, donación o captación?

  • Trazar la distribución: ¿qué nodos amplifican primero? ¿hay coordinación temporal? ¿se repiten textos/creativos?

  • Trazar la métrica: ¿qué formatos disparan alcance? ¿qué narrativas sobreviven más? ¿qué segmentos reciben qué variantes?

La conclusión incómoda es estructural: mientras el ecosistema recompense atención por encima de verificación, la desinformación seguirá siendo menos una anomalía y más un producto competitivo.

Referencias 

Lewandowsky, S., Ecker, U. K. H., Seifert, C. M., Schwarz, N., & Cook, J. (2012). Misinformation and its correction: Continued influence and successful debiasing. Psychological Science in the Public Interest, 13(3), 106–131.

McCombs, M. E., & Shaw, D. L. (1972). The agenda-setting function of mass media. Public Opinion Quarterly, 36(2), 176–187.