
Las redes sociales amplifican posturas extremas y actúan como «cámaras de resonancia», un fenómeno atribuido a sus algoritmos. Sin embargo, un estudio de la Universidad de Ámsterdam sugiere que estos problemas son estructurales y no se resuelven con ajustes algorítmicos.
Investigadores crearon un entorno con «personas sintéticas» para simular interacciones sociales básicas, revelando que las dinámicas tóxicas surgen incluso sin algoritmos manipuladores. Se probaron seis intervenciones populares, como feeds cronológicos y «algoritmos de puente» para fomentar el entendimiento mutuo. Ninguna medida resolvió los problemas de fondo, y algunas empeoraron otros aspectos, como la amplificación de contenidos extremos.
El estudio destaca un bucle emocional-estructural: las reacciones emocionales moldean la red, que a su vez selecciona el contenido visto, perpetuando la toxicidad. La desigualdad de atención sigue una ley de potencias, donde una élite concentra la conversación y lo extremo cobra visibilidad desproporcionada.
La irrupción de modelos de lenguaje grande (LLM) agrava la situación, permitiendo a actores oportunistas generar contenido polarizante a gran escala. La reacción social se inclina hacia medios reconocibles y espacios cerrados, aunque la toxicidad puede filtrarse a estos entornos.