Natalia Aruguete nos cuenta con conceptos claros y profundos cómo es la cocina de las redes sociales y las fake news, qué pasa cuando compartimos, “megusteamos” o ignoramos publicaciones.
“Si pudiéramos retrotraernos al estado de naturaleza de las redes sociales, ese momento ficticio en el cual por primera vez dos usuarios compartieron la foto de un gato dormido en el regazo de un perro, nos resultaría difícil imaginar el mundo político-mediático que habitamos hoy. En el contrato social que firmamos al ingresar en las redes cedimos nuestros derechos de privacidad a cambio de un entramado áspero y en conflicto, una política de trincheras y un malestar sobrante del que no podemos despegarnos”
Así comienza “Fake news, trolls y otros encantos”, el libro donde Natalia Aruguete, junto a Ernesto Calvo, se proponen desentrañar “Cómo funcionan (para bien y para mal) las redes sociales”[1]. Conversamos con Natalia sobre algunas de las ideas allí expuestas.
737: ¿Cómo nos relacionamos en las redes sociales?
Natalia Aruguete: Hay una frase que, parafraseando a Marx, utilizamos en nuestro libro que es una síntesis de cómo entendemos al usuario en la red: “el individuo crea su propia red pero no a su propio arbitrio”. Lo que planteamos es que hay una combinación de una dimensión subjetiva y una dimensión estructural. El individuo toma decisiones en la red pero las decisiones que toma están condicionadas por la propia estructura orgánica de la red; al mismo tiempo, las decisiones que toma el individuo plantean nuevas condiciones en la estructura de la red.
737: Ustedes desarrollan algunos conceptos para entender cómo es esa relación.
N.A.: Si, uno es el concepto de percepción y atención selectiva. Es un término que surge en la década del 40, para desmitificar la idea de los medios o las campañas políticas como omnipotentes y onmipresentes, y un público al que le inyectaban información y respondía acrítica y homogéneamente. La percepción y la atención selectiva que se acuña en esa época suponía que nosotros nos relacionamos con aquella información que confirma nuestras creencias previas y tendemos a evitar toda información que nos perturba cognitivamente. Significa que no atendemos a todo y no incorporamos toda la información con la que nos topamos. La otra cara de esta moneda es la idea de la disonancia cognitiva: no prestamos atención a todo y no aceptamos todo porque hay cosas que nos generan disonancia, nos perturban cognitivamente. La disonancia cognitiva nos lleva a rechazar ese contenido que nos perturba. Esos dos conceptos —atención y percepción selectiva, y disonancia cognitiva— describen una forma de relacionamiento de los usuarios, analizados en términos individuales, con el contenido que hay en redes sociales. En la medida en que el individuo va incorporando y se va relacionando con determinados mensajes arma estructuras narrativas, argumentaciones lógicas, para explicarse un comportamiento o evento determinado. En la construcción de ese argumento es conducido por su sesgo de confirmación o sesgo cognitivo. El individuo tiene creencias previas, determinadas estructuras de conocimiento, de percepción e interpretación de la realidad y esas lo van guiando y encorsetando respecto de cómo ata cabos para entender lo que pasa y para, en definitiva, darse una explicación que mantenga una lógica sobre eso que ocurre. Todo esto hace a la dimensión individual del análisis del usuario en las redes.
737: Hablabas al comienzo de otra dimensión a considerar, que es la estructural.
N.A.: Efectivamente, en el libro también analizamos las consecuencias orgánicas de esto: ¿cuál es el impacto de estas reacciones del individuo en la estructura de la red? Cuando el individuo toma decisiones —ignora un contenido y le da me gusta a otros—, esas acciones constituyen una información comunicativa, paratextual, que es tomada por los algoritmos de las redes sociales. Lo que estamos haciendo con esos fantasmas algorítmicos es contarles de nosotros. Son señales de las que se valen los algoritmos para administrar cómo agrupan y distribuyen la información. La lógica a la que responde ese reagrupamiento y distribución es coherente con el perfil nuestro que le fuimos contando al algoritmo a partir de los mensajes que posteamos, aquellos a los que damos like o los que retuiteamos, etc.
cuando nosotros le damos una información al algoritmo y éste nos devuelve una cámara de eco de esas ideas, eso nos impide la posibilidad de poder ver otro tipo de información. Nos lleva por un lado y todo lo demás no lo vemos. Es el corset que nos imponen las estructuras de las redes sociales y nos limitan la posibilidad de ser libres y de toparnos con cualquier tipo de mensaje. Elegimos dentro de una cantidad limitada de mensajes que vemos, no tenemos la opción de elegir todo.
Lo que hacen los algoritmos es devolvernos una cámara de eco. Este es un concepto tomado de la década del 60, de la ciencia política, que habla de cómo los votantes aceptamos, resignificamos y acogemos los mensajes de nuestros dirigentes políticos. Todo lo que sale de la cámara de eco mantiene una relación invariable con lo que entra en ella. Trasladado este concepto al análisis de las redes sociales, sería: cómo la repetición y el énfasis en determinados mensajes y contenidos que fuimos expresando, las redes nos lo devuelven de manera amplificada. Esta distribución segregada así como la amplificación de ideas y mensajes que son coherentes y consistentes con nuestras creencias vuelven muy probable que yo en el barrio de Boedo no haya escuchado un cacerolazo opositor y, sin embargo, en Recoleta, los usuarios que habitan esa comunidad territorial aunque también virtual, hayan escuchado doblemente el sonido de las cacerolas. La consecuencia última de la cámara de eco es que, cuando nosotros le damos una información al algoritmo y éste nos devuelve una cámara de eco de esas ideas, eso nos impide la posibilidad de poder ver otro tipo de información. Nos lleva por un lado y todo lo demás no lo vemos. Es el corset que nos imponen las estructuras de las redes sociales y nos limitan la posibilidad de ser libres y de toparnos con cualquier tipo de mensaje. Elegimos dentro de una cantidad limitada de mensajes que vemos, no tenemos la opción de elegir todo.
La percepción selectiva y esta idea de la cámara de eco nos llevan a otro concepto: la activación en cascada. Cuando retuiteamos una información sin comentarla —una reacción en Twitter que da cuenta de nuestra aceptación de ese mensaje—, la estamos activando. Es como dejar entrar a alguien en mi casa; si no digo “lo dejo entrar pero no lo quiero”, se asume que sí lo quiero en mi casa. La activación en cascada en redes sociales se refiere a cómo yo, en la medida en que activo información porque la publico o republico, la habilito en el muro de mis seguidores. Esa activación se va dando de manera reticular, en forma de red.
737: En esta dinámica algorítmica, ¿cómo circulan la fake news?
N.A.: Nos sirve, para entenderlo, hablar de las burbujas de filtro. Son aquellos espacios dentro de los cuales los usuarios nos comunicamos entre nosotros pero tenemos menos probabilidades de comunicarnos con alguien que está fuera de la burbuja. Cuando hay polarización en las redes, nosotros dentro de la burbuja rechazamos mensajes con los que no acordamos y, al mismo tiempo, el algoritmo nos devuelve uno que no rechazamos, con lo que refuerza el “mundo de la vida” que circula en el interior de esa burbuja. Un ejemplo: yo rechazo un mensaje de Lilita Carrió, entonces Twitter me mostrará en mi muro un mensaje de Aníbal Fernández. Esta consistencia cognitiva entre lo que yo pienso y lo que me devuelve el algoritmo va armando y reforzando la burbuja. Cuando va creciendo la burbuja yo dejo de vincularme con esos otros que aparecen del otro lado de la grieta y, con el tiempo, voy dejando de ver sus mensajes. Algunos autores plantean que las fake news tienden a circular más rápidamente en el interior de una burbuja que fuera de ella. ¿Por qué?, porque uno de los motivos de las fake news es energizar a la tropa propia, a partir de ataques a la tropa contraria o a algún personaje que esté del otro lado de esa grieta.
Los usuarios de a pie compartimos información verdadera o falsa movidos por el mismo sentimiento, que es la congruencia cognitiva. Si hay un mensaje que nos mueve a compartirlo, ese deseo de compartirlo es mucho más veloz —porque me interpela afectivamente— que la racionalidad de preguntarme sobre la veracidad de ese contenido. La dimensión emocional de compartir un mensaje va más allá y es independiente del contenido como de su veracidad. Una fake news empieza a circular en una comunidad de iguales, donde está confirmando las creencias previas, a partir de la percepción y atención selectiva, y al compartirla está generando una activación en cascada. Tiene posibilidades de pasarse a otra burbuja en la medida en que el usuario al que es direccionado esa fake news, si es que pertenece a otra burbuja, sea arrobado o conectado por algún motivo. Si ese usuario conecta con el mensaje —si, por caso, le responde al usuario que lo atacó—, lo activa en su burbuja. Muchas veces las fake news pueden activar al otro en la medida en que lo hace reaccionar. De allí, la sugerencia de no alimentar a los trolls. Porque en la medida en que los alimentás, su poder crece.
Si un político, por ejemplo, es atacado por una estrategia de fake news en redes sociales y sale a responder por los medios tradicionales, con ello hace que se enteren muchos de una fake news que tal vez no habían visto. Algunos le creerán, pero probablemente quienes estén en contra no lo crean y, por el contrario, esa desmentida confirmará su prejuicio. Porque las fake news garantizan su propagación en la medida en que confirman supuesta información de valores e idiosincrasia más generales que circulan en una comunidad virtual y de valores. La fake news activa algo que estaba adormecido en los esquemas de muchos; al hacerlo, les confirma aquellas ideas —y, por qué no, prejuicios— que estaban esperando escuchar.
737: En el libro se plantea que una fake news más que información falsa es un acto de violencia.
N.A.: La desinformación que está presente en el contenido no es suficiente para caracterizar a una fake news como tal. A las fake news las distinguimos de las noticias falsas. Cuando hablamos de noticias falsas nos referimos a contenidos que circulan en medios tradicionales y que, muchas veces, son sujetos a verificación, desmentidos, rectificados, etc. El propósito, la intención de la fake news no es meramente informativa, es performativa. Quienes pergeñan una fake news —generalmente se requiere de la coordinación de muchos usuarios, en ocasiones mediante financiamiento— no tienen la intención de informar, es decir, que otro entienda el contenido. Tiene, en realidad, el objetivo político de generar un daño. Por eso es que no importa que dure, importa que lastime. Entre otras cosas, porque la circulación de fake news es mucho más extendida y veloz que su retractación. Lo que importa, en definitiva, es el aprovechamiento y capitalización política de esa fake news que logran determinadas autoridades en la red, que pueden ser dirigentes políticos, medios de comunicación o medios digitales truchos, que son los que disparan la propagación. La intención es generar un efecto político: cómo yo, a partir de dañar al otro, logro silenciarlo. Trump, por ejemplo, hace todo el tiempo esto: lanza mentiras o amenaza con una ley. Es poco posible que la ley avance, pero no importa, su propósito es amedrentar a los demás, mostrar que él tiene el poder. Una estrategia de fake news es sinónimo de poder. El mensaje es: yo puedo mentir porque soy más poderoso que vos.
Una estrategia de fake news es sinónimo de poder. El mensaje es: yo puedo mentir porque soy más poderoso que vos.
737: ¿Por qué se dice, hacia el final del libro, que “la respuesta a estas formas organizadas de violencia necesita también formas de organización colectiva”?
N.A.: Así como las redes se polarizan frente a determinados eventos, pueden despolarizarse cuando hay un movimiento politizado colectivo que genera narrativas y determinadas activaciones de mensajes que logran despolarizar una red, instalar otro tipo de discurso, más auténtico, menos agresivo. El usuario individual no puede combatir una fake news. Lo importante en las redes es en qué medida podemos conformar comunidades más limpias en su narrativa. Porque son éstas las que logran acallar a los trolls. Si vos lográs instalar determinadas agendas que son más prístinas en sus discursos y sus encuadres, los trolls no tienen lugar en ese marco por cuanto sus ataques no logran propagarse como sí lo logran en una red polarizada. Cuando un encuadre pro-derecho se legitima en una gran parte de la red, los mensajes de los trolls generarán disonancia cognitiva. Esa disonancia cognitiva toma cuerpo en las decisiones del usuario de no activar un mensaje. Una gran parte de los usuarios lo van a evitar; y si lo evitan, cual si se tratara de un efecto dominó, el mensaje no avanza y, por ende, no se propaga. La no activación de un mensaje en redes sociales que contiene un ataque es la consecuencia de haber conformado una resistencia y haber propagado una narrativa distinta en la red.
¿Quién es Natalia Aruguete?
Doctora con mención en Ciencias Sociales y Humanidades por la Universidad Nacional de Quilmes (UNQ). Magíster en Sociología Económica (IDAES-UNSAM). Investigadora del CONICET. Ha realizado una estancia de investigación en la Universidad de Salamanca, España(2006) Es profesora de la UNQ. Autora de: Teorías de la opinión pública y de construcción de agenda. Editorial Universidad Nacional de Quilmes. Buenos Aires. 2011. El poder de la agenda. Política medios y público. Editorial Biblos. Buenos Aires. 2012. Colaboradora periodística especializada en Página / 12 y Le Monde Diplomatique
[1] Fake news, trolls y otros encantos. Cómo funcionan (para bien y para mal) las redes sociales. Ernesto Calvo y Natalia Aruguete. Siglo Veintiuno Editores