Con las redes no podemos mirar para otro lado

Martes 23 Abril, 2024

Con las redes no podemos mirar para otro lado

Domingo 08 de Mayo de 2022

Vivimos la "era algorítmica": procesos alimentados por datos, donde el "dato" reacción ocupa un lugar predominante en la fórmula matemática; es decir tienen una mejor mensura.  Comprobado está que las publicaciones de más odio, más reacción generan, entonces son las que más crecen.

Por Esteban Concia

El contenido digital es "omnipresente", guiado por algoritmos de recomendación: una fórmula matemática que premia la noticia falsa, la agresión al premiar la atención.
Y ya lo sabemos los mensajes más cargados con violencia simbólica son los que más reacciones generan. La emoción le gana a la razón y moviliza el tránsito digital.  
Pensemos un poco en democracia, redes sociales y derechos digitales

Vivimos la "era algorítmica": procesos alimentados por datos, donde el "dato" reacción ocupa un lugar predominante en la fórmula matemática; es decir tienen una mejor mensura.  Comprobado está que las publicaciones de más odio, más reacción generan, entonces son las que más crecen.

Todo una corriente de contenidos de odios, acosos, estafas, mentiras y demás circulan casi libremente. Las grandes tecnológicas ahora están regulando algo.
Muy pero muy tarde, con parte del daño ya realizado. Bueno, al menos comenzaron; algo es algo.

Pero es el camino: no pueden lavarse las manos sobre lo que pasa en sus plataformas.

Antes de la pandemia, la mayoría de  plataformas (incluidas Facebook, Google y Twitter) se equivocaron  y rechazaron un papel, como lo expresó Mark Zuckerberg en una publicación personal de Facebook, de ser "árbitros de la verdad".

Solo se les pedía y se les pide coherencia

Pero durante la pandemia, estas mismas plataformas adoptaron un enfoque más intervencionista a la información falsa y prometieron eliminar o limitar la desinformación y las teorías de conspiración de Covid-19

¿Deberían los algoritmos eliminar información falsa sobre la agresión ambiental? Este tipo de moderación de contenido inevitablemente significa que los tomadores de decisiones humanos están sopesando valores

En todo caso es mejorar los proceso de "aprendiza automático" por un lado y por el otro generar una red de equipos humanos que de alguna manera generen alertas cuando ese contenido es sistemático

No se trata de alguna persona "suelta" que da una opinión. Acá estamos hablando de bloques de contenido generados por organizaciones más o menos estables.
Otro tema es importante es el derecho del neo usuario digital frente al funcionamiento de las plataformas; algo así como pensar un "humanismo" tecnológico o en principio difundir sobre cómo funcionan las redes y las plataformas digitales.

Poco de esto es transparente para los usuarios, porque Internet y las plataformas de redes sociales carecen de las señales básicas que caracterizan las transacciones comerciales convencionales: alguien compra algo y puede verificar si cumple o no las expectativas. En redes eso no pasa.

Cuando las personas utilizan las redes sociales, por el contrario, no siempre son conscientes de ser sujetos pasivos de transacciones comerciales entre la plataforma y los anunciantes que involucran sus propios datos personales.

Y si la experiencia de los usuarios tiene consecuencias adversas, como un aumento de ansiedad o menos salud mental, es difícil vincular esas consecuencias con el uso de redes. El vínculo se vuelve aún más difícil de establecer cuando las facilitan la mentira y el odio político

Los usuarios a menudo tampoco son conscientes de cómo se cura su feed de noticias en las redes sociales
Estimaciones de la proporción de usuarios que no saben que los algoritmos dan forma a su suministro de noticias son mayorías. Incluso personas que son conscientes de curación algorítmica tienden a no tener una comprensión precisa de lo que eso implica. Hay cierta naturalización.

A menudo no son conscientes de que la información que consumen y producen está curada por algoritmos. Algoritmos les presentarán información curada para provocar indignación o ira, atributos que encajan mano a mano con la desinformación política.

¿Por qué sabrían? No fueron consultados sobre el diseño de arquitecturas online; de hecho las big tech no han consultado a la mayoría de las sociedad ni siquiera a la muchos gobiernos

Los ejecutivos de Google se han referido a Internet y sus aplicaciones como "el espacio no gobernado más grande del mundo", sin estar sujeto a las leyes terrestres. Piensan así, y esto es un problema grande.

Protección de  la desinformación, es cuidar la democracia misma, requiere un rediseño de la actual "economía de la atención" en línea, donde todo vale, y cada vez más sabemos menos como circulan los contenidos

Usuarios necesitan saber qué hacen las plataformas y qué saben, y la sociedad debe tener las herramientas para juzgar si las plataformas actúan de manera justa y en el interés público

Las acciones posibles/necesarias podría ser:

*Mayor transparencia y un mayor control individual de los datos personales
*Plataformas deben indicar la calidad de la información en un suministro de noticias para que los usuarios
*Personas  deberían  ser alertadas cuando el discurso político que circula en las redes sociales es parte de una campaña publicitaria
*El público debe saber exactamente cómo los algoritmos curan y clasifican la información y luego se les da la oportunidad de dar forma a su propio entorno en línea

Además apuntar al diseño de arquitecturas digitales que promuevan de manera más efectiva tanto la precisión como la no agresión de la conversación en línea.

Trabajar de alfabetización digital destinado a aumentar la conciencia y la competencia de los usuarios para navegar por los desafíos de los entornos en línea.

Lograr una comunicación digital  más transparente y menos manipuladora también está pasando a ser una gran y estratégica batalla política. Y esto será aún más intenso.