Te mienten: así te manipulan a diario Facebook, Instagram, Twitter, YouTube y TikTok

0 0
Read Time:3 Minute, 27 Second

Facebook ha estado experimentando discretamente con la reducción de la cantidad de contenido político que pone en las fuentes de noticias de los usuarios. La medida es un reconocimiento tácito de que la forma en que funcionan los algoritmos de la empresa puede ser un problema.

El quid de la cuestión es la distinción entre provocar una respuesta y entregar el contenido que la gente quiere. Los algoritmos de las redes sociales, las reglas que siguen sus computadoras para decidir qué contenido ve, dependen en gran medida del comportamiento de las personas para tomar esas decisiones. En particular, monitorean el contenido al que las personas reaccionan o “interactuan” al darle me gusta, comentar y compartir.

Como científico informático que estudia cómo interactúa un gran número de personas mediante la tecnología, entiendo la lógica de utilizar la sabiduría de las multitudes en estos algoritmos. También veo obstáculos importantes en la forma en que las empresas de redes sociales hacen esto en la práctica.

-10% de tarifa de negociación en Binance
¡-10% de tarifa de negociación en Binance de por vida!

DE LEONES EN LA SABANA A LIKES EN FACEBOOK

El concepto de la sabiduría de las multitudes supone que el uso de las señales de las acciones, opiniones y preferencias de los demás como guía conducirá a decisiones sabias. Por ejemplo, las predicciones colectivas normalmente son más precisas que las predicciones individuales. La inteligencia colectiva se utiliza para predecir mercados financieros, deportes, elecciones e incluso epidemias.

Durante millones de años de evolución, estos principios han sido codificados en el cerebro humano como sesgos cognitivos con nombres como familiaridad, mera exposición y efecto carro. Si todos empiezan a correr, tú también deberías empezar a correr; tal vez alguien vio a un león venir y correr podría salvarte la vida. Puede que no sepa por qué, pero es mejor hacer las preguntas más tarde.

Su cerebro capta señales del entorno, incluidos sus compañeros, y utiliza reglas simples para traducir rápidamente esas señales en decisiones: siga al ganador, siga a la mayoría, copie a su vecino. Estas reglas funcionan notablemente bien en situaciones típicas porque se basan en suposiciones sólidas. Por ejemplo, asumen que las personas a menudo actúan racionalmente, que es poco probable que muchos se equivoquen, que el pasado predice el futuro, etc.

En la superficie, eso parece razonable. Si a la gente le gustan las noticias creíbles, las opiniones de expertos y los videos divertidos, estos algoritmos deberían identificar ese contenido de alta calidad. Pero la sabiduría de las multitudes hace una suposición clave aquí: recomendar lo que es popular ayudará a que el contenido de alta calidad “hierva”.

Probamos esta hipótesis mediante el estudio de un algoritmo que clasifica los elementos utilizando una combinación de calidad y popularidad. Descubrimos que, en general, es más probable que el sesgo de popularidad reduzca la calidad general del contenido. La razón de esto es que el compromiso no es un indicador confiable de calidad cuando pocas personas han estado expuestas a un artículo. En estos casos, el acoplamiento genera una señal ruidosa y es probable que el algoritmo amplifique este ruido inicial. Una vez que la popularidad de un artículo de baja calidad sea lo suficientemente alta, seguirá creciendo.

Los algoritmos no son lo único afectado por el sesgo de participación, también puede afectar a las personas. La evidencia muestra que la información se transmite por «contagio complejo», lo que significa que cuanto más se expone alguien a una idea en línea, más probable es que la adopte y la comparta. Cuando las redes sociales les dicen a las personas que un artículo se está volviendo viral, sus sesgos cognitivos se activan y dan como resultado la necesidad irresistible de prestar atención y compartirlo.

MULTITUDES NO TAN SABIAS

Recientemente realizamos un experimento utilizando una aplicación de alfabetización mediática llamada Fakey. Es un juego desarrollado por nuestro laboratorio, que simula un feed de noticias como los de Facebook y Twitter. Los jugadores ven una combinación de artículos actuales de noticias falsas, ciencia basura, fuentes hiperpartidistas y conspirativas, así como fuentes convencionales. Obtienen puntos por compartir o dar me gusta a noticias de fuentes confiables y marcar historias no confiables para verificar los hechos.

Consulte el artículo original sobre www.miroir-mag.fr

Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %