Las redes sociales se han descubierto como una de las herramientas más esenciales a fin de que las personas estén en contacto con los más próximos. Si bien, obviamente, nada es perfecto. Conforme una investigación al que ha tenido acceso «The Wall Street Journal», Fb, la plataforma on line por excelencia, cuenta con algoritmos que fortalecen la polarización de los usuarios. Y no solamente eso, sino, además de esto, es de forma perfecta siendo consciente de ello y no tiene pretensión de revertirlo.

Conforme apuntan desde el medio estadounidense, Fb se propuso tomar medidas contra esta situación a lo largo de una asamblea festejada en 2018. Los algoritmos «explotan la atracción del cerebro humano cara la división. Si se dejan sin revisar, Fb nutrirá a los usuarios con contenido poco a poco más divisivo en un esmero por atraer su atención y también acrecentar el tiempo en la plataforma», se expresó a lo largo de la presentación.

No obstante, múltiples ejecutivos de la compañía, entre ellos su consejero encargado, Mark Zuckerberg, optaron por dejar las cosas como están. Conforme explican las fuentes consultadas por «WSJ», la dirección de Fb temía que efectuar algún cambio en el algoritmo afectara a los usuarios y medios conservadores o bien que se comprendiese como un movimiento paternalista.

La red social ya encargó a múltiples especialistas en 2017 que efectuasen una investigación sobre la polarización en la red social. Recibieron el nombre de «Equipos de integridad», y llegaron a la conclusión de que la plataforma debía comprometerse con la neutralidad. Conforme con un documento interno, Fb no debía supervisar las creencias de los usuarios ni frenar los enfrentamientos en la red social.

Otro informe, esta vez elaborado hace un par de años, mantenía que la plataforma no debía fabricar contenido que atente de forma explícita «contra las opiniones de la gente». En su sitio, debía centrarse en la creación de aquellos que fomenten «la empatía, la entendimiento y la humanización» de quienes piensan diferente. Conforme el medio estadounidense, hubo propuestas para conseguir este objetivo; entre ellas se hallaba la reformulación de los algoritmos a fin de que las recomendaciones que le brincan al usuario fueran más extensas. No obstante, se terminó descartando debido a que su implementación, conforme otro informe, afectaría al desarrollo de la red social.

Desde las acusaciones, en 2016, de corte por la parte de los conjuntos conservadores en E.U., muchas de las resoluciones sobre cambios en la plataforma debían pasar no solo por los responsables de producto y también ingenieros, sino más bien asimismo por los equipos de marketing, relaciones públicas y jurídicos de la compañía.

Las diferencias de creencias llevaron a procesos de veto interno, que afectaron, por poner un ejemplo, a la creación de un sistema de clasificación para el contenido hiperpolarizado o bien a los sacrificios para eliminar clickbait sobre política más que sobre otros temas. En su sitio, se incorporaron cambios más enclenques.

Carlos Gomez Uribe, viejo responsable del sistema de recomendaciones de Netflix, comenzó a liderar el equipo de integridad en el mes de enero de 2017, del que se iría un año después. Entonces, planteó reducir el impacto que tenían los usuarios hiperactivos, en tanto que debido a los algoritmos, un usuario que interacciona con 1.500 contenidos tiene más repercusión que alguien que lo hace con 15.

Se trata, además de esto, de cuentas más partidistas, y que tienen mayores probabilidades de enseñar un comportamiento sospechoso, aun de estar implicados en acciones de «spam». Su propuesta, enfocada a limitar el contenido «spam» y a fortalecer la actividad de los usuarios medios, fue alejada por las preocupaciones de los editores y por otros conjuntos no extremistas muy activos en la plataforma, conforme apuntó Joel Kaplan, vicepresidente de política pública global de Fb, tiempo después.

La compañía tecnológica ha introducido cambios en los últimos tiempos enfocados a combatir el contenido que viole sus políticas. En una conferencia en el mes de octubre de 2019, Zuckerberg anunció que no suprimiría contenido político si es noticioso si bien vaya contra sus estándares. Conforme defendió, descubrieron que la estrategia más eficaz para los acasos de desinformación era «centrarse en la autenticidad del que habla más que en procurar juzgar el contenido en sí».

Fuente: ABC.es

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *