Normas del foro apurados.com
Prohibida la publicación de claves , de sofware y de informaciones para el pirateo. El Uso De Estos Foros Requiere La Obligada Lectura Y Aceptación De Estas Normas Normas
Presentaciones del foro
""MUY IMPORTANTE"" (Atención todo aquel usuario que se registre debe Pasarse Por Presentaciones y Presentarte a los Compañeros de lo contrario será baneado y borrada su cuenta. PRESÉNTATE

Retroceder   apurados.com > Temas varios > Informática-Internet > Redes Sociales

JnjSite.com: Nueva versión del sencillo mensaje de aceptar cookies para tu web
Respuesta
 
Herramientas Desplegado
  #1  
Antiguo 28-May-2020, 12:48
Avatar de Amaya
Amaya Amaya está desconectado
Colaboradora
 
Fecha de Ingreso: 02-February-2020
Mensajes: 10,102
Gracias: 19
Agradeció 12 veces en 6 publicaciones
Icon Bombilla Facebook se cruza de brazos frente a la polarización dentro de la red social

Las redes sociales se han descubierto como una de las herramientas más importantes para que las personas estén en contacto con los más cercanos. Aunque, evidentemente, nada es perfecto. Según un estudio al que ha tenido acceso «The Wall Street Journal», Facebook, la plataforma en línea por antonomasia, cuenta con algoritmos que potencian la polarización de los usuarios. Y no solo eso, sino que, además, es perfectamente consciente de ello y no tiene intención de revertirlo.Según apuntan desde el medio estadounidense, Facebook se planteó tomar medidas contra esta situación durante una reunión celebrada en 2018. Los algoritmos «explotan la atracción del cerebro humano hacia la división. Si se dejan sin comprobar, Facebook alimentará a los usuarios con contenido cada vez más divisivo en un esfuerzo por atraer su atención e incrementar el tiempo en la plataforma», se expresó durante la presentación.Sin embargo, varios ejecutivos de la compañía, entre ellos su consejero delegado, Mark Zuckerberg, optaron por dejar las cosas como están. Según explican las fuentes consultadas por «WSJ», la dirección de Facebook temía que realizar algún cambio en el algoritmo afectase a los usuarios y medios conservadores o que se entendiese como un movimiento paternalista.La red social ya encargó a varios expertos en 2017 que realizasen un estudio sobre la polarización dentro de la red social. Recibieron el nombre de «Equipos de integridad», y llegaron a la conclusión de que la plataforma debía comprometerse con la neutralidad. De acuerdo con un documento interno, Facebook no debía controlar las opiniones de los usuarios ni frenar los conflictos dentro de la red social.Otro informe, esta vez elaborado hace dos años, sostenía que la plataforma no debía fabricar contenido que atente de forma explícita «contra las creencias de la gente». En su lugar, debía centrarse en la creación de aquellos que promuevan «la empatía, la comprensión y la humanización» de quienes piensan diferente. Según el medio estadounidense, hubo propuestas para lograr este objetivo; entre ellas se encontraba la reformulación de los algoritmos para que las recomendaciones que le saltan al usuario fuesen más amplias. Sin embargo, se acabó descartando debido a que su implementación, según otro informe, afectaría al crecimiento de la red social.Desde las acusaciones, en 2016, de sesgo por parte de los grupos conservadores en Estados Unidos, muchas de las decisiones sobre cambios en la plataforma debían pasar no solo por los responsables de producto e ingenieros, sino también por los equipos de marketing, relaciones públicas y jurídicos de la compañía.Las diferencias de opiniones llevaron a procesos de veto interno, que afectaron, por ejemplo, a la creación de un sistema de clasificación para el contenido hiperpolarizado o a los esfuerzos para suprimir clickbait sobre política más que sobre otros temas. En su lugar, se implementaron cambios más débiles.Carlos Gomez Uribe, antiguo responsable del sistema de recomendaciones de Netflix, empezó a liderar el equipo de integridad en enero de 2017, del que se marcharía un año después. Entonces, propuso reducir el impacto que tenían los usuarios hiperactivos, ya que debido a los algoritmos, un usuario que interactúa con 1.500 contenidos tiene más influencia que alguien que lo hace con 15.Se trata, además, de cuentas más partidistas, y que tienen mayores probabilidades de mostrar un comportamiento sospechoso, incluso de estar involucrados en acciones de «spam». Su propuesta, enfocada a limitar el contenido «spam» y a potenciar la actividad de los usuarios medios, fue apartada por las preocupaciones de los editores y por otros grupos no extremistas muy activos en la plataforma, según señaló Joel Kaplan, vicepresidente de política pública global de Facebook, tiempo después.La compañía tecnológica ha introducido cambios en los últimos años enfocados a combatir el contenido que viole sus políticas. En una conferencia en octubre de 2019, Zuckerberg anunció que no eliminaría contenido político si es noticioso aunque vaya en contra de sus estándares. Según defendió, descubrieron que la estrategia más efectiva para los acasos de desinformación era «centrarse en la autenticidad del que habla más que en intentar juzgar el contenido en sí».

[Solo los usuarios registrados y activados pueden ver los enlaces. Haga clic aquí para registrarse ... ]



[Solo los usuarios registrados y activados pueden ver los enlaces. Haga clic aquí para registrarse ... ]







[Solo los usuarios registrados y activados pueden ver los enlaces. Haga clic aquí para registrarse ... ]
Responder Citando
Respuesta


Normas de Publicación
No puedes crear nuevos temas
No puedes responder mensajes
No puedes subir archivos adjuntos
No puedes editar tus mensajes

Los Códigos BB están Activado
Las Caritas están Activado
[IMG] está Activado
El Código HTML está Desactivado

Ir al Foro

La franja horaria es GMT +2. Ahora son las 09:13.
Powered by : vBulletin; Versión 3.8.11
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Shoutbox provided by vBShout v6.2.18 (Lite) - vBulletin Mods & Addons Copyright © 2024 DragonByte Technologies Ltd.
@apurados.com
Design by HTWoRKS
Modificado por Apurados