La cuenta de usuario creada por un Facebook Un investigador en Kerala que hace dos años encontró varios casos de incitación al odio y desinformación basados en recomendaciones algorítmicas llevó a la empresa a realizar un «análisis más profundo y riguroso» de sus sistemas de recomendación en India, dijo la plataforma de redes sociales.
Facebook estaba respondiendo preguntas de El expreso indio en el New York Times informe sobre los efectos de la plataforma de redes sociales en India, especialmente en vista de las elecciones políticas de 2019.
«Este esfuerzo exploratorio de una cuenta de prueba hipotética inspiró un análisis más profundo y riguroso de nuestros sistemas de recomendación y ayudó a mejorar los cambios de productos. Los cambios de productos resultantes de una investigación posterior y más rigurosa incluyeron cosas como contenido de límite de eliminación y grupos cívicos y políticos de nuestra sistemas de referencia «, dijo un portavoz de Facebook.
«Por separado, nuestro trabajo para frenar el discurso de odio continúa y hemos fortalecido aún más nuestros clasificadores de odio para incluir 4 idiomas indios», dijo el portavoz.
The New York Times informó que el informe del investigador fue uno de docenas de estudios y memorandos escritos por empleados de Facebook que luchan con los efectos de la plataforma en India.
Los documentos internos, obtenidos por un consorcio de medios de comunicación que incluía al New York Times, son parte de un caché más grande de material llamado The Facebook Papers. Fueron recogidos por Frances Haugen, una exgerente de producto de Facebook que se convirtió en denunciante y recientemente testificó ante un subcomité del Senado sobre la compañía y sus plataformas de redes sociales «, dijo.
«Las referencias a India estaban dispersas entre las presentaciones de Haugen a la Comisión de Bolsa y Valores en una queja a principios de este mes», dijo.
Los cambios de Facebook se basan en las restricciones que la compañía afirma haber hecho sobre las recomendaciones, como eliminar los grupos de salud de estas superficies, así como los grupos que comparten información errónea repetidamente.
Específicamente para los grupos que comparten desinformación, la compañía ha comenzado a clasificar todo el contenido de esos grupos en una posición más baja en las noticias y a limitar las notificaciones con el objetivo de que menos miembros vean sus publicaciones.
La plataforma también dijo que ha presenciado «nuevos tipos de abuso en Facebook» en el contexto de Covid y ha actualizado sus políticas para reflejar los cambios.
Por ejemplo, dijo la compañía, ahora elimina el contenido que afirma que las personas que comparten un rasgo protegido como la raza o la religión tienen el virus, lo han creado o lo están propagando. Como parte de la aplicación de esta política, la compañía afirma haber bloqueado varios hashtags utilizados principalmente para apuntar a la comunidad musulmana en el contexto de Covid.
«Apasionado experto en música. Gurú total del café. Amistoso adicto a los zombis. Especialista en cerveza. Experto en comida».
También te puede interesar
-
La erupción del volcán Marapi en Indonesia causa 22 muertos; uno todavía falta
-
Los 25 artículos más populares de Wikipedia de 2023
-
En este restaurante japonés la gente paga para que las camareras la abofeteen
-
Conozca a la ‘hija del multimillonario’ de 11 años luciendo un reloj de 124.000 dólares y una cartera de 31.000 dólares
-
La entrada sin visa a países asiáticos aumenta las tarifas aéreas | Noticias de la India