Facebook tomará nuevas medidas para combatir los discursos de odio y los bulos sobre la salud
ABC TECNOLOGÍA.- Facebook ha anunciado nuevas medidas para frenar la violencia y la desinformación en el interior de la plataforma. Según explica la red social propiedad de Mark Zuckerberg en un comunicado, a partir de ahora los grupos tendrán que tener un administrador o comenzará a eliminarlos pasado un tiempo. Asimismo, Facebook ha endurecido las sanciones que aplica a los miembros de grupos que no respetan las normas de su comunidad.
De esta manera, los administradores y creadores de grupos sancionados no podrán crear nuevos grupos durante un tiempo determinado, y quienes vulneren las normas del grupo necesitarán recibir la aprobación del moderador para que sus publicaciones sean visibles en los siguientes 30 días. Para asegurar esta norma, la red social comenzará a exigir que los grupos tengan un administrador en situaciones en las que estos abandonan el grupo, y enviará sugerencias a usuarios. Después de un tiempo no determinado, si los grupos siguen sin administrador quedarán archivados.
Facebook asegura que eliminó durante el último año 1,5 millones de contenidos en los grupos de su red social por actividades de odio y 12 millones por discursos relacionados. Asimismo, la compañía cerró un millón de grupos por este motivo, según datos de la red social.
La red social ha anunciado otras medidas contra los grupos que promueven la violencia y los ha excluido de las recomendaciones, restringido en búsquedas y en el futuro reducirá su visibilidad en el «feed» de noticias. También serán eliminados de forma automática cuando comiencen a hablar de llegar a la violencia de forma real, incluso si hacen uso de símbolos y términos velados. Esta política se usó para eliminar 709 grupos relacionados con el movimiento extremista de ultraderecha estadounidense QAnon.
Nuevas medidas para combatir los bulos sobre salud
Además, Facebook dejará de recomendar grupos con temática sobre salud de las recomendaciones para potenciar las fuentes fiables, y ha comenzado a utilizar un nuevo enfoque para combatir la desinformación en los grupos. De esta manera, la red social eliminará grupos en los que los administradores aprueben de forma repetida contenidos que violen las normas de la plataforma, reducirá la distribución de todos contenidos de los grupos en los que se comparta desinformación y comenzará a mostrar una etiqueta en los grupos cuando el contenido haya sido desmentido por verificadores independientes.
Esta medida llega poco después de que la asociación estadounidense Avaaz publicase un informe en el que se afirmaba que, durante el último año, el algoritmo de Facebook ha estado promocionando la desinformación sobre la salud. El estudio, en el que la fundación destaca la enorme cantidad de información médica falsa que corre por la red social, se señala que 82 sitios web que comparten datos de este tipo han estado empleando Facebook para conseguir tráfico en sus propios dominios. Durante el último año, estas páginas, entre las que figuran sitios (supuestamente) de noticias, habrían generado en total 3.800 millones de visitas procedentes de cinco países distintos (Estados Unidos, Francia, Reino Unido, Alemania e Italia) gracias a su actividad en la plataforma. Solamente en el mes de abril, con el coronavirus en plena ebullición, Facebook permitió 460 millones de visitas a noticias de salud falsas.