Una ONG alertó que Meta expone a sus usuarios a la “desinformación” y a una “ola de contenidos perjudiciales”

La nueva política de moderación de Meta, la empresa matriz de Facebook e Instagram, corre el riesgo de aumentar la “desinformación y los contenidos peligrosos” en estas dos redes, advirtió el lunes una ONG que lucha contra la desinformación en línea.

Según un estudio del Centro para la Lucha contra el Odio Digital (CCDH), el hecho de que Meta renuncie a su programa de verificación de datos y a sus sistemas de detección de discursos de odio podría afectar al 97% de su labor como moderador y, por tanto, traducirse en una “ola” de contenidos perjudiciales para los internautas.

La organización llegó a esta conclusión tras analizar los cambios anunciados por Meta el 7 de enero, entre ellos la sustitución del fact-checking por notas comunitarias, y el abandono de sus normas sobre “inmigración, identidad de género y género”.

“Meta debe explicar a sus usuarios por qué abandona un enfoque que presentó como eficaz contra la desinformación y la polarización” de la opinión, señala el CCDH en su informe.

El 7 de enero, unos días antes de la investidura de Donald Trump, el fundador y jefe de Meta, Mark Zuckerberg, anunció que iba a “deshacerse de los verificadores de hechos y reemplazarlos con calificaciones comunitarias”, por estimar que las elecciones han marcado un “punto de inflexión cultural” que da “prioridad a la libertad de expresión”.

El grupo californiano añadió que quiere “simplificar” sus reglas y “abolir una serie de límites en temas como la inmigración y el género, que ya no están en el discurso dominante”.

Este cambio fue seguido recientemente por el anuncio de un cambio de política por parte de la red social X, de Elon Musk.

El estrecho colaborador de Trump prometió el jueves pasado “arreglar” una función de X que permite a los usuarios desmentir o calificar publicaciones potencialmente falsas, culpando a “gobiernos y medios tradicionales” de haberse aprovechado de ella, en un contexto de disensiones con Ucrania.

“No se puede reemplazar a los equipos de moderación”

Para el jefe del CCDH, Imran Ahmed, si bien las calificaciones de la comunidad siguen siendo “una adición bienvenida a las medidas de seguridad de la plataforma”, este modelo basado en la participación de los usuarios de internet “no puede y nunca podrá reemplazar por completo a los equipos de moderación dedicados y la detección de inteligencia artificial”.

Seguí leyendo

Cortesía de Página 12



Dejanos un comentario: