¿Por qué es tan difícil denunciar contenido ilegal en Facebook, Instagram o TikTok? Europa ya tiene la respuesta: Meta y TikTok obstaculizan las denuncias y violan la ley digital de la UE

Algo serio se cuece en Bruselas. La Comisión Europea ha puesto sobre la mesa un conjunto de acusaciones preliminares contra dos de los actores digitales más poderosos del planeta: Meta —propietaria de Facebook e Instagram— y TikTok. Ambos estarían incumpliendo la Ley de Servicios Digitales (DSA), una normativa que redefine el marco legal para las grandes plataformas en la Unión Europea y que podría imponer sanciones de hasta el 6% de su facturación global.

Aunque todavía se trata de hallazgos preliminares, las conclusiones no podrían ser más inquietantes. Según el comunicado oficial publicado en el día de hoy, ni Meta ni TikTok estarían permitiendo a los investigadores un acceso adecuado a los datos públicos de sus plataformas. Un detalle que podría parecer técnico, pero que en realidad representa un obstáculo directo a la transparencia exigida por ley.

La razón de esta obligación es clara: solo a través del análisis riguroso de estos datos se puede entender hasta qué punto los usuarios —especialmente menores de edad— están expuestos a contenidos nocivos, manipulaciones algorítmicas o dinámicas adictivas. Pero las plataformas, en lugar de facilitar esa tarea, habrían construido una arquitectura burocrática para frenar cualquier intento de escrutinio externo.

En el caso de Meta, las sospechas se agravan. La Comisión acusa directamente a Facebook e Instagram de dificultar que los usuarios denuncien contenidos ilegales. Las herramientas disponibles para ello no serían accesibles ni intuitivas, como exige la DSA, sino todo lo contrario: llenas de pasos innecesarios y diseñadas, aparentemente, para desincentivar la denuncia.

La UE acusa a Meta, TikTok, Facebook e Instagram de violar sus reglas digitales
La UE acusa a Meta, TikTok, Facebook e Instagram de violar sus reglas digitales. Foto: Istock/Christian Pérez

Este tipo de prácticas, conocidas como “patrones oscuros”, no son nuevas en el mundo digital. Se trata de estrategias de diseño que manipulan la conducta del usuario sin que este lo perciba claramente. En este caso, el objetivo parece haber sido obstaculizar la comunicación de contenidos tan graves como el abuso sexual infantil o la apología del terrorismo. Si se confirma, estaríamos ante una negligencia de proporciones éticas y legales considerables.

Pero el problema no acaba ahí. Otra obligación de la DSA es permitir que los usuarios apelen decisiones de moderación: por ejemplo, cuando su contenido es eliminado o su cuenta suspendida. Según Bruselas, Meta tampoco cumpliría aquí. Los sistemas de apelación no permitirían incluir explicaciones ni evidencias, lo que deja a los usuarios en una situación de indefensión total. Reclamas, pero nadie escucha.

Tanto Meta como TikTok tienen ahora la posibilidad de responder por escrito, revisar el expediente y tomar medidas correctivas. Si no lo hacen, se enfrentarán no solo a una multa que puede alcanzar cifras históricas, sino también a un golpe reputacional difícil de reparar en un contexto donde la confianza en las plataformas está bajo mínimos.

Y la presión no hará más que aumentar. El 29 de octubre entra en vigor un nuevo reglamento que obligará a estas grandes plataformas a compartir no solo datos públicos, sino también datos no públicos con investigadores autorizados. Esto marcará un antes y un después. Por primera vez, se podrá analizar con lupa el funcionamiento interno de algoritmos, sistemas de recomendación y dinámicas ocultas que hasta ahora escapaban al control público.

La denuncia también alcanzaría a TikTok
La denuncia también alcanzaría a TikTok. Foto: Istock

La DSA es, en muchos sentidos, el experimento regulador más ambicioso del mundo digital. Una apuesta de la Unión Europea por reequilibrar las relaciones de poder entre usuarios, plataformas y autoridades. Hasta ahora, las grandes tecnológicas han operado en una especie de zona gris, amparadas en su tamaño y en una normativa desactualizada. Eso está cambiando.

El mensaje que lanza la Comisión con esta investigación preliminar es claro: ya no vale esconderse tras la complejidad técnica, ni detrás de interfaces engañosas. La transparencia no es opcional. Y los derechos digitales de los ciudadanos europeos ya no son papel mojado.

Queda por ver si Meta y TikTok tomarán esta advertencia en serio o si optarán por el enfrentamiento legal. En cualquier caso, la batalla por un internet más justo y responsable ha empezado, y no parece que Bruselas vaya a dar un paso atrás.

Cortesía de Muy Interesante



Dejanos un comentario: