Irlanda abre investigaciones sobre TikTok y LinkedIn por sus sistemas de denuncia

Última actualización: diciembre 3, 2025
Autor: Isaac
  • El regulador irlandés investiga si TikTok y LinkedIn incumplen la Ley de Servicios Digitales de la UE.
  • Las dudas se centran en la accesibilidad, facilidad de uso y anonimato de los mecanismos para denunciar contenido ilegal.
  • El foco principal es la denuncia de material de abuso sexual infantil y el posible efecto disuasorio del diseño de las interfaces.
  • Las sanciones por vulnerar la DSA pueden llegar hasta el 6% de la facturación anual de las plataformas.

investigaciones sobre TikTok y LinkedIn

El regulador de medios de Irlanda ha puesto el foco sobre TikTok y LinkedIn al abrir investigaciones formales sobre cómo gestionan las denuncias de contenido ilegal en sus plataformas. Las autoridades sospechan que los sistemas actuales podrían no cumplir con los requisitos de la Ley de Servicios Digitales de la Unión Europea, especialmente en lo relativo al tratamiento de material de abuso sexual infantil.

Estas pesquisas sitúan de nuevo a Irlanda en el centro del mapa regulatorio europeo, ya que muchas grandes tecnológicas tienen allí su base para operar en la UE. El organismo regulador quiere aclarar si las dos plataformas ofrecen canales de denuncia accesibles y usables, tal y como obliga la normativa comunitaria, o si su diseño podría estar frenando a los usuarios a la hora de reportar contenidos ilícitos.

Qué investiga exactamente el regulador irlandés

regulador europeo investiga plataformas digitales

Las investigaciones se han iniciado en el marco de la nueva función del regulador irlandés como supervisor del cumplimiento de la DSA (Digital Services Act) por parte de las plataformas con sede en Irlanda. El objetivo es determinar si TikTok, propiedad de la china ByteDance, y LinkedIn, controlada por Microsoft, están respetando las obligaciones fijadas por Bruselas para la gestión de contenidos ilícitos.

Según ha explicado el comisario de servicios digitales del regulador, John Evans, existen indicios de que los mecanismos de denuncia de estas redes sociales no serían tan fáciles de localizar ni de utilizar como exige la ley europea. El examen se centra en cómo se presenta la opción de reportar contenido, qué pasos se piden al usuario y hasta qué punto el proceso resulta intuitivo para cualquier persona.

Relacionado:  OpenAI adquiere Sky y da el salto al control nativo de macOS

Además, las autoridades cuestionan si estas plataformas están permitiendo realmente que se puedan denunciar de forma anónima los casos de material de abuso sexual infantil, algo que la DSA establece como requisito esencial. La preocupación es que una falta de anonimato o una sensación de exposición pueda hacer que muchos usuarios opten por no informar de este tipo de contenidos especialmente sensibles.

Otro punto bajo la lupa es el diseño general de las interfaces de TikTok y LinkedIn. El regulador sospecha que ciertos elementos de diseño podrían tener un efecto disuasorio sobre quienes quieren marcar un contenido como ilegal, ya sea por la cantidad de clics necesarios, por mensajes poco claros o por la forma en que se muestran las opciones dentro de la aplicación.

El papel de Irlanda y el alcance de las posibles sanciones

Irlanda se ha convertido en una pieza clave del engranaje regulatorio europeo debido a que multitud de grandes multinacionales tecnológicas han establecido allí su cuartel general para Europa. Al centralizar sus operaciones en ese país, estas compañías quedan bajo la supervisión directa del regulador irlandés en lo que respecta al cumplimiento de la DSA.

En el caso de que se confirme que TikTok o LinkedIn han vulnerado la legislación europea, el organismo puede imponer multas de hasta el 6% de la facturación anual de cada proveedor. Se trata de un margen sancionador considerable, diseñado precisamente para que las grandes plataformas se tomen en serio las obligaciones de la normativa digital.

El regulador ya ha comenzado a utilizar estas nuevas competencias. De hecho, el mes anterior abrió su primera investigación centrada en la red social X (antes Twitter), lo que deja claro que las autoridades irlandesas han pasado de una fase de diálogo a otra en la que las investigaciones formales empiezan a ser habituales.

Relacionado:  Hyperscale Data prepara servicio de GPU Nvidia en la nube bajo demanda

En este contexto, el caso de TikTok y LinkedIn se interpreta como un paso más en la estrategia de la Unión Europea para reforzar el control sobre las grandes plataformas y garantizar que se adopten medidas efectivas frente a contenidos ilícitos y dañinos, especialmente aquellos relacionados con delitos de carácter sexual contra menores.

Anonimato, usabilidad y obligación de actuar frente a contenido ilegal

La DSA obliga a las grandes plataformas a disponer de sistemas claros que permitan a cualquier usuario denunciar contenido ilegal de forma sencilla. No se trata solo de tener un botón escondido en un menú, sino de que el proceso sea comprensible, esté bien señalado y no suponga un obstáculo adicional para quien quiere reportar un posible delito.

En el caso del material de abuso sexual infantil, la normativa europea va un paso más allá y exige que se ofrezcan material de abuso sexual infantil. La lógica es simple: muchas personas pueden sentirse vulnerables o temer represalias si se les identifica de alguna forma, por lo que el anonimato se considera clave para aumentar el volumen de reportes y detectar más rápido este tipo de contenidos.

Las dudas del regulador irlandés giran precisamente en torno a si TikTok y LinkedIn cumplen de forma rigurosa estos dos aspectos: la facilidad de uso y la posibilidad real de presentar denuncias sin revelar la identidad. Si la opción de reportar está demasiado escondida o el proceso pide datos innecesarios, se podría considerar que la plataforma no está alineada con el espíritu de la DSA.

John Evans también ha señalado que el diseño de las interfaces juega un papel importante. Elementos como la ubicación de los botones, el lenguaje utilizado en los menús o la longitud de los formularios pueden hacer que una persona se lo piense dos veces antes de denunciar, algo que la normativa europea intenta evitar poniendo el foco en la experiencia de usuario.

Reacción de otras plataformas y posible efecto en toda la industria

El comisario ha explicado que, tras iniciar conversaciones con el regulador, otras plataformas digitales ya han introducido cambios notables en sus sistemas de denuncia de contenido ilegal. En algunos casos se han simplificado los formularios, se ha dado mayor visibilidad a las opciones de reporte o se ha reforzado el aspecto del anonimato para los usuarios.

Relacionado:  ChatGPT Atlas: así es el navegador de OpenAI que une conversación y web

El organismo irlandés ha solicitado además información adicional a varios proveedores para evaluar con mayor detalle si los ajustes realizados son suficientes o si será necesario ir más allá. No se descarta, según el propio regulador, adoptar nuevas medidas regulatorias contra otras compañías si se detectan incumplimientos o resistencias a adaptar los sistemas de denuncia a las exigencias europeas.

Este clima de mayor presión regulatoria está empezando a marcar la agenda de las grandes tecnológicas con presencia en Europa. Las investigaciones sobre TikTok y LinkedIn se interpretan como una señal clara de que el enfoque de las autoridades ya no se limita a los casos más mediáticos, sino que se extiende a aspectos concretos del diseño de producto y de la experiencia de usuario.

Para el conjunto de la industria, el mensaje es evidente: los mecanismos para reportar contenido ilegal dejan de ser un elemento secundario y pasan a convertirse en una cuestión estratégica, con impacto directo tanto en la reputación de las plataformas como en su exposición a posibles sanciones económicas de gran calado.

Con estas investigaciones, el regulador irlandés refuerza su papel como pieza clave del entramado europeo que vigila cómo las grandes redes sociales y servicios digitales afrontan la lucha contra los contenidos ilegales. La forma en que se resuelvan los casos de TikTok y LinkedIn servirá probablemente de referencia para futuros procedimientos y marcará el listón de lo que la UE considera una respuesta adecuada ante la difusión de material ilícito, especialmente cuando hay menores de por medio.

Protección de Datos multa a Aena por reconocimiento facial
Artículo relacionado:
Protección de Datos multa a Aena por su sistema de reconocimiento facial