La DSA entra en vigor: ¿la Unión Europea estará a la altura de su regulación?

6 minutos
2/23/2024
La DSA entra en vigor: ¿la Unión Europea estará a la altura de su regulación?
"Image of the Parthenon, reenvisioned with a composition of wires and various technological elements", interpretado por Dall-E

Durante los últimos tiempos, las expectativas de los gobiernos, las plataformas, la academia y las organizaciones de derechos digitales han estado puestas en la Ley de Servicios Digitales (DSA, por sus siglas en inglés), el ambicioso paquete de reglas con el que la Unión Europea busca regular a las plataformas. 

La ley, que promete sentar mejores prácticas de moderación, transparencia y mitigar la desinformación en espacios digitales, ha sido un modelo para proyectos que ya se discuten fuera de las fronteras de la Unión Europea, como el “proyecto de ley de las fake news” en Brasil. Sin embargo, con su entrada en vigor el pasado 17 de febrero, han empezado a resonar sus posibles riesgos y los retos de su implementación.

Los efectos de la DSA han sido diferidos en el tiempo. Desde agosto de 2023, las principales compañías de Internet –aquellas con más de 45 millones de usuarios en la Unión Europea– están sujetas a sus obligaciones, pero a partir del sábado pasado, estas reglas empezaron a ser aplicables a los demás intermediarios de Internet: redes sociales menos populares, motores de búsqueda y tiendas de aplicaciones, entre otros, que operan en ese territorio.

Grietas en la arquitectura institucional

El nuevo panorama regulatorio trae obligaciones muy exigentes para las compañías de Internet, pero también impone a las instituciones europeas el deber de cumplir con sus propias aspiraciones, lo que supone desarrollar mecanismos idóneos. Por lo pronto, estos primeros meses de implementación han hecho visibles algunas barreras técnicas. 

El inicio de la guerra entre Israel y Hamás, por ejemplo, tomó por sorpresa a la Comisión Europea, que no estuvo en capacidad de vigilar el estallido de desinformación y contenido violento gráfico que acompañó esos primeros días del conflicto. La Comisión tuvo que acudir a investigadores digitales externos para recabar suficiente evidencia del contenido dañino que estaba circulando, pues sus equipos no estaban preparados para atender la emergencia, según informaron dos trabajadores de ese organismo a Político.

Las limitaciones de la Comisión se han hecho sentir también en su fuerza de trabajo. Mientras que Ofcom, la entidad del Reino Unido encargada de supervisar el cumplimiento de la Online Safety Act –la regulación británica de plataformas– cuenta con 300 personas dedicadas a esta labor, la Comisión tiene tan solo 75. 

Falta de directrices

La DSA obliga a las grandes plataformas a someterse a auditorías externas que comprueben que están cumpliendo con algunos de los principales requisitos de la ley, como el deber de evaluar riesgos sistémicos, crear planes para mitigarlos, y elaborar planes de crisis.

Para orientar las auditorías, cuyos resultados deberán entregarse por primera vez en agosto de este año, la Comisión expidió el año pasado un reglamento. Sin embargo, el documento no parece abordar con suficiente profundidad el desarrollo de este requisito. Según han alertado Jason Pielemer, director ejecutivo de Global Network Initiative, Hillary Ross, asesora de esta misma institución, y la periodista Ramsha Jahangir, el reglamento no establece definiciones o metodologías para llevar a cabo las revisiones. 

La falta de pautas en esta materia impide un análisis riguroso y comparable entre los sistemas de las compañías de Internet, y además pone en riesgo derechos como el de la libertad de expresión. Por ejemplo, para entender cómo cumple una plataforma la obligación de remover contenido ilegal –como la promoción del terrorismo– no existen pautas que indiquen cuáles ni de qué países son las leyes bajo las que esas publicaciones serían consideradas ilegales.

Además, la norma exige que las auditorías revisen los sistemas internos de las compañías, de alta complejidad técnica, y aseguren que están cumpliendo con sus obligaciones bajo la DSA con un “alto nivel de precisión”. Teniendo en cuenta que pocas firmas tienen experiencia en esta clase de revisiones, los investigadores aseguran que este estándar sería prácticamente imposible de cumplir. 

Coordinadores de Servicios Digitales: una tentación para regímenes autoritarios

El 17 de febrero no solo marcó la entrada en pleno vigor de la DSA, sino la fecha límite para que los estados que componen la Unión Europea nominaran a las entidades que supervisarán el cumplimiento de la ley en el nivel nacional, llamados Coordinadores de Servicios Digitales.

A la fecha, países como Alemania, Bélgica o Polonia siguen sin anunciar qué entidades locales se encargarán de estas labores, mientras que quienes han cumplido han presentado a autoridades en materia de comunicaciones, defensa del consumidor y competencia. 

La elección de los Coordinadores no es un tema menor, pues la DSA les ofrece grandes poderes para ejecutar la ley. Dentro de sus facultades está recibir y evaluar quejas de usuarios, demandar información a las plataformas sobre supuestas violaciones a la ley, imponer multas, acreditar a investigadores para acceder a datos de las plataformas y escoger a los alertadores fiables o trusted flaggers, una suerte de agentes con la capacidad de detectar contenido ilegal en las plataformas y solicitar remociones de contenido prioritarias. 

Dado que los Coordinadores pueden ser nombrados por el poder ejecutivo, existe el riesgo de que estas instituciones se conviertan en medios para limitar el discurso digital. David Kaye, antiguo relator especial sobre la libertad de expresión de las Naciones Unidas, alertó recientemente sobre la posibilidad de que estos mecanismos sean usados por actores políticos para censurar a otras voces. 

La misma advertencia hizo Anupam Chander, profesor de derecho y tecnología de Georgetown. Teniendo en cuenta la vocación de la DSA para convertirse en un modelo global, mecanismos semejantes en manos de un gobierno autoritario podrían ser usados de manera arbitraria: pedir a las plataformas información sobre críticos, seleccionar alertadores que marquen como ilegal el contenido de la oposición, aprobar investigaciones de instituciones aliadas o afectar arbitrariamente a plataformas que resulten incómodas.

Este artículo apareció originalmente en Botando Corriente, nuestro newsletter. Puedes suscribirte aquí:

Por:
ir al home