La posición de Xnet sobre el DSA package

Actualización a día 24/4/22

El pasado 22-23 de abril de 2022 tuvo lugar el quinto y último período de negociaciones sobre la #DSA entre las instituciones europeas.

El voto definitivo en el Parlamento Europeo está previsto que tenga lugar en Julio de 2022.
 

Logros obtenidos:

Es una buena noticia que el filtrado preventivo del contenido y las responsabilidades sobre la moderación de contenidos se hayan esclarecido. Los mecanismos de apelación y reparación de la DSA permitirán a los usuarios señalar contenidos en línea potencialmente ilegales a los intermediarios, quienes deberán reaccionar mediante un proceso transparente. Estos intermediarios no se verán amenazados por una responsabilidad legal al inicio de este procedimiento, lo cual facilitará su propio transcurso.

Una propuesta de última hora que habría obligado a los motores de búsqueda a eliminar de los resultados de las búsquedas los contenidos y sitios web ilegales, convirtiéndolos en una herramienta de censura y poniendo en riesgo la libertad de expresión, se consiguió que se rechazara finalmente.

Además, se descartó la obligación de registrar los teléfonos móviles de quienes difundan contenidos pornográficos en plataformas, lo que habría abordado de forma inadecuada los abusos sexuales con imágenes y la desnudez no consentida, además de reducir el anonimato en línea.
 

Medias tintas:

– La prohibición del uso de datos personales sensibles para la presentación dirigida de anuncios en línea fue una adición positiva en la que la DSA complementa el Reglamento General de Protección de Datos (GDPR), prohibiendo así esta práctica invasiva. Aún así, queda camino por recorrer, puesto que esta prohibición solo se aplica a las plataformas en línea y por ende deja fuera gran parte de las redes publicitarias existentes.

– La prohibición de los llamados dark patterns, prácticas manipuladoras en línea o patrones oscuros, aunque no habrá una “lista obligatoria” de estas prácticas sino sólo ejemplos vinculados a posibles orientaciones dadas por la Comisión.

– Cuanto a «trusted flaggers», el Consejo ha ganado sobre quién puede ser considerado como una organización cuyos avisos de contenido ilegal son tratados de forma prioritaria por una plataforma online. Los negociadores acordaron eliminar el requisito de representar el «interés colectivo», lo que significa que los titulares de derechos podrán señalar las infracciones de derechos de autor.

Mucho de todo esto dependerá del éxito de su aplicación: la DSA sólo tendrá sentido si la ley se aplica y se hace cumplir de forma efectiva. Además conlleva ciertos peligros.
 

Peligros:

Es probable que la parte más difícil de la DSA esté por llegar ya que depende de su transposición en los estados.

El texto de la DSA carece de garantías suficientes para el usuario y sigue impulsando conceptos vagos abiertos a peligrosas interpretaciones erróneas:

– Las microempresas y las pequeñas empresas seguirán estando exentas de algunas normas. Pero tendrá que verse si la exención para las PYMES reconoce la necesidad de tratar de forma diferente a los actores sin ánimo de lucro, como los repositorios educativos y científicos, los archivos digitales y las bibliotecas, o simplemente crea una laguna legal en beneficio exclusivo de las entidades comerciales. Es probable que la carga de cumplimiento prevista será tan elevada que la DSA corre el riesgo de consolidar la posición de las grandes empresas tecnológicas en detrimento de los actores más pequeños, aniquilando cualquier efecto positivo en el mercado derivado de la DMA.

– Se ha introducido un mecanismo de crisis que podría ser fácilmente mal utilizado. Sus garantías siguen siendo vagas. Por ejemplo, es difícil decir qué constituye exactamente una crisis según este artículo.
Se ha incorporado gracias a las presiones de la sociedad civil alguna salvaguarda respecto a la versión inicial del mismo, como por ejemplo, la Comisión Europea ya no dispondrá de un poder ejecutivo sin control para declarar un «estado de emercencia digital», sino que sólo podrá activar este mecanismo si la mayoría de los organismos reguladores nacionales -por tanto, más de la mitad de los Estados miembros- están de acuerdo. La Comisión no podrá prescribir acciones específicas a las plataformas, sino indicarles qué contenidos son peligrosos y deben ser moderados. Las acciones pueden ir desde la supresión, pasando por la limitación de la visibilidad, hasta el cambio del contenido. Cualquier demanda de este tipo por parte de la Comisión debe hacerse pública inmediatamente y todo el mecanismo caduca a los tres meses de haberse activado.

Actualización a 20 de enero de 2022

En el voto del Europarlamento al #DSA (https://twitter.com/hashtag/DSA?src=hashtag_click) se obtuvieron importantes victorias para la sociedad civil en todos los puntos sensibles. No bajemos la guardia. Comienzan los triálogos. ¡Seguimos!
 

Aquí los avances ->

Adtech:
Ampliada la limitación a datos personales sensibles como las creencias políticas y religiosas y la orientación sexual.
Negar el consentimiento para el tratamiento de datos personales no podrá ser más complejo que darlo, y negar el consentimiento no debe ser penalizado con la inhabilitación de funcionalidades.

Exención para los medios de comunicación:
En los requisitos de los términos y condiciones, se exige a las plataformas que tengan en cuenta la Carta de Derechos Fundamentales, incluida la libertad de los medios de comunicación.
Los términos y condiciones, si violan los derechos fundamentales, no podrán ser vinculantes para lxs usuarixs.

Patrones oscuros:
Los eurodiputados conservadores consiguieron que se votaran por separado las medidas contra los patrones oscuros (artículo 13 bis), pero no tuvieron éxito en su intento de acabar con el artículo.
El artículo prohíbe explícitamente el uso de técnicas específicas para extorsionar el consentimiento para la recogida de datos personales.

Actualización a 14 de enero de 2022

Los días 19 y 20 de enero se vota en el Pleno del Parlamento Europeo el texto de la #DSA que guiará la posición del Parlamento durante las negociaciones entre las instituciones europeas (trilogos). Pueden plantearse algunas enmiendas y peticiones de última hora sobre lo discutido el 14 de diciembre:
https://www.europarl.europa.eu/doceo/document/A-9-2021-0356_EN.html

La sociedad civil organizada hemos conseguido mejorar diversos aspectos del texto inicial como:

– Reducir los daños del filtrado preventivo del contenido.

– Limitación de responsabilidades de los proveedores de servicios.

– Conseguir la prohibición de los #darkpatterns.

– Reducir los ataques a la encriptación.

– Aumentar los requisitos de transparencia, por ejemplo, en la moderación de contenidos.

– En el texto de la DMA, además, se ha conseguido que no haya una priorización de aplicaciones por defecto y que los usuarios puedan escoger las aplicaciones. Además los proveedores de servicio no pueden mezclar los datos que recogen de los usuarios con otros obtenidos de otras fuentes, entre otros avances (https://www.eff.org/deeplinks/2020/12/eus-digital-markets-act-there-lot-room-improvement).
 

Debemos seguir vigilantes para que las mejoras se mantengan y no se incluyan en último momento, en los trílogos o cuando se transponga, elementos liberticidas como:

– No se ha hecho suficiente en relación con los anuncios online basados en seguimientos y perfilado. Todavía el europarlamento puede votar para al menos prohibir los anuncios de seguimiento basados en datos personales confidenciales (recopilados e inferidos). Lo mismo con los sistemas de recomendación de contenidos, con el riesgo además de que queden centralizados en pocas manos. Para más informaciones véase lo que defendemos en #FakeYou – Fake News y Desinformación» Gobiernos, partidos políticos, mass media, corporaciones, grandes fortunas: monopolios de la manipulación informativa y recortes de la libertad de expresión.
https://xnet-x.net/es/informe-fake-news-desinformacion/

– Exención sobre los contenidos publicados por «editores» o «proveedores de contenidos editoriales» (press publishers) en relación con la moderación de contenidos (media exemption) que produciría una libertad de expresión a dos velocidades y una protección de la propaganda sistémica sobre la libre información; o

– Enmiendas que atenten al anonimato.

– Deben mejorarse las previsiones relativas a la obligación de interoperabilidad de los proveedores de servicio y plataformas, incluso inferiores que en la DMA, donde se prevé la interoperabilidad solo de servicios complementarios de los mismos, como de anuncios o pagos, y no de los servicios básicos que ofrecen.
https://www.eff.org/deeplinks/2021/12/digital-services-act-eu-parliaments-key-committee-avoids-filternet-made-europe

– Sobre la moderación de contenidos se está confiando demasiado en «trusted flaggers», dando prioridad a sus denuncias de contenidos, pudiendo ser estos las fuerzas de seguridad o empresas.
https://xnet.maadix.org/nextcloud/index.php/s/GTCjZ4a5A6b5pG9

– También se ha previsto la posibilidad de que autoridades no judiciales puedan solicitar datos de usuarios, lo cual debe corregirse.

 

Primera publicación del post: 8 de octubre de 2021

La reforma necesaria del marco jurídico sobre servicios digitales (e-commerce Directive, nuestra LSSI) está a punto de llevarse a cabo con el Digital Services Act Package (Digital Services Act (DSA) y Digital Markets Act (DMA)).

Este conjunto de medidas emprende una actualización necesaria del marco jurídico europeo, pero contiene algunos elementos y tendencias peligrosos en relación con nuestros derechos y libertades en la era digital, que pueden tener graves consecuencias para el futuro.

Debemos oponernos a la gestión institucional y privada de la libertad de expresión de la sociedad. Esto implicaría otorgar prerrogativas liberticidas a ambos poderes (instituciones y grandes corporaciones de los contenidos online), no dignas de unas democracias y que sofocarían todo tipo de disidencia en un escenario de pensamiento único orwelliano.

Debemos oponernos no solo porque es liberticida, sino que porque es un enfoque equivocado para luchar contra contenidos delictivos y desinformación.
 

Pedimos a las y los europarlamentarios que frenen los principales peligros de esta legislación:

1 – Filtrado preventivo del contenido, responsabilidades (liability and general monitoring) y moderación de contenidos

Xnet siempre ha defendido que se debe castigar el negocio de la viralización de contenidos ilícitos y no la libertad de expresión. Tal y como exponemos en nuestro libro #FakeYou, no se debe fomentar la censura de contenido, sino la obligación de verificación para las instituciones, los partidos y quien paga y cobra por la creación y viralización de contenido.

No hay otra opción real. Todo lo otro es solo perpetrar un negocio que conviene a los partidos, acallando a la vez las voces críticas. Aquí un ejemplo en Rusia.

¿Quiere la UE equipararse a Rusia cuanto a libertad de expresión?
En el informe del IMCO sobre el Paquete DSA del 28 de mayo se ha llegado al gravísimo extremo de considerar contenido eliminable de inmediato de forma administrativa contenido que «dañe las políticas públicas» (léase «que critique lo que diga el gobierno») y preservar por encima del resto de la población las «cuentas relevantes» (léase de los políticos, principales autores de la polarización social y principales financiadores de la industria de la (des)información).
En ningún caso es admisible la exención planteada por el sector periodístico sobre para que los contenidos publicados por «editores» o «proveedores de contenidos editoriales» (press publishers) no sean objeto de moderación alguna por parte de las plataformas y proveedores de servicio (media exemption). Ello produciría una libertad de expresión a dos velocidades y una protección de la propaganda sistémica sobre la libre información.

Esta es una tendencia digna de estados totalitarios y apelamos al deber de los europarlamentarios de defender los derechos humanos para que rectifiquen esta tendencia.

EL enfoque que responsabiliza los proveedores de servicio del contenido de los usuarios (ya aplicado en la polémica Directiva de copyright (https://www.infolibre.es/opinion/plaza-publica/inminente-decretazo-copyright_1_1197653.html) induce censura automatizada por parte de estos, para evitar responsabilidades. Por ello la limitación de las responsabilidades de los proveedores de servicios, la no obligación de monitoreo constante que impediría el florecer de emprendimientos por lo oneroso que resultaría así como el establecimiento de plazos suficientemente amplios para que revisen las denuncias de contenidos por parte de los usuarios es esencial.

En esta moderación de contenidos por parte de las plataformas y proveedores de servicio se está confiando demasiado en «trusted flaggers», dando prioridad a sus denuncias de contenidos, pudiendo ser estos las fuerzas de seguridad o empresas (https://xnet.maadix.org/nextcloud/index.php/s/GTCjZ4a5A6b5pG9).
 

2 – Anuncios online (comerciales o políticos) y sistemas de recomendación (Adtech and recommender systems)

La privacidad debe garantizarse desde el diseño y por defecto, sin publicidad personalizada por defecto. El uso de datos personales debe estar desactivado de forma predeterminada. Solo debe permitirse la recepción opcional de anuncios personalizados con datos proporcionados voluntariamente por la o el usuario con su consentimiento explícito libremente otorgado (sin el uso de dark patterns y otras prácticas) y no masivo (opt-in).
Ello conllevaría eliminar el rastreo por parte de terceros y perfilado.
La regulación NO debe diferir entre online y offline.
Por otra parte, cada vez hay más pruebas de que la forma en que funcionan los sistemas de recomendación propiedad de las plataformas tienen grandes consecuencias en la polarización del debate. En este sentido, se deben regular además de permitir que sean generados externamente a las plataformas. Las y los usuarios deben poder elegir entre diferentes sistemas, incluidos los creados por, por ejemplo, organizaciones ONGs o especialistas en diversas temáticas.
 

3 – Transparencia e interoperabilidad y no priorización de productos

Debe haber transparencia en cómo se generan los algoritmos de recomendación y de priorización además de transparencia en quién financia los anuncios online (y offline).
Las configuraciones y contenidos deben poderse cancelar y portar a otras plataformas.
Se debe impedir la consolidación de silos de datos en favor de la usabilidad de los datos para el interés general.
La interoperabilidad debe ser la norma: plataformas, sistemas operativos, incluso antenas (ver enmienda 57). Además, la interoperabilidad y transparencia deben aplicarse para que las y los usuarios puedan calibrar sus propios filtros o administrar el contenido.
Apoyamos las posiciones de algunos países que abogan para que los productos y programas no puedan venir por defecto priorizados (FR), como por ejemplo la preinstalación de apps en sistemas operativos (NL) y no limitarse a permitir la desinstalación como indica el texto legislativo hasta ahora.
 

4 – Entidad de control europea independiente

Frente a la propuesta de crear entidades nacionales de control o de reciclar las de protección de datos a tal fin, apoyamos las posturas como las de algunos países (IE) que indican que las Autoridades de Protección de Datos nacionales de momento tienen todavía muchos problemas de lentitud y falta de proactividad por cómo han sido diseñadas. Es preferible una entidad supranacional bien regulada que permita evitar los sesgos nacionales, las puertas giratorias y la corrupción además de poder aplicar criterios más neutrales.
 

5 – Otros

– Medidas anti-SLAPPs por las graves asimetrías de defensa que pueden haber y que pueden socavar la libertad de expresión.
– Impedir las interferencias en comunicaciones interpersonales: no deben aplicarse las mismas normas a lo que se comunica públicamente vía redes sociales que a lo que se comunica en la intimidad de los servicios de mensajería.

 

Para más informaciones ver – Como coalición escribimos al Euro Parlamento sobre el respeto de los derechos humanos en el DSA package.
https://www.accessnow.org/cms/assets/uploads/2021/09/DSA_Joint_Letter_MEPs.pdf