Este mes de agosto, ha entrado en vigor el DSA, parte del Paquete de Servicios Digitales (Digital Service Act-DSA y Digital Market Act-DMA), un paquete legislativo (https://digital-strategy.ec.europa.eu/es/policies/digital-services-act-package) que cambiará, probablemente a mejor, internet como lo conocemos actualmente, es decir, un espacio que era libre y que ahora es ocupado por grandes poderes monopolísticos.
Desde Xnet, llevamos años abogando (https://xnet-x.net/es/ley-fakeyou/) por una ofensiva clara contra esta situación.
https://twitter.com/X_net_/status/1447464578036772864
Aunque el paquete legislativo se queda corto – por ejemplo, sigue segregando lo offline de lo online y no establece un corte decidido entre la libertad de expresión y el negocio de la (des)información -, es un avance que podemos utilizar.
El DSA ha entrado en vigor el 25 de agosto de 2023, de forma progresiva, y será de aplicación completa a partir del 17 de febrero de 2024. Afecta a los proveedores de servicios de la sociedad de la información que actúan como intermediarios (https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-services-act-ensuring-safe-and-accountable-online-environment_es), tales como redes sociales, quienes almacenan datos como servicios en la nube y de alojamiento web; aquellos que ofrecen infraestructuras de red (proveedores de acceso a internet, registradores de nombres de dominio); plataformas en línea como mercados en línea, tiendas de aplicaciones y plataformas de economía colaborativa.
Cabe destacar a aquellas definidas como plataformas en línea y motores de búsqueda de muy gran tamaño» (https://digital-strategy.ec.europa.eu/en/policies/dsa-vlops), es decir, aquellas que llegan a más del 10% de los 450 millones de consumidores europeos. Estas tendrán mayores obligaciones en el ámbito de la transparencia, la prevención de riesgos y los impactos sociales tipificados como ilícitos en cuanto a su diseño de sistemas de recomendación o cualquier otro sistema algorítmico, sus sistemas de moderación de contenidos, las condiciones generales de servicio, los sistemas de selección de anuncios y otras prácticas relacionadas con los datos.
Pero sobre todo, el DSA (y el DMA) nos servirán para defender los derechos de las personas usuarias.
El incumplimiento conlleva multas de hasta el 6% del volumen de negocio.
Aquí nuestro análisis sobre todo lo que hemos ganado con esta legislación y dónde se queda corta:
-
• Se equipara la propaganda política a la publicidad (Art.3 r), tal y como venimos defendiendo desde 2018 con nuestro manual de acción #FakeYou. Donde se queda floja respecto al modelo que proponemos es al definir “publicidad” como “información diseñada para promocionar un mensaje” y difundida en línea a cambio de remuneración. Consideramos que la remuneración sería suficiente (y debería aplicarse también fuera de línea, dicho sea de paso). Introducir el tipo de «diseño» de la información abre la puerta a que la publicidad se diseñe cada vez más como noticia, un problema que ya estamos viendo. Las noticias muchas veces son en realidad publicidad de un bando u otro, es decir, remuneradas por un bando u otro, perdiendo su valor informativo o sea, no siendo verificadas. Creemos que aquí se abre una brecha grave que va en dirección contraria a los objetivos que se dice querer obtener.
- Enmiendas de Xnet al Proyecto de RD Ley sobre licencias colectivas de propriedad intelectual para IA
- Reclamamos soberanía digital para las personas: nace la coalición
- (En) REPORT – Electoral Integrity and Political Microtargeting: Monitoring European elections 2024 in Spain
- ¿Debemos actualizar las licencias de Software Libre y de Código abierto?
- Organizamos la Conferencia Europea 4D – Digitalización Democrática y Derechos Digitales
• Por otra parte (artículo 26), los prestadores de servicio deberán permitir a los destinatarios del servicio identificar de manera clara, concisa e inequívoca, en tiempo real y para cada anuncio que es un anuncio; quién lo ha pagado y si es la misma persona que se anuncia; los parámetros por los que lo están viendo y cómo cambiarlo. Solo echamos en falta que se especifique la cantidad. Nótese que todo esto ya se hacía durante los períodos electorales y de forma voluntaria por parte de las grandes plataformas. (De paso, insistimos: en #FakeYou pedimos que esto se aplique también fuera de línea). Los intermediarios de gran tamaño deberán crear un repositorio (artículo 39).
• Los proveedores intermediarios no tienen responsabilidad si no “seleccionan al receptor” (Art.4 b). Esto es interesante por varios motivos. Es importante que el intermediario no sea responsable del contenido de quienes usan sus servicios, porque esto conduciría a transformar a los intermediarios en censores privados con criterios bastos y masivos aplicados a la libertad de expresión. Ahora bien, si un intermediario favorece un mensaje u otro para las personas usuarias, sí es responsable de esta elección. Es sabido que el contenido polarizante favorece la permanencia de los usuarios en la plataforma. Este artículo es uno de los desincentivos de la Ley.
• El Artículo 8 indica expresamente que no se monitorizará a las personas usuarias. Un buen punto contra la vigilancia masiva.
• En este sentido, se prohíbe el perfilado (GDPR art.4.4) de los usuarios (artículo 26.3), pero se prohíbe completamente solo en caso de menores (artículo 28). Para el resto, solo está prohibido si se utilizan datos de categoría especial como origen étnico o racial, opiniones políticas, convicciones religiosas o filosóficas, afiliación sindical, datos de salud, genéticos o biométricos u orientación sexual. Nos parece una discriminación, que sería justificada solo si fuera aparejada de una libre opción de opt-in.
• En cuanto a los sistemas de recomendación (artículo 38), los proveedores de plataformas en línea y motores de búsqueda en línea de muy gran tamaño que utilicen sistemas de recomendación ofrecerán al menos una opción para cada uno de sus sistemas de recomendación que no se base en la elaboración de perfiles. En todo caso, la transparencia y la rendición de cuentas de los algoritmos, los sistemas publicitarios y de recomendación (comerciales y políticos) y los modelos comerciales de extracción de datos aún no son lo suficientemente tajantes y las personas pueden tener dificultades para ejercer plenamente sus derechos si no hay una afirmación explícita del derecho de autodeterminación de la información de los usuarios mediante el aumento de su control sobre la información que comparten.
• Se plantea atacar la manipulación de las personas usuarias. El artículo 25 prohíbe expresamente los dark patterns, es decir, el diseño manipulativo de los recorridos en una interfaz, como dar más protagonismo a determinadas opciones, solicitar reiteradamente que el destinatario del servicio elija una opción cuando ya se haya hecho esa elección o hacer que el procedimiento para poner fin a un servicio sea más difícil que suscribirse a él. Además, en el Artículo 14.5 se indica que los proveedores de plataformas en línea y motores de búsqueda de muy gran tamaño ya no pueden tener términos y condiciones incomprensibles y de decenas de páginas.
• Para su cumplimiento, además del entramado institucional que depende en buena parte de los estados (aquí habrá trabajo XD), se cuenta con un cierto margen para la acción ciudadana. Se combaten las denuncias arbitrarias al tiempo que se obliga a tomar en serio las denuncias que no lo son (Artículo 23-24). Las plataformas privadas siguen conservar mucho margen para decidir sobre la ilegalidad del contenido, mientras que Xnet pide (https://xnet-x.net/es/ley-fakeyou/) específicamente cambiar el enfoque: para no afectar la libertad de expresión, obligación de verificación cuando hay «negocio» o responsabilidad de las instituciones, partidos políticos, corporaciones y prensa.
• Por último, el acceso a la información es incluso inferior al permitido por la ley de transparencia, ya que para obtener información de las plataformas de muy gran tamaño no basta con pedir, hay que obtener una autorización como investigador (artículo 40), cuando la carga como mínimo debería ser inversa.
• En cuanto al DMA, ya está en vigor desde mayo-junio de 2023 (con multas de hasta el 20% del volumen de negocio), afecta a servicios de intermediación, motores de búsqueda en línea, redes sociales, plataformas de intercambio de vídeos, servicios de comunicaciones interpersonales, sistemas operativos, navegadores, asistentes virtuales, computación en nube, servicios de publicidad en línea y tiendas de aplicaciones informáticas. Introduce el concepto de «guardianes de acceso» y se plantea en particular para intentar reducir su influencia, es decir, la concentración monopolística (https://digital-markets-act.ec.europa.eu/dma-rules-digital-gatekeepers-ensure-open-markets-start-apply-2023-05-02_en), también evitando la transferencia de datos a terceros y ampliando fuertemente las obligaciones de interoperabilidad y portabilidad, permitiendo una configuración más amplia sin discriminación de los dispositivos por parte de los usuarios y la elección de los programas que se instalan y desinstalan, lo que además mejora la posición del software libre.
Traducción de un artículo publicado en 324:
https://www.ccma.cat/324/entra-en-vigor-el-paquet-de-serveis-digitals-com-ens-afecta-i-quin-impacte-te-a-la-xarxa/noticia/3247451/?ext=SMA_WP_F4_CE24_
El pasado 22-23 de abril de 2022 tuvo lugar el quinto y último período de negociaciones sobre la #DSA entre las instituciones europeas.
El voto definitivo en el Parlamento Europeo está previsto que tenga lugar en Julio de 2022.
Logros obtenidos:
Es una buena noticia que el filtrado preventivo del contenido y las responsabilidades sobre la moderación de contenidos se hayan esclarecido. Los mecanismos de apelación y reparación de la DSA permitirán a los usuarios señalar contenidos en línea potencialmente ilegales a los intermediarios, quienes deberán reaccionar mediante un proceso transparente. Estos intermediarios no se verán amenazados por una responsabilidad legal al inicio de este procedimiento, lo cual facilitará su propio transcurso.
Una propuesta de última hora que habría obligado a los motores de búsqueda a eliminar de los resultados de las búsquedas los contenidos y sitios web ilegales, convirtiéndolos en una herramienta de censura y poniendo en riesgo la libertad de expresión, se consiguió que se rechazara finalmente.
Además, se descartó la obligación de registrar los teléfonos móviles de quienes difundan contenidos pornográficos en plataformas, lo que habría abordado de forma inadecuada los abusos sexuales con imágenes y la desnudez no consentida, además de reducir el anonimato en línea.
Medias tintas:
– La prohibición del uso de datos personales sensibles para la presentación dirigida de anuncios en línea fue una adición positiva en la que la DSA complementa el Reglamento General de Protección de Datos (GDPR), prohibiendo así esta práctica invasiva. Aún así, queda camino por recorrer, puesto que esta prohibición solo se aplica a las plataformas en línea y por ende deja fuera gran parte de las redes publicitarias existentes.
– La prohibición de los llamados dark patterns, prácticas manipuladoras en línea o patrones oscuros, aunque no habrá una “lista obligatoria” de estas prácticas sino sólo ejemplos vinculados a posibles orientaciones dadas por la Comisión.
– Cuanto a «trusted flaggers», el Consejo ha ganado sobre quién puede ser considerado como una organización cuyos avisos de contenido ilegal son tratados de forma prioritaria por una plataforma online. Los negociadores acordaron eliminar el requisito de representar el «interés colectivo», lo que significa que los titulares de derechos podrán señalar las infracciones de derechos de autor.
Mucho de todo esto dependerá del éxito de su aplicación: la DSA sólo tendrá sentido si la ley se aplica y se hace cumplir de forma efectiva. Además conlleva ciertos peligros.
Peligros:
Es probable que la parte más difícil de la DSA esté por llegar ya que depende de su transposición en los estados.
El texto de la DSA carece de garantías suficientes para el usuario y sigue impulsando conceptos vagos abiertos a peligrosas interpretaciones erróneas:
– Las microempresas y las pequeñas empresas seguirán estando exentas de algunas normas. Pero tendrá que verse si la exención para las PYMES reconoce la necesidad de tratar de forma diferente a los actores sin ánimo de lucro, como los repositorios educativos y científicos, los archivos digitales y las bibliotecas, o simplemente crea una laguna legal en beneficio exclusivo de las entidades comerciales. Es probable que la carga de cumplimiento prevista será tan elevada que la DSA corre el riesgo de consolidar la posición de las grandes empresas tecnológicas en detrimento de los actores más pequeños, aniquilando cualquier efecto positivo en el mercado derivado de la DMA.
– Se ha introducido un mecanismo de crisis que podría ser fácilmente mal utilizado. Sus garantías siguen siendo vagas. Por ejemplo, es difícil decir qué constituye exactamente una crisis según este artículo.
Se ha incorporado gracias a las presiones de la sociedad civil alguna salvaguarda respecto a la versión inicial del mismo, como por ejemplo, la Comisión Europea ya no dispondrá de un poder ejecutivo sin control para declarar un «estado de emercencia digital», sino que sólo podrá activar este mecanismo si la mayoría de los organismos reguladores nacionales -por tanto, más de la mitad de los Estados miembros- están de acuerdo. La Comisión no podrá prescribir acciones específicas a las plataformas, sino indicarles qué contenidos son peligrosos y deben ser moderados. Las acciones pueden ir desde la supresión, pasando por la limitación de la visibilidad, hasta el cambio del contenido. Cualquier demanda de este tipo por parte de la Comisión debe hacerse pública inmediatamente y todo el mecanismo caduca a los tres meses de haberse activado.
En el voto del Europarlamento al #DSA (https://twitter.com/hashtag/DSA?src=hashtag_click) se obtuvieron importantes victorias para la sociedad civil en todos los puntos sensibles. No bajemos la guardia. Comienzan los triálogos. ¡Seguimos!
Aquí los avances ->
Adtech:
Ampliada la limitación a datos personales sensibles como las creencias políticas y religiosas y la orientación sexual.
Negar el consentimiento para el tratamiento de datos personales no podrá ser más complejo que darlo, y negar el consentimiento no debe ser penalizado con la inhabilitación de funcionalidades.
Exención para los medios de comunicación:
En los requisitos de los términos y condiciones, se exige a las plataformas que tengan en cuenta la Carta de Derechos Fundamentales, incluida la libertad de los medios de comunicación.
Los términos y condiciones, si violan los derechos fundamentales, no podrán ser vinculantes para lxs usuarixs.
Patrones oscuros:
Los eurodiputados conservadores consiguieron que se votaran por separado las medidas contra los patrones oscuros (artículo 13 bis), pero no tuvieron éxito en su intento de acabar con el artículo.
El artículo prohíbe explícitamente el uso de técnicas específicas para extorsionar el consentimiento para la recogida de datos personales.
Actualización a 14 de enero de 2022
Los días 19 y 20 de enero se vota en el Pleno del Parlamento Europeo el texto de la #DSA que guiará la posición del Parlamento durante las negociaciones entre las instituciones europeas (trilogos). Pueden plantearse algunas enmiendas y peticiones de última hora sobre lo discutido el 14 de diciembre:
https://www.europarl.europa.eu/doceo/document/A-9-2021-0356_EN.html
La sociedad civil organizada hemos conseguido mejorar diversos aspectos del texto inicial como:
– Reducir los daños del filtrado preventivo del contenido.
– Limitación de responsabilidades de los proveedores de servicios.
– Conseguir la prohibición de los #darkpatterns.
– Reducir los ataques a la encriptación.
– Aumentar los requisitos de transparencia, por ejemplo, en la moderación de contenidos.
– En el texto de la DMA, además, se ha conseguido que no haya una priorización de aplicaciones por defecto y que los usuarios puedan escoger las aplicaciones. Además los proveedores de servicio no pueden mezclar los datos que recogen de los usuarios con otros obtenidos de otras fuentes, entre otros avances (https://www.eff.org/deeplinks/2020/12/eus-digital-markets-act-there-lot-room-improvement).
Debemos seguir vigilantes para que las mejoras se mantengan y no se incluyan en último momento, en los trílogos o cuando se transponga, elementos liberticidas como:
– No se ha hecho suficiente en relación con los anuncios online basados en seguimientos y perfilado. Todavía el europarlamento puede votar para al menos prohibir los anuncios de seguimiento basados en datos personales confidenciales (recopilados e inferidos). Lo mismo con los sistemas de recomendación de contenidos, con el riesgo además de que queden centralizados en pocas manos. Para más informaciones véase lo que defendemos en #FakeYou – Fake News y Desinformación» Gobiernos, partidos políticos, mass media, corporaciones, grandes fortunas: monopolios de la manipulación informativa y recortes de la libertad de expresión.
https://xnet-x.net/es/informe-fake-news-desinformacion/
– Exención sobre los contenidos publicados por «editores» o «proveedores de contenidos editoriales» (press publishers) en relación con la moderación de contenidos (media exemption) que produciría una libertad de expresión a dos velocidades y una protección de la propaganda sistémica sobre la libre información; o
– Enmiendas que atenten al anonimato.
– Deben mejorarse las previsiones relativas a la obligación de interoperabilidad de los proveedores de servicio y plataformas, incluso inferiores que en la DMA, donde se prevé la interoperabilidad solo de servicios complementarios de los mismos, como de anuncios o pagos, y no de los servicios básicos que ofrecen.
https://www.eff.org/deeplinks/2021/12/digital-services-act-eu-parliaments-key-committee-avoids-filternet-made-europe
– Sobre la moderación de contenidos se está confiando demasiado en «trusted flaggers», dando prioridad a sus denuncias de contenidos, pudiendo ser estos las fuerzas de seguridad o empresas.
https://xnet.maadix.org/nextcloud/index.php/s/GTCjZ4a5A6b5pG9
– También se ha previsto la posibilidad de que autoridades no judiciales puedan solicitar datos de usuarios, lo cual debe corregirse.
Primera publicación del post: 8 de octubre de 2021
La reforma necesaria del marco jurídico sobre servicios digitales (e-commerce Directive, nuestra LSSI) está a punto de llevarse a cabo con el Digital Services Act Package (Digital Services Act (DSA) y Digital Markets Act (DMA)).
Este conjunto de medidas emprende una actualización necesaria del marco jurídico europeo, pero contiene algunos elementos y tendencias peligrosos en relación con nuestros derechos y libertades en la era digital, que pueden tener graves consecuencias para el futuro.
Debemos oponernos a la gestión institucional y privada de la libertad de expresión de la sociedad. Esto implicaría otorgar prerrogativas liberticidas a ambos poderes (instituciones y grandes corporaciones de los contenidos online), no dignas de unas democracias y que sofocarían todo tipo de disidencia en un escenario de pensamiento único orwelliano.
Debemos oponernos no solo porque es liberticida, sino que porque es un enfoque equivocado para luchar contra contenidos delictivos y desinformación.
Pedimos a las y los europarlamentarios que frenen los principales peligros de esta legislación:
1 – Filtrado preventivo del contenido, responsabilidades (liability and general monitoring) y moderación de contenidos
Xnet siempre ha defendido que se debe castigar el negocio de la viralización de contenidos ilícitos y no la libertad de expresión. Tal y como exponemos en nuestro libro #FakeYou, no se debe fomentar la censura de contenido, sino la obligación de verificación para las instituciones, los partidos y quien paga y cobra por la creación y viralización de contenido.
No hay otra opción real. Todo lo otro es solo perpetrar un negocio que conviene a los partidos, acallando a la vez las voces críticas. Aquí un ejemplo en Rusia.
¿Quiere la UE equipararse a Rusia cuanto a libertad de expresión?
En el informe del IMCO sobre el Paquete DSA del 28 de mayo se ha llegado al gravísimo extremo de considerar contenido eliminable de inmediato de forma administrativa contenido que «dañe las políticas públicas» (léase «que critique lo que diga el gobierno») y preservar por encima del resto de la población las «cuentas relevantes» (léase de los políticos, principales autores de la polarización social y principales financiadores de la industria de la (des)información).
En ningún caso es admisible la exención planteada por el sector periodístico sobre para que los contenidos publicados por «editores» o «proveedores de contenidos editoriales» (press publishers) no sean objeto de moderación alguna por parte de las plataformas y proveedores de servicio (media exemption). Ello produciría una libertad de expresión a dos velocidades y una protección de la propaganda sistémica sobre la libre información.
Esta es una tendencia digna de estados totalitarios y apelamos al deber de los europarlamentarios de defender los derechos humanos para que rectifiquen esta tendencia.
EL enfoque que responsabiliza los proveedores de servicio del contenido de los usuarios (ya aplicado en la polémica Directiva de copyright (https://www.infolibre.es/opinion/plaza-publica/inminente-decretazo-copyright_1_1197653.html) induce censura automatizada por parte de estos, para evitar responsabilidades. Por ello la limitación de las responsabilidades de los proveedores de servicios, la no obligación de monitoreo constante que impediría el florecer de emprendimientos por lo oneroso que resultaría así como el establecimiento de plazos suficientemente amplios para que revisen las denuncias de contenidos por parte de los usuarios es esencial.
En esta moderación de contenidos por parte de las plataformas y proveedores de servicio se está confiando demasiado en «trusted flaggers», dando prioridad a sus denuncias de contenidos, pudiendo ser estos las fuerzas de seguridad o empresas (https://xnet.maadix.org/nextcloud/index.php/s/GTCjZ4a5A6b5pG9).
2 – Anuncios online (comerciales o políticos) y sistemas de recomendación (Adtech and recommender systems)
La privacidad debe garantizarse desde el diseño y por defecto, sin publicidad personalizada por defecto. El uso de datos personales debe estar desactivado de forma predeterminada. Solo debe permitirse la recepción opcional de anuncios personalizados con datos proporcionados voluntariamente por la o el usuario con su consentimiento explícito libremente otorgado (sin el uso de dark patterns y otras prácticas) y no masivo (opt-in).
Ello conllevaría eliminar el rastreo por parte de terceros y perfilado.
La regulación NO debe diferir entre online y offline.
Por otra parte, cada vez hay más pruebas de que la forma en que funcionan los sistemas de recomendación propiedad de las plataformas tienen grandes consecuencias en la polarización del debate. En este sentido, se deben regular además de permitir que sean generados externamente a las plataformas. Las y los usuarios deben poder elegir entre diferentes sistemas, incluidos los creados por, por ejemplo, organizaciones ONGs o especialistas en diversas temáticas.
3 – Transparencia e interoperabilidad y no priorización de productos
Debe haber transparencia en cómo se generan los algoritmos de recomendación y de priorización además de transparencia en quién financia los anuncios online (y offline).
Las configuraciones y contenidos deben poderse cancelar y portar a otras plataformas.
Se debe impedir la consolidación de silos de datos en favor de la usabilidad de los datos para el interés general.
La interoperabilidad debe ser la norma: plataformas, sistemas operativos, incluso antenas (ver enmienda 57). Además, la interoperabilidad y transparencia deben aplicarse para que las y los usuarios puedan calibrar sus propios filtros o administrar el contenido.
Apoyamos las posiciones de algunos países que abogan para que los productos y programas no puedan venir por defecto priorizados (FR), como por ejemplo la preinstalación de apps en sistemas operativos (NL) y no limitarse a permitir la desinstalación como indica el texto legislativo hasta ahora.
4 – Entidad de control europea independiente
Frente a la propuesta de crear entidades nacionales de control o de reciclar las de protección de datos a tal fin, apoyamos las posturas como las de algunos países (IE) que indican que las Autoridades de Protección de Datos nacionales de momento tienen todavía muchos problemas de lentitud y falta de proactividad por cómo han sido diseñadas. Es preferible una entidad supranacional bien regulada que permita evitar los sesgos nacionales, las puertas giratorias y la corrupción además de poder aplicar criterios más neutrales.
5 – Otros
– Medidas anti-SLAPPs por las graves asimetrías de defensa que pueden haber y que pueden socavar la libertad de expresión.
– Impedir las interferencias en comunicaciones interpersonales: no deben aplicarse las mismas normas a lo que se comunica públicamente vía redes sociales que a lo que se comunica en la intimidad de los servicios de mensajería.
Para más informaciones ver – Como coalición escribimos al Euro Parlamento sobre el respeto de los derechos humanos en el DSA package.
https://www.accessnow.org/cms/assets/uploads/2021/09/DSA_Joint_Letter_MEPs.pdf