Dous dos cerebros da lei dixital da UE explican por que X ou TikTok van ter máis difícil enganarnos

Alberto Pena Fernández © CEDIDA

O obxectivo co que aterrou o pasado 25 de outubro a nova Lei de Servizos Dixitais da UE era moi ambicioso: "Queremos acabar co chamado salvaxe Oeste dixital". Así a describiu en 2022 o comisario de Mercado Interior, Thierry Breton, para resumir unha directiva que impón dende medidas para pór freo ao contido ilícito e a desinformación, pasando por mellorar a moderación ou até a esixencia de máis transparencia dos algoritmos e os sistemas de recomendación das tecnolóxicas. Polo de agora, só está en vigor en 19 plataformas con relevancia sistemática e responsabilidades especiais, entre as que se atopan Google, Meta -matriz de Facebook ou Instagram-, TikTok, X -antes Twitter-, ou Amazon.

Agora, cando fan os primeiros dous meses en vigor desta nova directiva que estará plenamente operativa en febreiro de 2024, infoLibre entrevistou dous dos cerebros españois detrás da Lei de Servizos Dixitais. Nunha videochamada a tres, o galego Alberto Pena Fernández, xefe de Unidade do Centro Europeo para a Transparencia Algorítmica, atende desde a súa sede en Sevilla a este xornal. El coordina unha trintena de investigadores que controlan que as plataformas cumpran o estipulado na nova normativa. Desde Bruxelas, conéctase Irene Roche Laguna, xefa de unidade adxunta da UE da coordinación e cumprimento da DSA. Ela liderou o equipo legal que negociou a normativa e agora traslada unha petición ao Goberno español: "Cada país ten que nomear un coordinador de servizos dixitais, pero no caso de España están a facerse de rogar".

De todos os cambios que implica a nova Lei de Servizos Dixitais, que son moitos e que ademais chegan da man da Lei de Mercados Dixitais, cal é o que máis afecta o usuario no seu día a día?

"Como usuario, ademais de todos os riscos que contempla o uso de servizos dixitais, unha das partes máis importante é que se fai cos datos, como funcionan os sistemas de recomendación, que é o que propoñen e por que o propoñen"

Alberto Pena Fernández: É unha pregunta complicada. Como usuario, ademais de todos os riscos que contempla o uso de servizos dixitais, unha das partes máis importante é que se fai cos datos, como funcionan os sistemas de recomendación, que é o que propoñen e por que o propoñen. Por exemplo, fáloche do meu fillo, que usa as redes sociais a diario. A cantidade de información a que está sometido é inxente e, moitas veces, a información que recibe primeiro non ten nada que ver co que el pide ou está no bordo do que consideraría legal ou ético.

Irene Roche Laguna: Desde o punto de vista do negociador, cando estabamos a negociar, a principal liña non era necesariamente evitar que haxa contido malo nas redes, porque non é unha directiva que regule que é bo e malo, que é legal ou ilegal, xa que para iso hai leis nacionais e europeas. O que se buscaba, sobre todo, era a transparencia e darlle axencia, poder queixarse, que podamos decidir se non quero que me perfilen e optar por un sistema de recomendación que non estea baseado nestes datos. Ou que se vexo contido que considero que é ilegal poida reportalo. Ollo, isto non quere dicir que o contido que eu notifique teña que desaparecer: somos usuarios, non xuíces. E un terceiro elemento que é o deber de dilixencia: que as plataformas teñan que deseñar os seus servizos, os seus algoritmos ou a forma en que presentan o contido tendo en conta o usuario e non necesariamente pensando só en facer diñeiro.

Conferencia de Irene Roche Laguna © iCLIC

Durante estes primeiros meses, as plataformas estiveron facendo pequenos cambios. Instagram ou TikTok incorporaron modificacións no seu algoritmo, mentres que X engadiu a posibilidade de denunciar contido ilegal na UE. Son suficientes estas modificacións?

"Cando estabamos a negociar, a principal liña non era necesariamente evitar que haxa contido malo nas redes, porque non é unha directiva que regule que é bo e malo, que é legal ou ilegal, xa que para iso hai leis nacionais e europeas"

I.R.L: Desde o meu punto de vista, son un primeiro paso. Pero non podemos dicir que xa está, cumprido e pasamos ao seguinte. Deron algúns primeiros bos pasos, pero outros quedan á metade. Ademais, recoñecémoslles que estiveron preparándose en moi pouco tempo, porque é verdade que o regulamento foi adoptado de forma moi rápida e o prazo que tiveron foi pouco. Quedan cousas por facer e tamén quedan obrigas que teñen que esperar porque necesitan ao regulador nacional. 

A.P. F: Non hai que esquecer que esta lei é case a primeira da súa clase, tanto como lexislación, coa parte de posta en implementación, como na parte na que se lles esixe ás plataformas que cumpran cunha serie de requisitos, que antes eran case voluntarios. Estamos nos dous lados adaptándonos e hai que ter en conta que antes de correr hai que comezar a camiñar.

I.R.L: Iso si, a realidade vai máis rápido e é o que estivemos vendo estas últimas semanas co conflito de Gaza. Estamos a falar con eles e hai que ver como se adaptan se hai un conflito, se hai unha crise ou se de súpeto pasa algo. As plataformas teñen que reaccionar, temos que ver que capacidade teñen de adaptación a este tipo de cousas.

Sobre o que está a suceder en Gaza, publicouse que desde Bruxelas se pediu a Meta e TikTok que expliquen as medidas contra a difusión de bulos e violencia e advertiuse a X pola difusión sen control de desinformación, é este conflito a primeira gran proba de lume para a Lei de Servizos Dixitais?

"Basicamente, o que se busca é a transparencia. Primeiro, quero saber que é o que está a ocorrer dentro e quero ter a oportunidade de decidir que información me aparece ou non. E segundo, saber que está a facer ese algoritmo para que esa información me chegue a min, e esa é a parte que nós analizamos"

A.P.F: A resposta inmediata é que non é a súa primeira proba de lume. Con respecto á desinformación, houbo xa algunhas eleccións e estivéronse mirando outros temas. No caso concreto do terrorismo, agora saltou á primeira plana, e é normal que esteamos todos un pouco máis atentos, pero é algo que se estaba mirando xa desde hai algún tempo 

Tras esta advertencia a X, filtrouse que Elon Musk estaría a barallar a opción de eliminar Twitter da UE para non ter que cumprir a lei, aínda que el o desmentiu. Que valoración facedes desta ameaza?I. R. L: Un provedor de servizos é libre de prover servizos en Europa. Se non queren prover servizos, é a súa decisión. E é unha decisión económica, máis que política ou legal.

Outra das novidades son os requisitos de transparencia, o que se chamou "abrir a caixa negra dos algoritmos". Que implica abrir esta caixa?

A.P.F: Basicamente, o que se busca é a transparencia. Primeiro, quero saber que é o que está a ocorrer dentro e quero ter a oportunidade de decidir que información me aparece ou non. E segundo, saber que está a facer ese algoritmo para que esa información me chegue a min, e esa é a parte que nós analizamos. A empresa dinos que o algoritmo fai isto e debe presentar esta información, e nós vemos se é verdade. Deberían ter elementos que filtren esa información e que non chegue ao usuario final? Teñen que demostrarnos como o fan. Iso é abrir a caixa negra: saber o que pasa.

Iconas de redes sociais instaladas nun dispositivo © pxfuel

Por que é importante falar desta transparencia algorítmica?

"O que queremos evitar é esta barra libre: que as plataformas fagan o que lles dea a real gana coa información e me presenten o que queiran por intereses de negocio"

A.P.F: Ao final, o que a lei está a dicir é que se non sabemos como funcionan os algoritmos por dentro, pero si sabemos que os resultados non son os que queremos, necesitamos pór orde. O que queremos evitar é esta barra libre: que as plataformas fagan o que lles dea a real gana coa información e me presenten o que queiran por intereses de negocio.

I.R.L: Durante os últimos 10-15 anos, estivemos indo contra o contido ilegal. Pero ir contra este contido é unha tarefa ardua e traballosa porque volve dunha maneira ou outra. É un pouco como o mito da caverna: ti estás só indo contra as sombras pero non estás a ver o que se produce detrás. Ao dar transparencia algorítmica vaise á orixe da amplificación da desinformación e da diseminación do contido falso. Por que un bulo voa máis rápido que unha noticia? Ese é o tipo de cuestións que queremos responder. 

Ademais, abrir a caixa negra é todo un fito, pero necesitas xente que saiba interpretala. A min, se me poñen diante dunha caixa negra dun avión, non sei que é o que teño que buscar. Por iso, o Centro Europeo para a Transparencia Algorítmica ten un rol moi importante a xogar porque necesitamos xente que saiba entender, que saiba falar de ti a ti cos enxeñeiros das grandes plataformas para identificar como están organizados eses algoritmos e como se pode facer un algoritmo que sexa acorde coa lei.

Por que é tan necesario este Centro Europeo para a Transparencia Algorítmica (ECAT, polas súas siglas en inglés)?

A.P.F: Aquí temos unha serie de enxeñeiros ou de especialistas en determinadas materias que son capaces de interpretar o que fai un algoritmo por dentro, dar recomendacións ou facer unha análise para que os lexisladores poidan analizar esa información desde o punto de vista máis legal. Nós pasámoslles a información técnica filtrada para que se poida condensar, e tamén a interpretamos: dixerímola, procesámola, analizámola e preparámola. E propomos vías posibles a seguir. Ademais, nós interaccionamos coas comunidades científicas. Porque, ao final, isto é un problema global, non europeo.

Que perfís traballan nun Centro para a Transparencia Algorítmica?

A.P.F: Temos postos vacantes e publicámolos regularmente. Hai enxeñeiros de moitos tipos, desde análises de datos até informáticos, pero tamén temos unha psicóloga, xente de comunicación e perfís legais. Temos un compendio, o que chaman multidisciplinar aplícase case ao 100%. Tentamos cubrir a maioría das cousas, porque nos algoritmos hai unha parte que non é tanto de enxeñaría senón de comprensión de como funciona.

E quen vixía aos que vixían?

A.P.F: A pregunta do millón! A lei está para algo: aplico a lei, interprétoa, dou uns resultados, pásoos e é entón cando a lexislación se aplica. E despois hai mecanismos que din se esta lexislación é válida ou non. O Parlamento Europeo, o Consello, os cidadáns ou a prensa son algúns dos que nos van a vixiar e vannos pedir contas. Estamos ultra vixiados, ultra controlados e temos que render contas regularmente.

Un grupo de adolescentes usan os seus móbiles © Santi Alvite/USC

Ademais da transparencia que busca esta directiva, outra das ferramentas de seguimento da lei son as auditorías que van ter que pasar as diferentes plataformas. Por que son necesarias?

"Non é só a Comisión a que ten que soportar o peso do control e a supervisión, son as propias plataformas as que teñen que asegurarse de que cumpren coa lei e necesitan unha auditoría independente que lles diga que cumpren coa lei"

A.P.F: Facemos moitas análises e moita recompilación de información, pero a auditoría é un proceso moito máis formal no que se seguen unha serie de pasos dentro dun tempo marcado. É case un procedemento legal.

I.R.L: Non é só a Comisión a que ten que soportar o peso do control e a supervisión, son as propias plataformas as que teñen que asegurarse de que cumpren coa lei e necesitan unha auditoría independente que lles diga que cumpren coa lei. Por exemplo, moitas veces din que asinaron o código de conduta contra o discurso de incitación ao odio pero despois non se sabe que é o que están a facer. Agora, un auditor independente terá que mirar que é o que fixeron para cumprir e darán o seu propio punto de vista sobre se están próximos ao cumprimento ou non.

A Lei de Servizos Dixitais xa está parcialmente en vigor. A seguinte data marcada en vermello é o momento no que as plataformas teñen que presentar un informe de transparencia. Que podemos esperar deste novo paso no cumprimento da lei?

I.R.L: A miña pregunta é se o usuario, o cidadán do común, estará interesado. Porque nos van a encher de información: téñennos que informar sobre todo o contido que moderan ou que eliminan, vannos dicir con cantos moderadores contan e cal é o seu nivel de coñecemento ou cales son as linguas que protexen mellor. Todo este tipo de información teremos que aprender a atopala porque agora mesmo esperamos uns informes de transparencia bastante abafadores onde van facer un exercicio de relacións públicas de 'somos boísimos e mira todo o que facemos'. Pero teremos que separar o po da palla e obter a información que nos vai ser útil para os próximos pasos. 

Cando todo o regulamento entre en vigor en febreiro do 2024, xunto coa Lei de Mercados Dixitais, que cambios van notar os usuarios? Acabouse o 'Salvaxe Oeste dixital', como dixo o comisario Breton en 2022?

"As plataformas pornográficas tamén terán que cumprir coa lei e iso significa que terán que protexer os menores e establecer medidas de verificación de idade para evitar que, se eles din que non son accesibles a menores, demostrar o que están a facer e as medidas que están a tomar para evitar que os menores teñan acceso. Ese é un campo onde esperamos un cambio radical"

I.R.L: Pois iso esperamos. Pero necesitamos o traballo en común dos Estados membros. Cada país nomeou un coordinador de servizos dixitais, pero no caso de España están a facerse de rogar. Tamén é verdade que, coa situación política e as eleccións, as cousas quedaron unhas pouco paradas. Pero é sanguento e é algo que España ten que facer: nomear unha autoridade independente, un regulador igual que existe no sector audiovisual, das telecomunicacións, de competencia ou de protección de datos. Os reguladores nacionais, igual que pasa en telecomunicacións, permitirán emitir unha queixa. Iso vai permitir que o usuario sexa máis consciente dos seus dereitos. 

Outro elemento que esperamos que suceda en febreiro é que non só as 19 plataformas estean sometidas á directiva, tamén o estarán servizos como Wallapop, Menéame ou Idealista, plataformas que son campioas nacionais e que terán que cumprir coa lei. As plataformas pornográficas tamén terán que cumprir coa lei e iso significa que terán que protexer os menores e establecer medidas de verificación de idade para evitar que, se eles din que non son accesibles a menores, demostrar o que están a facer e as medidas que están a tomar para evitar que os menores teñan acceso. Ese é un campo onde esperamos un cambio radical. 

A.P.F: A nivel de usuario, algunhas das plataformas máis coñecidas cambiaron algúns dos Termos de Uso e puxeron algún que outro filtro distinto. Van tomando medidas pouquiño a pouco e iso vaise vendo. Non digo que solucionaran todos os problemas ou que controlaran todos os riscos, pero vexo que hai movementos nesa dirección.

Grazas ás socias e socios editamos un xornal plural

As socias e socios de Praza.gal son esenciais para editarmos cada día un xornal plural. Dende moi pouco a túa achega económica pode axudarnos a soster e ampliar a nosa redacción e, así, a contarmos máis, mellor e sen cancelas.