Coa entrada en vigor do regulamento europeo o idioma galego vai contar cunha ferramenta legal para exixir a súa non discriminación nos servizos da intelixencia artificial
Desde acender o móbil mediante pegada dixital ou recoñecemento facial, empregar un navegador que fale e informe con todo detalle das posibilidades de ocio nun destino turístico, as recomendación dos contidos na smart tv, ata dirixir un robot nunha operación médica. Non imos descubrir agora que a evolución da intelixencia artificial (IA) é imparable. Máis si cómpre reparar nas implicacións que a primeira normativa comunitaria sobre esta materia que vén de validar o Parlamento pode ter para Galicia e, máis concretamente, para o idioma galego, que vai contar cunha ferramenta legal para exixir a súa non discriminación nos servizos da intelixencia artificial.
Pode unha complicada regulamentación europea contribuír á normalización do idioma galego? En certa medida si. Hai pouco máis dun mes a Eurocámara outorgou o seu visto e prace ao texto da primeira lei europea de intelixencia artificial. De normativa “histórica” cualificaron desde os servizos de prensa europeos a regulamentación, que busca garantir a seguridade e equidade e evitar riscos para as persoas.
Deberíase garantir que o acceso ás persoas non supón unha barreira e que poidamos interactuar nos idiomas nos que nos expresamos habitualmente
Hai moita IA que está operando e da que non somos conscientes. O profesor Alberto Bugarín, coordinador do grao en intelixencia artificial da Universidade de Santiago de Compostela, detalla que calquera dispositivo co que interactuemos por voz ou nos fale automatizadamente emprega IA. Un bo exemplo son todos os sistemas de cita previa, tanto da cita médica como de calquera outra organización. “Aí deberíase garantir que o acceso ás persoas non supón unha barreira e que poidamos interactuar nos idiomas nos que nos expresamos habitualmente. Nese sentido, utilizar o idioma galego non sempre é posible”, lamenta.
Hai proxectos en marcha para tratar de asegurar a presenza de todas as linguas en igualdade de condicións no ámbito das IA, tal e como establece a nova normativa, que non entrará en vigor antes de 2025. En Galicia, o Proxecto Nós é un caso emblemático, pero a nivel de España está o Proxecto Ilenia, no que tamén participa Nós, en colaboración con proxectos equivalentes para o catalán e o éuscaro.
“Se a normativa exixe que non haxa discriminacións sería necesario que se queremos interactuar por exemplo coa administración pública poidamos facelo en calquera dos idiomas oficiais en igualdade de condicións. Iso non sempre é posible se tecnoloxicamente non se teñen desenvolvido as ferramentas que o fan posible. Que haxa proxectos públicos que teñen este obxectivo é importante”, subliña Bugarín.
O presidente do Goberno de España, Pedro Sánchez, vén de anunciar precisamente que vai haber un impulso aos grandes modelos de lingua nos idiomas oficiais de España, en todos, non só no español. Iso é imprescindible para dalgunha maneira poder cumprir con esa norma que exixe que non haxa discriminacións.
As prácticas como o recoñecemento facial das persoas nas vías públicas para atribuírlle puntuación segundo o comportamento estarán prohibidas na UE
Desenvolver as tecnoloxías para o recoñecementos de fala ou sintetizadores de voz con calidade para que recoñezan, por exemplo, todas as variedades lingüísticas e funcionen correctamente, resulta moi caro, segundo explica o profesor Bugarín. Son procesos que precisan non só un investimento de cartos grande, senón un coñecemento técnico. Teñen que intervir especialistas en intelixencia artificial, informática e lingüística. Polo tanto “é importante que haxa normativa, e que en paralelo haxa mecanismos para facer posible que esa normativa se cumpra”, resume.
A norma, segundo os riscos
Luis Míguez Macho, catedrático de dereito administrativo na USC, explica que a nova normativa establece un enfoque desde o punto de vista dos riscos. Hai prácticas da IA que se consideran totalmente incompatibles cos dereitos das persoas e que se prohiben. “Estamos a falar de prácticas que se utilizan en países totalitarios como en China para clasificar socialmente as persoas. Todas estas prácticas como o recoñecemento facial nas vías públicas para atribuírlle puntuación segundo o comportamento estarán prohibidas na UE”, asegura o profesor Luis Míguez.
Hai outras prácticas con alto risco, pero que poden ser aceptables porque provocan máis beneficios ca danos. A estas prácticas se lles establece uns requisitos rigorosos que deben cumprir. Un sistema de avaliación previa para tratar de garantir que eses riscos non se materialicen. Sería o caso, por exemplo, dun sistema de IA para guiar un coche. “Pode ser unha cousa boa, pero ten riscos porque pode danar as persoas e ten que cumprir uns requisitos avaliados por organismos alleos ao fabricante. Os sistema de IA para guiar coches non tiñan unha normativa específica e agora si que a terán. Igual que un robot guiado por IA que faga operacións cirúrxicas. Iso é de alto risco e hai que garantir que son seguros”, detalla.
Cando se xeren textos ou imaxes con IA deberá constar que estes contidos foron xerados cunha máquina e non son naturais
Finalmente, están o resto dos sistemas de intelixencia artificial que non teñen eses riscos tan graves e non se someten a unha regulación tan forte. Déixase máis á autorregulación dos produtores. Hai unha regulación dos sistemas de uso xeral, tipo ChatGPT, que serven para múltiples usos, e que contarán cunha regulamentación específica para tratar de garantir a transparencia. É dicir, “que o usuario saiba que está interactuando cunha máquina e non cunha persoa e que cando se xeran contidos tipo textos ou imaxes manipuladas con IA que dalgunha maneira conste que ese contido foi xerado cunha máquina e non é natural”, indica o catedrático de dereito administrativo. A efectos prácticos esas imaxes ou texto artificiais deberán levar unha marca de auga ou logo onde debe constar a súa procedencia. “Hai que especificar o autor. É unha cuestión de transparencia”, argumenta Míguez.
O profesor explica que estamos ante unha lei histórica porque é a primeira vez que nun espazo económico tan amplo como é o da UE se fai unha regulación legal específica para a intelixencia artificial. “Tamén se aplica os sistemas de IA desenvolvidos fóra que se queiran aplicar no territorio comunitario, polo tanto vai ter efectos máis alá da UE”, asegura o profesor.
Desde a Universidade da Coruña, a catedrática de Ciencias da Computación e Intelixencia Artificial Amparo Alonso Betanzos, explica que a IA “é unha revolución e hai unha serie de implicacións éticas no seu manexo, basicamente porque se traballa con grandes cantidades de datos”. Isto pode traer problemas como a posible ruptura de privacidade, a posible aparición de nesgos coa conseguinte perpetuación de prexuízos, problemas de exceso de vixilancia ou a posibilidade de influencia en asuntos que ten que ver con estados de opinión, entre outros.
Todo isto fixo necesario regular a IA e xa en 2019 o Grupo de Expertos de Alto nivel en Intelixencia Artificial publicaron unhas guías éticas para unha intelixencia artificial confiable, na que se instaba, por exemplo, a necesaria revisión por parte de axentes humanos que participen no proceso, porque a decisión final nunca pode ser tomada por unha máquina; tamén apostaban por asegurar a privacidade dos datos e o acceso aos mesmos; a transparencia; ou que respecte a diversidade e non haxa discriminacións.
Os datos no mundo real xa están nesgados. Isto nas persoas é complicado de arranxar porque necesitan unha reeducación, mais nos sistemas de IA é máis fácil
Posteriormente, España ofreceuse para probar a lei e creouse a famosa oficina de supervisión da intelixencia artificial, na Coruña, para ir testando a implantación da lei que se terminou de redactar e aprobar baixo a presidencia europea da UE por parte de España. “A nova normativa proporcionará certas garantías con respecto a como se desenvolven as operacións de alto risco que deben garantir que non teñan nesgos, así como a privacidade dos nosos datos e o dereito a obter unha explicación cando nos sintamos afectados por algunha decisión que tomou un sistema de IA”, resume a catedrática. Estarán prohibidas aplicacións que teñen que ver coa cualificación social, coa vixilancia emocional no traballo ou nos estudos.
A profesora Alonso Betanzos alerta, así mesmo, sobre a necesidade de “educar” os sistemas de intelixencia artificial de forma que eviten as discriminacións de todo tipo porque pode habe nesgos non detectados. “O mundo real non é ideal e se adestras un sistema de IA así podes caer en discriminacións”, explica. Por exemplo , os sistemas de recoñecemento facial funcionan moi ben para os homes brancos e funcionan moitísimo peor para as mulleres de raza negra porque se adestraron con máis datos relativos aos primeiros. “Os datos no mundo real xa están nesgados. Isto nas persoas é complicado de arranxar porque necesitan unha reeducación, mais nos sistemas de IA é máis fácil”, afirma.