Raúl Casado
Madrid, 15 mar (EFE).- El anteproyecto de ley de gobernanza de la Inteligencia Artificial que ha presentado el Gobierno bascula entre las garantías y la protección de los derechos digitales y una ‘hiperregulación’ que podría penalizar -o no- a la UE frente a países más laxos en el desarrollo de estas tecnologías, según el análisis que han realizado para EFE algunos especialistas.
Son expertos en derecho tecnológico y protección de datos y de la información, que han examinado las virtudes que a su juicio tiene el primer borrador (anteproyecto) presentado por el Ejecutivo para adaptar la legislación española al Reglamento Europeo de IA, pero también algunas de sus lagunas.
El Gobierno pretende asegurar con este anteproyecto -en línea con el Reglamento Europeo- un uso ético, inclusivo y beneficioso de la IA y asegurar que los usuarios puedan diferenciar los contenidos reales de los virtuales, aunque los expertos han observado que, a diferencia de las directivas, los reglamentos europeos no requieren una trasposición y son de aplicación directa desde su entrada en vigor.
Frente a quienes alertan de la ‘hiperregulación’ que se impone en Europa y de que podría pesar sobre la competitividad y el desarrollo de la IA, algunos expertos, y entre ellos el nuevo presidente de la Agencia Española de Protección de Datos, el catedrático de Derecho Constitucional Lorenzo Cotino, han advertido que lo preocupante es que en otros países no se regule una tecnología que tiene mucho que ver con la educación, la sanidad, los procesos de selección, el control de fronteras o la protección de los datos personales.
La Ley establecerá numerosas prohibiciones y obligaciones, entre ellas la de etiquetar los contenidos que se generan mediante inteligencia artificial, y restricciones muy rigurosas para aquellos sistemas basados en esta tecnología y que están catalogados como ‘de alto riesgo’.
Prohíbe por ejemplo usar técnicas subliminales (como imágenes o sonidos) para manipular decisiones sin consentimiento; explotar vulnerabilidades relacionadas con la edad, la discapacidad o la situación socioeconómica (como aprovechar la adición al juego para estimular la entrada en plataformas de juego online); la clasificación biométrica de las personas por raza, orientación política, religiosa o sexual; o analizar el riesgo de que una persona cometa un delito basándose en datos personales como su historial familiar, nivel educativo o lugar de residencia.
El anteproyecto diferencia entre sanciones leves, graves y muy graves, y fijará multas que pueden alcanzar hasta 35 millones de euros o el 7 por ciento de volumen de facturación de la empresa responsable de hacer un uso indebido de esta tecnología.
¿Quién vigila a los que nos vigilan?
El profesor universitario y experto en derecho tecnológico Borja Adsuara ha observado que las prácticas prohibidas en el Reglamento Europeo son ya aplicables desde el 2 de febrero y que cada Estado debe aprobar antes del 2 de agosto un régimen sancionador, pero ve “muy difícil, por no decir imposible”, llegar a esa fecha dada la configuración actual de mayorías en el Congreso, por lo que España se expone a un expediente sancionador de la Comisión Europea.
Adsuara, en declaraciones a EFE, se ha preguntado si el anteproyecto prevé sancionar las prácticas prohibidas con IA que realicen las administraciones públicas y ha opinado que sería “muy grave” que no fuera así. “¿Quién vigila a los que nos vigilan?, ha planteado, y ha opinado que si no prevé sanciones a las administraciones “no será una ley garantista con los derechos de los ciudadanos, sino que nos pareceremos a China o a otros gobiernos autoritarios que utilizan la IA como herramienta de control de los ciudadanos”.
A su juicio, “los malos van a poder seguir haciendo un mal uso de la IA y a los buenos se les ponen demasiados obstáculos o trámites administrativos” y ha manifestado que en el mundo compiten no sólo las empresas, también los bloques y los marcos regulatorios, y en ese sentido ha asegurado que Estados Unidos, “y más con la administración Trump-Musk”, y China, “con su poca preocupación por los derechos fundamentales”, llevan ventaja en este ámbito a la UE, “porque tendemos a la hiperrregulación administrativa”.
Normas europeas que acaban convertidas en estándares globales
José Manuel Valiente, responsable del área jurídica de la empresa Secure&IT, ha valorado que Europa sea pionera en la regulación de la IA y que España se sitúe a la cabeza en su cumplimiento con este anteproyecto, ha opinado que el texto será suficientemente garantista para las personas sólo si las autoridades con competencias en supervisión y sanción tienen recursos suficientes, y ha observado que se trata de una regulación “incipiente y compleja” de una tecnología que está todavía dando sus primeros pasos.
En un primer análisis para la Agencia EFE, Valiente se ha referido a los usos beneficiosos o maliciosos que se puede hacer de la IA y aunque ha observado que el Reglamento Europeo protege a todas las personas que radiquen en la UE frente a todos los proveedores de esos sistemas -se encuentren o no en Europa-, ha advertido de la complejidad de perseguir a personas o empresas que actúan desde fuera “debido a la dependencia de la cooperación de países que no siempre están dispuestos a colaborar”.
Las personas que realizan actividades ilegítimas a través de internet, y en este caso usando sistemas de IA que vulneran la normativa europea, aplican técnicas que dificultan enormemente la posibilidad de identificación por parte de las autoridades, según Juan Manuel Valiente, y ha destacado el reto que eso supone para la UE.
Aunque a su juicio una estricta y excesiva regulación podría tener a priori connotaciones negativas, se ha mostrado convencido de que eso ayuda a una innovación sostenible y responsable, dota de mayor seguridad a las personas y podría poner en valor los sistemas de IA desarrollados por proveedores de la UE, y ha recordado que Europa ha sido históricamente un líder en la regulación tecnológica “y una gran parte de esa normativa acaba convirtiéndose en un estándar global”.