España presentó una propuesta de gobernanza de la IA para garantizar su uso “ético, inclusivo y beneficioso”

La iniciativa también busca promover la innovación. La propuesta contempla los claroscuros de la tecnología

La cuestión regulatoria en torno a innovaciones como la inteligencia artificial (IA) es uno de los temas y desafíos normativos que el mundo enfrenta en 2025, sobre todo porque las urgencias empresarias y las obligaciones de los organismos normativos no comparten siempre la misma sintonía. Por estas horas, el gobierno de España acaba de aprobar un anteproyecto que promueve el uso “ético, inclusivo y beneficioso” de la IA en el que se promete combinar “un enfoque regulador con el impulso a la innovación”.

La gobernanza de la IA, en modo español

“La IA es una herramienta muy poderosa, que puede servir para mejorar nuestras vidas o atacar a la democracia; puede tener buenos usos o malos usos. La IA puede ser utilizada para investigar el cáncer o el Alzheimer, para prevenir catástrofes naturales, para descubrir nuevos medicamentos; o puede ser usada para difundir bulos y mentiras, esparcir odio y atacar a nuestra democracia. Por eso es oportuno su buen uso y gobernanza”, dijo Óscar López, ministro para la Transformación Digital y de la Función Pública de España al momento de presentar el instrumento normativo que adaptará la legislación española al reglamento europeo de IA, ya en vigor y precisó que el enfoque que darán buscará impulsar la innovación.

Con todo, se trata de un anteproyecto que adapta a la legislación local los lineamientos establecidos en el Reglamento Europeo de IA, de diciembre de 2023 y aprobado por el Parlamento Europeo el 13 de marzo de 2024. En adelante, el anteproyecto de ley, se tramitará por la vía de urgencia y seguirá los trámites preceptivos antes de volver al Consejo de Ministros para su aprobación definitiva como proyecto de ley y envío a las Cortes para su aprobación.

Se busca que el control de esta gobernanza corra por cuenta de la Agencia Española de Protección de Datos (para sistemas biométricos y gestión de fronteras); el Consejo General del Poder Judicial (para sistemas de IA en el ámbito de la justicia), la Junta Electoral Central (para sistemas de IA que afecten a procesos democráticos) y la Agencia Española de Supervisión de la Inteligencia Artificial en el resto de los casos.

La propuesta busca evitar los riesgos que la IA puede provocar a las personas, al prohibir determinados usos maliciosos, e introduce obligaciones más rigurosas para los sistemas considerados de alto riesgo; a la par que establece requisitos mínimos de transparencia para el resto.

Inclusive, la comunicación oficial destaca que se “incorpora un nuevo derecho digital de retirada provisional del mercado español de sistemas de IA por la autoridad de vigilancia competente cuando hayan provocado un incidente grave, como el fallecimiento de una persona”.

En España hay prácticas de IA que están prohibidas. Por ejemplo, el uso de técnicas subliminales (de imágenes o de sonidos imperceptibles) que permitan manipular decisiones sin consentimiento y que causen el perjuicio de las personas (como adicciones, violencia de género o menoscabo de su autonomía); o el uso de la IA para explotar vulnerabilidades personales (de edad, de condición socioeconómica o de discapacidad) que dañen a las personas.

También está prohibida la clasificación biométrica de las personas por raza u orientación política, religiosa o sexual, o la puntuación de individuos o grupos basándose en comportamientos sociales o rasgos personales como método de selección para, por ejemplo, denegarles la concesión de subvenciones o préstamos.

Para los casos de infracción muy grave, es decir, cuando el operador de un sistema de IA no comunique un incidente grave (por provocar la muerte de una persona, dañado una infraestructura crítica o al medio ambiente, o incumplido las órdenes de una autoridad competente) se prevén sanciones que oscilan entre los 7,5 y los 35 millones de euros, o entre el dos por ciento y el siete por ciento del volumen de negocio mundial del ejercicio anterior de la empresa (si esta última cifra resultara superior, salvo en el caso de pymes, que podrá ser la menor de las dos).

Sandbox, obligaciones y apuestas

El gobierno español también recordó que se adelantó a la obligación impuesta por el reglamento europeo de crear un sandbox regulatorio para IA de cara a facilitar un entorno flexible para validación de sistemas innovadores. Si bien estaba pautada para ponerse en marcha el 2 de agosto de 2026, España adelantó esa fecha a diciembre de 2024, cuando lanzó una convocatoria para seleccionar hasta un total de 12 sistemas de IA de alto riesgo. El llamado apunta a que, durante un año, las participantes integren un entorno controlado de pruebas y cuya experiencia acumulada, y sus lecciones derivadas, permitan publicar unas guías técnicas sobre el cumplimiento de los requisitos aplicables a los sistemas de alto riesgo.

Pero no sólo eso. Hace una semana, el ministro López había anunciado una inyección de 67 millones de euros en la empresa española Multiverse Computing, con el objetivo de facilitar el crecimiento de su capacidad de comprimir modelos de IA. Inclusive, se adelantó que el Gobierno entrará como accionista de la iniciativa, a través de la Sociedad Española de Transformación Tecnológica (SETT). En el marco de ese anuncio, el funcionario había asegurado que “con esta operación, buscamos posicionar a España como referente en modelos de lenguaje de IA energéticamente eficientes, escalando el desarrollo de herramientas de compactación que comprimen modelos de lenguaje hasta en un 90 por ciento, reduciendo costos y consumo energético al tiempo que aumentamos la independencia tecnológica de España y Europa”.

IA, un desafío global

Lo cierto es que el mundo entero se enfrenta al desafío de regular la IA y, en ese esfuerzo, el reglamento europeo establecido para la IA es un modelo de gobernanza pionero y estableció diferentes niveles de riesgos y permisos, según su valoración. Sin embargo, hace algunas semanas se planteó la posibilidad de que fuera flexibilizada, en función de los requerimientos de las empresas. Con todo, y al calor del nivel de desafío que impone la IA, entidades como el Instituto Europeo de Normas de Telecomunicaciones (ETSI) creó un nuevo Comité Técnico que trabajará en la estandarización de soluciones de datos, para respaldar el desarrollo de nuevas normas industriales que estén en línea con la Ley de Datos de la Unión Europea (UE).

AI Action Summit – Francia

A la par que en Europa se dan estos pasos, en América latina y Caribe también se avanza en su abordaje práctico y normativo, y hasta en la idea de lograr la soberanía algorítmica latinoamericana.. En la Argentina y a la espera que se consensúe un marco normativo, una provincia avanzó con un reglamento para determinar los alcances y las posibilidades de los usos de la IA en la administración pública. A su lado, Chile revisa su normativa y, cerca, Colombia estrena su política nacional, al igual que Brasil.  En todos los casos, con letras inspiradas en la normativa europea.

Tu opinión es importante ¿Qué te ha parecido este contenido?

0 0
Noelia Tellez Tejada se desempeña como Editora Adjunta en TeleSemana.com. Periodista y analista, acredita más de 20 años de labor ininterrumpida en medios gráficos, digitales y radiales. Está especializada en tecnología, negocios y telecomunicaciones. Su correo es [email protected]

Recuperar contraseña

Por favor ingrese su nombre de usuario o dirección de correo electrónico. Recibirá un enlace para crear una nueva contraseña por correo electrónico.