"Momento histórico", dijo el secretario de Estado de Digitalización de Bélgica, Mathieu Michel, cuyo país ostenta este semestre la presidencia rotatoria de la Unión Europea.
En noviembre quedarán ya prohibidos los sistemas de inteligencia artificial de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual.
Tampoco se podrán utilizar los sistemas que puntúan a las personas en función de su comportamiento o características personales ni la inteligencia artificial capaz de manipular el comportamiento humano.
También estarán prohibidos, entre otros, los sistemas para expandir o crear bases de datos faciales captados de manera indiscriminada a través de internet o de grabaciones audiovisuales.
No obstante, la normativa permite excepciones, de tal forma que las fuerzas de seguridad sí podrán utilizar las cámaras de identificación biométrica, siempre con autorización judicial, para prevenir una amenaza terrorista a punto de producirse.
Este fue uno de los puntos más polémicos durante las negociaciones entre el Parlamento Europeo y los Estados miembros, que argumentaron la necesidad de permitir ciertos usos para garantizar la seguridad nacional. Así, estos sistemas se podrán usar también para localizar a los responsables de delitos de terrorismo, tráfico de personas, explotación sexual, así como para buscar a las víctimas.
Dentro de un año, entrarán en vigor los criterios de transparencia que deberán cumplir los sistemas de inteligencia artificial generativa, otro de los principales puntos de discusión, en pleno auge de programas como ChatGPT.
Estos modelos tendrán que dejar claro si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.
En líneas generales, el reglamento permite o prohíbe el uso de la inteligencia artificial en función del riesgo que genera para las personas e identifica sistemas de alto riesgo que solo se podrán utilizar si se demuestra que respetan los derechos fundamentales.
Por ejemplo, los que se puedan utilizar para influir en el resultado de unas elecciones, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia.
Para quienes incumplan la normativa se prevén multas con un rango que va desde los 35 millones de euros (37.6 millones de dólares) o el 7 % del volumen global de negocio de las empresas, hasta los 7.5 millones de euros (8 millones de dólares) o el 1.5 % del volumen global de negocio. EFE