La UE quiere fijar normas relativas a la inteligencia artificial

El desarrollo continuo de la inteligencia artificial trae consigo diversas ventajas, pero no está exento de riesgos. Por este motivo, la UE quiere minimizarlos por medio del reglamento de IA que se aprobó en el Parlamento en marzo de 2024. Asimismo, con este acto jurídico también se pretende fomentar las grandes oportunidades económicas que ofrece la IA.

El Parlamento de la UE y los Estados miembros ya habían acordado un borrador en diciembre de 2023 y, ahora, el pleno ha dado luz verde a su aplicación. De esta forma, todas las disposiciones de la ley deberían aplicarse plenamente en 2026.

En la ley se dispone que, en el futuro, los sistemas de IA se clasifiquen en diferentes grupos según su riesgo. Cuanto mayor sea el riesgo potencial de uso indebido o más crítica sea la infraestructura en la que se utilice la IA, mayores deberán ser las restricciones para la aplicación de ese sistema de IA en cuestión.

Los sistemas de IA pertenecientes al grupo de mayor riesgo están expresamente prohibidos, mientras que la segunda categoría de mayor riesgo abarca las aplicaciones que entrañan un «potencial de daño significativo» para la democracia, la salud o la seguridad, por ejemplo. Para aplicar estos sistemas se han previsto diversas restricciones, así como mecanismos de reclamación para las personas afectadas. Las aplicaciones de IA como los ya consolidados chatbots, por su parte, están sometidas únicamente a una regulación poco estricta.
 

Qué aplicaciones de IA quedarán prohibidas en la UE en el futuro

Uno de los sistemas de IA prohibidos específicamente para las empresas es el de reconocimiento de las emociones en el lugar de trabajo. Sin esta restricción, las empresas podrían detectar las emociones de las personas candidatas a un puesto durante las entrevistas de trabajo o las evaluaciones.
Del mismo modo, las aplicaciones de IA no pueden clasificar a las personas por su color de piel, su religión o su orientación sexual. Y también está prohibido el social scoring o evaluación social, un sistema que utiliza la IA como método de reconocimiento facial en tiempo real en los espacios públicos. China, por ejemplo, utiliza esta tecnología para vigilar el comportamiento de su ciudadanía. El reconocimiento facial biométrico en espacios públicos está igualmente prohibido de forma generalizada. Sin embargo, hay excepciones cuando se persigue algún delito grave, por ejemplo, si la policía quiere evitar un atentado o está buscando víctimas de trata de seres humanos. Además, las autoridades también pueden utilizar sistemas de IA para el reconocimiento facial de personas en lugares públicos cuando exista una orden judicial que lo autorice.

En el futuro, las empresas que no cumplan la normativa podrán ser sancionadas con multas de hasta 35 millones de euros o el 7 % de su facturación mundial, según la infracción y el tamaño de la empresa.
 


Requisitos para los chatbots de IA

Los chatbots de IA como ChatGPT no se clasifican como críticos en la ley de IA, pero deben cumplir los requisitos de transparencia, además de la legislación de la UE en materia de derechos de autor. Así, entre otras cosas, los usuarios deben revelar que el contenido se ha generado por IA. Esto no solo se aplica a los textos, sino también a las imágenes y a los archivos de audio y vídeo. Del mismo modo, deben hacerse públicos los datos protegidos por derechos de autor que se utilicen para entrenar a la IA.
 

Cómo se pretende apoyar la innovación con esta ley

La ley también está destinada, en particular, a ayudar a las pymes y a las nuevas empresas a desarrollar y entrenar modelos de IA. Con este fin, las autoridades nacionales tendrán en el futuro la obligación de poner a disposición de las empresas un entorno de pruebas (laboratorios vivos) que simule condiciones realistas.
 

Las empresas son conscientes de la amenaza que supone la IA

Aunque la mayoría de las empresas se muestran abiertas a la inteligencia artificial y ya han integrado este tipo de aplicaciones en sus procesos de trabajo, también son muy conscientes de los riesgos que entraña. Según una encuesta llevada a cabo por Canva a principios de año con más de más de 1369 directores de tecnologías de la información (CIO), el 96 % de los CIO en España aumentará el gasto en herramientas de IA en 2024. Sin embargo, del mismo modo cabe destacar que dos tercios de ellos (el 67 %) también comparten la preocupación por la complejidad y los riesgos de seguridad que pueden derivarse del uso de estas herramientas.