La UE avanza en la regulación de la inteligencia artificial para asegurar derechos y fomentar innovación

Última actualización:
Autor:
  • La Ley regula el uso de IA en función de su nivel de riesgo, con categorías de riesgo inaceptable y alto riesgo.
  • Se prohíben aplicaciones como la categorización biométrica y la vigilancia policial predictiva sin autorización judicial.
  • Sistemas de IA de alto riesgo deben ser evaluados, tener supervisión humana y cumplir requisitos de transparencia.
  • Se prevén sanciones económicas significativas para quienes incumplan la normativa.

La Unión Europea (UE) continúa liderando la regulación de la inteligencia artificial (IA), estableciendo un marco normativo sin precedentes que busca garantizar los derechos de los ciudadanos y, al mismo tiempo, fomentar la innovación. La nueva ley, que entró en vigor oficialmente el 1 de agosto de 2024, pone a Europa a la cabeza mundial en la creación de legislación destinada a controlar el desarrollo y la implementación de esta tecnología.

Con la entrada en vigor de la normativa, la UE ha dejado clara su intención de limitar el uso y la comercialización de aplicaciones de IA que puedan vulnerar derechos fundamentales, como el de la privacidad y la protección de datos. Así, la legislación introduce regulaciones estrictas que varían según el nivel de riesgo que conlleve cada sistema de IA, ofreciendo un marco estable que permitirá el crecimiento de la tecnología de manera responsable y controlada.

Prohibiciones clave para proteger a la ciudadanía

Entre los primeros aspectos que aborda la ley se encuentran las aplicaciones prohibidas de IA, aquellas que representan un riesgo inaceptable para la sociedad. Se prohíbe rotundamente el uso de tecnologías que impliquen categorización biométrica a través de parámetros sensibles como orientación sexual, creencias religiosas o políticas, así como el uso indiscriminado de la IA para crear bases de datos de reconocimiento facial obtenidas de imágenes de internet o CCTV.

Ley sobre IA en Europa

Además, se prohíbe el uso de sistemas de IA que puedan manipular el comportamiento humano o explotar las vulnerabilidades de las personas, así como el reconocimiento de emociones en el lugar de trabajo y en las escuelas. Todas estas prohibiciones responden a la necesidad de proteger a la población de los posibles abusos tecnológicos. No obstante, la normativa establece excepciones en situaciones muy concretas, como la búsqueda de personas desaparecidas o la prevención de ataques terroristas, donde las fuerzas de seguridad podrán contar con sistemas de identificación biométrica, siempre bajo autorización judicial previa.

  Amazon se prepara para revolucionar la inteligencia artificial con su modelo Olympus

Sistemas de alto riesgo: regulación y transparencia

Otro foco esencial de la normativa son los sistemas de IA clasificados como de alto riesgo. Estos engloban aplicaciones utilizadas en sectores críticos como la educación, las infraestructuras esenciales, el empleo, la migración o la justicia. Los sistemas que puedan influir en la solvencia económica de los ciudadanos o en la selección de candidatos laborales también se incluyen en esta categoría.

Los proveedores de estos sistemas tendrán que someterse a estrictas evaluaciones de riesgos y garantizar que cuentan con la supervisión de una entidad humana. Asimismo, deberán mantener registros detallados de su uso y proporcionar información clara a los ciudadanos cuando una decisión importante en su vida esté mediada por IA.

Norma IA en Europa

Además, las empresas deberán garantizar que sus sistemas de IA sean transparentes y precisos, lo que implica que deberán informar sobre el tipo de datos empleados en el entrenamiento de los modelos, así como realizar revisiones periódicas para detectar posibles sesgos o errores.

Sistemas de propósito general y sus riesgos

La normativa también abarca los llamados sistemas de IA de propósito general, que aunque no disponen de un uso específico inicial, pueden ser ajustados para cumplir con diversas tareas, algunas de ellas consideradas de alto riesgo. Un ejemplo claro son las plataformas de IA generativa como ChatGPT o Gemini, cuyas aplicaciones van mucho más allá de lo inicialmente previsto.

Estos sistemas de propósito general deberán cumplir con requisitos similares a los de los sistemas de alto riesgo, puesto que sus aplicaciones pueden tener repercusiones importantes en aspectos críticos de la sociedad. Además, la ley insta a que estos sistemas sean revisados constantemente para detectar posibles amenazas como el uso inapropiado de la IA para ciberataques o la interferencia en infraestructuras clave.

Multas y sanciones para quienes incumplan la ley

La normativa establece multas significativas para aquellos que incumplan las normas establecidas, con sanciones que oscilan entre los 35 millones de euros o el 7% del volumen global de negocio de las empresas en casos graves, y 7,5 millones de euros o el 1,5% del volumen de ingresos en casos menos graves.

  ¡ChatGPT en Mac! Aprende a conectar la IA con tus apps favoritas

Sanciones Ley IA

Esta línea dura en términos de sanciones responde, según los legisladores, a la necesidad de crear un entorno tecnológico donde se respeten los derechos y libertades fundamentales de las personas. Las autoridades de la UE estarán encargadas de supervisar el cumplimiento de esta ley, y se creará una nueva Oficina de IA que ayudará a las empresas a ajustarse a las normativas antes de que estas entren en plena vigencia.

Plazos para la aplicación completa de la ley

El Reglamento de la IA de la UE será aplicado de manera progresiva. Aunque ya está en vigor, se ha establecido que algunas de las medidas no entrarán en completa aplicación hasta dentro de dos años. No obstante, las prohibiciones de las prácticas más relevantes se implementarán en los próximos seis meses, mientras que para los sistemas de alto riesgo, las obligaciones empezarán a regir 36 meses después de la entrada en vigor de la norma.

Plazos Reglamento IA

Esta ley marca un hito para la UE, que no solo pretende garantizar la ética en el uso de IA, sino también impulsar la competitividad europea en este campo, estableciendo un estándar que otros mercados puedan seguir. De esta manera, Europa se posiciona como un referente global en la regulación de tecnologías emergentes, con un enfoque centrado en la protección de los derechos y libertades de los ciudadanos, sin frenar la innovación.

Deja un comentario