Skip to main content

La normativa tiene como objetivo controlar y garantizar la seguridad de los sistemas de inteligencia artificial, así como respetar los derechos fundamentales de los usuarios tanto en el sector público como en el privado.

Hace unos días, la Unión Europea logró un acuerdo histórico para establecer las primeras reglas que limitan los riesgos de la inteligencia artificial. Después de un intenso debate, centrado en la vigilancia biométrica y la regulación de los modelos fundacionales, los eurodiputados aprobaron la normativa. Este acuerdo se ha estado gestando desde el año 2021, cuando se presentó el borrador, y tras varios debates y enmiendas, se ha alcanzado un consenso.

La ley no entrará en vigor antes de 2026 y busca controlar que estos sistemas sean seguros y respeten los derechos fundamentales de los usuarios en ambos sectores, público y privado. Pero, ¿cómo afectará esta normativa a las organizaciones?

Aspectos clave en la ley de inteligencia artificial

Esta ley es pionera a nivel mundial y se pretende que establezca un estándar a nivel global, de manera similar al Reglamento General de Protección de Datos. Con el objetivo de explicar cómo afecta esta nueva normativa a las empresas, los expertos de Evolutio, una compañía española especializada en integración de servicios tecnológicos, han elaborado 5 puntos que explican cómo impactará en las organizaciones:

  1. Etiquetas de peligrosidad para cada IA. La Unión Europea ha establecido un método de etiquetas de peligrosidad para clasificar el riesgo de diferentes sistemas de inteligencia artificial, dividiéndolos en inaceptables, de alto riesgo, específicos de transparencia y de riesgo mínimo o inexistente.
  2. Prohibiciones. Se limitará el uso de sistemas de identificación biométrica en espacios públicos por parte de las autoridades policiales para proteger los derechos de privacidad de los ciudadanos. Solo se permitirá en usos específicos y bajo condiciones determinadas y delitos graves.
  3. Propiedad Intelectual. La normativa establecerá requisitos de transparencia, imponiendo la obligación de que tanto las máquinas como sus usuarios operen conforme a la legislación de derechos de autor de la Unión Europea. Además, se exigirá la publicación de resúmenes explicativos del contenido utilizado para entrenar a la inteligencia artificial junto con la obra correspondiente.
  4. Modelos genéricos de inteligencia artificial. Para las inteligencias artificiales de propósito general, como ChatGPT y Bard, la Unión Europea ha implementado normativas específicas para mejorar la transparencia y seguridad en su aplicación.
  5. Sanciones. Para garantizar el cumplimiento de esta legislación, se introducen sanciones que van desde los 7,5 millones de euros o el 1,5% anual de la facturación de la empresa, hasta situaciones particulares en las que las multas podrían alcanzar los 35 millones de euros o el 7% del volumen de negocio.