Skip to main content


La ley de Inteligencia Artificial no estará en pleno efecto hasta el año 2026. Sin embargo, los usuarios de servicios digitales no están dispuestos a esperar; los consumidores exigen la protección de datos y los profesionales buscan confiabilidad en las herramientas, reclamando su derecho al «Digital Trust».

En conmemoración del Día Europeo de la Protección de Datos, que se celebra el 28 de enero, Paradigma Digital, una empresa tecnológica española, ha examinado la situación actual y los desafíos que enfrenta la protección de datos. Destacan el desafío de salvaguardar los datos de la inteligencia artificial generativa, reconociendo su importancia en la sociedad y la economía, a pesar de la reciente aprobación ágil de la legislación, la cual no entrará en vigor hasta dentro de dos años.

La implementación de la nueva ley europea de Inteligencia Artificial se realizará por etapas, culminando en el pleno cumplimiento en 2026. Aunque representa un avance significativo, los usuarios demandan protección y seguridad, ejerciendo su derecho al «Digital Trust». Carmen Troncoso, Delegada de Protección de Datos en Paradigma Digital, señala que las personas y las empresas necesitan confiar en la seguridad y confiabilidad de la inteligencia artificial generativa y los servicios digitales que utilizan diariamente. Destaca la importancia de desarrollar un ecosistema de confianza mediante un marco jurídico que garantice la fiabilidad de la inteligencia artificial, alineándola con los valores de la Unión Europea.

La ley contempla prohibiciones específicas en relación con la protección de datos personales, considerándolos riesgos inasumibles. Entre ellas se prohíben calificaciones sociales basadas en inteligencia artificial por parte de autoridades públicas y sistemas que evalúan la fiabilidad de las personas en función de su comportamiento social. También se prohíbe el uso de sistemas de identificación biométrica remota en tiempo real en espacios públicos para aplicación de la ley, con excepciones limitadas.

El enfoque de riesgos en la legislación destaca la necesidad de que los sistemas de alto riesgo cumplan con requisitos legales en áreas como datos, gobernanza, documentación, transparencia, vigilancia humana, solidez, precisión y seguridad. Empresas que trabajan con tratamientos de alto riesgo deben implementar sistemas de gestión de riesgos que cubran todo el ciclo de vida del sistema, garantizar transparencia y comunicación de información a los usuarios, y contar con vigilancia humana durante el uso del sistema.

Para evitar riesgos como opacidad, sesgo o autonomía parcial, y construir la confianza del usuario, las empresas de servicios digitales deben desarrollar inteligencia artificial ética y confiable. Esto incluye la corrección de posibles sesgos en la información de salida, resistencia a intentos no autorizados de alteración, y el desarrollo de una IA que no sea utilizada de manera dañina o discriminatoria. La fiabilidad también es clave, asegurando que los sistemas sean precisos y útiles en su función.

Leave a Reply