Ley Europea de IA para la protección de datos

La Ley Europea de Inteligencia Artificial

La Inteligencia Artificial (IA) ha asumido un papel central en la transformación digital de diversos sectores, desde la industria hasta la atención sanitaria y las finanzas. La rápida evolución de esta tecnología ha generado la necesidad de regulación debido a sus implicaciones éticas y delicadas, como la capacidad de tomar decisiones y aprender autonomamente.

Ahora bien, aunque IA presenta oportunidades para el desarrollo tecnológico, también está siendo utilizada por hackers y para llevar a cabo acciones ilegales, incluso manipular la opinión pública, transformando la esfera de la desinformación y desafiando la confianza en la información en línea.

Es crucial, por lo tanto, que las plataformas sociales y los gobiernos trabajen juntos para promover la transparencia y la rendición de cuentas, siendo la Ley Europea de IA un paso importante en esa dirección.

De hecho, el principal objetivo de esta normativa es fortalecer la confianza de los gobiernos hacia la IA y controlar su impacto en la sociedad, empresas y ciudadanos, protegiendo los derechos fundamentales de estos últimos mientras se impulsa el desarrollo tecnológico.

Los objetivos de la normativa

Tras la Conferencia sobre el Futuro de Europa, la UE ha aprobado una legislación para regular el uso de la IA, garantizando la seguridad de los consumidores y promoviendo la innovación, con excepciones para las fuerzas del orden en situaciones específicas.

El objetivo no es bloquear la innovación, sino asegurar que los sistemas de IA sean seguros, transparentes y respetuosos con los derechos humanos.

La AI Act impone restricciones a los casos de uso de inteligencia artificial que suponen un alto riesgo para los derechos fundamentales de las personas, como la sanidad y la educación, por ejemplo. También están prohibidos algunos usos que se consideran que plantean un “riesgo inaceptable”.

Se trata de casos de uso bastante extraños y ambiguos, como los sistemas de Inteligencia Artificial que emplean “técnicas subliminales, manipuladoras o engañosas para distorsionar el comportamiento y comprometer la toma de decisiones informadas” o explotar a personas vulnerables.

La Ley de IA también prohíbe los sistemas que infieren características sensibles como las opiniones políticas o la orientación sexual de una persona, y el uso de software de reconocimiento facial en tiempo real en lugares públicos. También se prohibirá la creación de bases de datos de reconocimiento facial mediante raspado de información, como en el caso de Clearview AI.

Cabe destacar que estipular dicha ley ha sido una tarea muy compleja. De hecho, las normas que regulan el uso de las tecnologías deben proteger la privacidad y la seguridad de los ciudadanos, pero – a la vez – sin limitar por ello las posibilidades de experimentar con las aplicaciones.

De todas formas, el reglamento está en proceso de verificación final y se espera que entre en vigor dentro de 24 meses después de su publicación en el Diario Oficial de la UE.

Elementos clave del IA Act

¿Por qué es tan importante?

El año pasado se ha visto un fuerte aumento en las herramientas de Inteligencia Artificial que pueden crear imágenes realistas, imitar audio de voz y escribir texto persuasivo, gracias al lanzamiento masivo en el mercado de productos como OpenAI. Por eso, si es verdad que la Inteligencia Artificial presenta ofrece numerosas ventajas en diversos campos, como – por ejemplo – la atención médica, mejorando el diagnóstico y tratando miles de enfermedades, también es verdad que representa riesgos y desafíos.


De hecho, el AI Act regula el uso de tecnologías comunes como ChatGPT y Google Gemini, exigiendo que todo contenido generado por estas herramientas, incluidas noticias reales y fake news, esté marcado y reconocible. Se establece un umbral de potencia de cálculo para sistemas con mayor impacto y se exigen normas estrictas de seguridad de la información, ciberseguridad y transparencia en el uso de datos para garantizar la aprobación de estas tecnologías por parte de la UE.

Pero, ¿por qué se ha llegado a esto?

Básicamente porque las consecuencias de la IA descontrolada son mucho más peligrosas de lo que creemos.

De hecho, entre los casos más llamativos del último año se encuentran la divulgación de una imagen generada por IA que muestra escenarios falsos a nivel global. Por ejemplo, se han difundido vídeos manipulados de personajes políticos, lo que representa una grave amenaza para la estabilidad y la seguridad del Estado.

Otro ejemplo puede ser la difusión de imágenes modificadas de personajes famosos aparentemente desnudos, o, incluso, la divulgación de vídeos que utilizan rostros de niños.


Sin embargo, poco a poco, para combatir el uso inadecuado de estos contenidos multimedia, se están desarrollando varios algoritmos basados ​​en el aprendizaje profundo que, gracias a la disponibilidad de conjuntos de datos de vídeo con rostros manipulados, aprenden de forma independiente a reconocer nuevas imágenes alteradas. No obstante, esto no es suficiente, con lo cual es importante aplicar normativas, como la Ley Europea de IA, que prevén sanciones y definen las obligaciones por el uso.

Conclusiones

Como hemos podido entender a lo largo del artículo, la Inteligencia Artificial es una herramienta extremadamente poderosa para el mundo actual y puede ser útil para el desarrollo humano y social. Sin embargo, a tanto poder corresponde mucho riesgo, con lo cual, la Union Europea ha decidido adoptar una normativa para reglamentar el uso de la IA.

De hecho, en el reglamento votado el pasado 13 de marzo, se establecen todos los puntos clave para que la Inteligencia Artificial sea utilizada con transparencia, seguridad y ética.

En definitiva, también cabe destacar que la continua evolución de la tecnología, el diálogo constante y la colaboración entre las partes interesadas (stakeholders) serán esenciales para garantizar que los marcos regulatorios puedan ser eficaces, así como el espíritu de iniciativa a la hora de configurar el futuro de la IA sin provocar ninguna brecha de carácter tecnológico que, considerando el sector en discusión, también podría tener fuertes repercusiones sobre la protección y los derechos humanos.