La legislación europea pretende lograr un difícil equilibrio, entre el compromiso de salvaguardar los derechos fundamentales y el fomento de la innovación. El nuevo marco jurídico clasifica los sistemas de IA según sus niveles de riesgo, desde mínimo hasta inaceptable, imponiendo requisitos más estrictos para las aplicaciones de alto riesgo.
El reglamento establece criterios para la clasificación de los sistemas de IA basados en el riesgo que representan para las empresas y la sociedad, imponiendo sanciones a las prácticas que comprometan derechos más amplios. Algunas prácticas y usos de la IA estarán totalmente prohibidos, como la manipulación cognitiva conductual y el uso de sistemas de reconocimiento facial indiscriminado.
La nueva legislación, por tanto, sitúa en el centro la protección de los derechos fundamentales, asegurando que cualquier nuevo sistema de IA sea evaluado en cuanto a su impacto antes de ser introducido en el mercado. Los sistemas de IA generativa, como ChatGPT, deberán cumplir con criterios de transparencia y garantizar el respeto a los derechos de autor con los datos utilizados para su funcionamiento.
La iniciativa legislativa de la UE no es solo un asunto regional; aspira a establecer un precedente para el mundo y proyectar el “efecto Bruselas”. Al establecer directrices claras y límites éticos, la UE desafía a otras grandes potencias a considerar sus propios enfoques para la regulación de la IA. Este movimiento pretende inspirar un marco global armonizado, esencial para gestionar la naturaleza sin fronteras de las tecnologías digitales.
La UE es la primera en tomar la delantera al establecer normas vinculantes para la tecnología de IA de rápida evolución. Aunque muchos países y organismos internacionales, desde la OCDE hasta el G7, han pasado los últimos años reflexionando sobre cómo regular la IA, la mayoría se ha limitado a establecer directrices voluntarias.
El nuevo proyecto prosigue su…