Reglamento de Inteligencia Artificial: resumen
Fuente: Comisión Europea.-
El 1 de agosto de 2024 entró en vigor el Reglamento Europeo de Inteligencia Artificial. El Reglamento tiene por objeto fomentar el desarrollo y la implantación responsables de la inteligencia artificial en la UE.
Propuesto por la Comisión en abril de 2021 y aprobado por el Parlamento Europeo y el Consejo en diciembre de 2023, el Reglamento de Inteligencia Artificial aborda los posibles riesgos para la salud, la seguridad y los derechos fundamentales de los ciudadanos. Proporciona a los desarrolladores e implementadores, requisitos y obligaciones claros en relación con usos específicos de la IA, reduciendo al mismo tiempo las cargas administrativas y financieras para las empresas.
Ámbito de aplicación: Se aplica a cualquier proveedor o usuario de sistemas de IA en la UE, independientemente de su ubicación, lo que incluye empresas fuera de la UE si comercializan sus productos dentro del mercado europeo.C
Categorías de riesgo: El reglamento clasifica los sistemas de IA en función del riesgo que representan, desde riesgos mínimos hasta «alto riesgo», estableciendo requisitos más estrictos para estos últimos en cuanto a evaluaciones de seguridad y supervisión humana.
Protección de los derechos fundamentales: Busca minimizar el impacto negativo de la IA en los derechos fundamentales, estableciendo obligaciones claras en torno a la transparencia, la supervisión humana y la protección de la privacidad.
Fomento de la innovación: El reglamento ofrece apoyo a las pequeñas y medianas empresas (pymes), incentivando la creación y desarrollo de nuevas tecnologías de IA bajo un marco legal seguro y predecible.
Sanciones y cumplimiento: Se establecen sanciones estrictas para quienes no cumplan con los requisitos, incluidas multas significativas para los desarrolladores y proveedores de IA de alto riesgo.
El Reglamento de Inteligencia Artificial introduce un marco uniforme en todos los países de la UE, basado en una definición prospectiva de la IA y un enfoque basado en el riesgo:
- Riesgo mínimo: la mayoría de los sistemas de IA, como los filtros de correo no deseado y los videojuegos basados en la IA, no están sujetos a ninguna obligación en virtud del Reglamento de Inteligencia Artificial, pero las empresas pueden adoptar voluntariamente códigos de conducta adicionales.
- Riesgo específico de transparencia: los sistemas como los chatbots deben informar claramente a los usuarios de que están interactuando con una máquina, mientras que determinados contenidos generados por IA deben etiquetarse como tales.
- Riesgo alto: los sistemas de IA de alto riesgo, como los softwares médicos basados en IA o los sistemas de IA utilizados para la contratación, deben cumplir requisitos estrictos, incluidos sistemas de reducción del riesgo, conjuntos de datos de alta calidad, información clara para el usuario, supervisión humana, etc.
- Riesgo inadmisible: por ejemplo, los sistemas de IA que permiten la «puntuación ciudadana» por parte de gobiernos o empresas se consideran una clara amenaza para los derechos fundamentales de las personas y, por tanto, están prohibidos.
Las disposiciones relativas a los modelos de inteligencia artificial de uso general entrarán en vigor en 12 meses. La Comisión espera finalizar el Código de Buenas Prácticas a más tardar en abril de 2025. Además, las observaciones de la consulta también servirán de base para el trabajo de la Oficina Europea de Inteligencia Artificial, que supervisará la aplicación y el cumplimiento de las normas del Reglamento de Inteligencia Artificial relativas a los modelos de inteligencia artificial de uso general.
Esta regulación posiciona a la UE como un líder en la regulación ética y segura de la inteligencia artificial, fomentando la confianza del consumidor y garantizando una competencia justa en el mercado.