Bruselas quiere prohibir «sistemas de identificación biométrica remota en espacios públicos» en su regulación de la inteligencia artificial
Fuente: elDiario.es. –
La Comisión Europea ha presentado su propuesta de regulación de la Inteligencia Artificial en Europa.
La Comisión Europea ha propuesto este miércoles nuevas normas para regular la inteligencia artificial en la UE. ¿El propósito, según Bruselas? «Garantizar la seguridad y los derechos fundamentales de las personas y las empresas». Bruselas pretende abordar «los riesgos específicos que plantean los sistemas de inteligencia artificial y establecer el estándar más alto en todo el mundo».
Las nuevas, una vez aprobadas tras las negociaciones con los gobiernos y el Parlamento Europeo, se aplicarán de la misma forma en todos los Estados miembros de la UE.
Para Bruselas, «los sistemas de inteligencia artificial identificados como de alto riesgo incluyen la tecnología» utilizada en: infraestructuras críticas (por ejemplo, transporte), que podrían poner en riesgo la vida y la salud de los ciudadanos; formación educativa o vocacional, que puede determinar el acceso a la educación y el curso profesional de la vida de alguien (por ejemplo, calificación de exámenes); componentes de seguridad de los productos (por ejemplo, aplicación de la inteligencia artificial en cirugía asistida por robot); empleo, gestión de trabajadores y acceso al trabajo por cuenta propia (por ejemplo, software de clasificación de CV para los procedimientos de contratación); servicios públicos y privados esenciales (por ejemplo, calificación crediticia que niega a los ciudadanos la oportunidad de obtener un préstamo); aplicación de la ley que pueda interferir con los derechos fundamentales de las personas (por ejemplo, evaluación de la confiabilidad de las pruebas); gestión de migración, asilo y control de fronteras (por ejemplo, verificación de la autenticidad de los documentos de viaje); administración de justicia y procesos democráticos (por ejemplo, aplicar la ley a un conjunto concreto de hechos).
De acuerdo con la propuesta de Bruselas, «los sistemas de inteligencia artificial de alto riesgo estarán sujetos a estrictas obligaciones antes de que puedan comercializarse».
«En particular», dice la Comisión Europea, «todos los sistemas de identificación biométrica remota se consideran de alto riesgo y están sujetos a requisitos estrictos. Su uso en espacios de acceso público en directo está prohibido en principio. Las excepciones limitadas están estrictamente definidas y reguladas (por ejemplo, cuando sea estrictamente necesario para buscar un niño desaparecido, para prevenir una amenaza terrorista específica e inminente o para detectar, localizar, identificar o enjuiciar a un perpetrador o sospechoso de un delito grave). Dicho uso está sujeto a la autorización de un órgano judicial u otro organismo independiente y a los límites adecuados en el tiempo, el alcance geográfico y las bases de datos buscadas».
La Comisión Europea considera «riesgo limitado» a los «sistemas de inteligencia artificial con obligaciones específicas de transparencia». Es decir, «cuando se utilizan sistemas de inteligencia artificial como chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina para que puedan tomar una decisión informada para continuar o dar un paso atrás».
El «riesgo mínimo» se refiere a la propuesta legal que «permite el uso gratuito de aplicaciones como videojuegos habilitados para inteligencia artificial o filtros de spam».
«La gran mayoría de los sistemas de inteligencia artificial entran en esta categoría», reconoce Bruselas: «El proyecto de reglamento no interviene aquí, ya que estos sistemas representan solo un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos».
En términos de gobernanza, la Comisión Europea propone que las autoridades nacionales competentes de vigilancia del mercado supervisen las nuevas normas. Al tiempo, «la creación de una Junta Europea de Inteligencia Artificial facilitará su implementación e impulsará el desarrollo de estándares para la inteligencia artificial. Además, se proponen códigos de conducta voluntarios para la IA que no es de alto riesgo, así como entornos de prueba regulatorios para facilitar la innovación responsable».