España, segundo país del mundo con más ofertas laborales en ciberseguridad
Fuente: Escudo Digital.-
El mercado de la ciberseguridad es uno de los más dinámicos en 2024. Y especialmente en nuestro país, donde la demanda de profesionales especializados no deja de incrementarse. Según los datos recopilados por LinkedIN, España es el segundo país en el mundo donde más han aumentado las ofertas de empleo en el último año.
Por países, sólo México ha registrado mayor incremento en vacantes en el último año, un 6,8% frente al 5,5% de España. Ambos están a mucha distancia del resto de mercados con evolución positiva, como India (2,6%), Países Bajos (2,07%), Australia (1,07%), Alemania (1,03%) y Reino Unido (0,2%).
Pero no en todos los países crece la demanda. EE. UU. ofrece un 5,4% menos de empleos en ciberseguridad que hace un año, mientras que en Singapur (-4,9%) y en Francia (-4,5%) también se ofrecen menos plazas en este campo. Mirando con perspectiva trianual, los mayores aumentos en el número de vacantes se han producido en Brasil y Alemania, que ofrecen ahora un 11% de puestos más que en 2021.
Margen para crecer en España
Leer másLa utilización de la geolocalización como mecanismo de control empresarial de los procesos de baja por incapacidad temporal
Fuente: Tu Asesor Laboral.-
La geolocalización del trabajador constituye una medida de control empresarial a través de la cual podrá éste conocer la posición exacta de los empleados en cada momento. Es decir, de lo que estamos hablando es que el empresario, vía GPS puede localizar por medio de vehículos, relojes inteligentes, tablets y teléfonos móviles a sus trabajadores.
Este mecanismo de control resulta ser más habitual en comerciales, empresas de transporte y de reparto de mercancías, por lo tanto, en aquellas actividades en donde los trabajadores deban desplazarse para poder prestar sus servicios. No obstante, también se ha empleado el mecanismo de la geolocalización en los casos en los que el trabajador está de baja por incapacidad temporal, pues se sospecha sobre el uso “diligente” y “abusivo” de los procesos por incapacidad temporal.
Leer másReglamento de Inteligencia Artificial: resumen
Fuente: Comisión Europea.-
El 1 de agosto de 2024 entró en vigor el Reglamento Europeo de Inteligencia Artificial. El Reglamento tiene por objeto fomentar el desarrollo y la implantación responsables de la inteligencia artificial en la UE.
Propuesto por la Comisión en abril de 2021 y aprobado por el Parlamento Europeo y el Consejo en diciembre de 2023, el Reglamento de Inteligencia Artificial aborda los posibles riesgos para la salud, la seguridad y los derechos fundamentales de los ciudadanos. Proporciona a los desarrolladores e implementadores, requisitos y obligaciones claros en relación con usos específicos de la IA, reduciendo al mismo tiempo las cargas administrativas y financieras para las empresas.
Ámbito de aplicación: Se aplica a cualquier proveedor o usuario de sistemas de IA en la UE, independientemente de su ubicación, lo que incluye empresas fuera de la UE si comercializan sus productos dentro del mercado europeo.C
Categorías de riesgo: El reglamento clasifica los sistemas de IA en función del riesgo que representan, desde riesgos mínimos hasta «alto riesgo», estableciendo requisitos más estrictos para estos últimos en cuanto a evaluaciones de seguridad y supervisión humana.
Protección de los derechos fundamentales: Busca minimizar el impacto negativo de la IA en los derechos fundamentales, estableciendo obligaciones claras en torno a la transparencia, la supervisión humana y la protección de la privacidad.
Fomento de la innovación: El reglamento ofrece apoyo a las pequeñas y medianas empresas (pymes), incentivando la creación y desarrollo de nuevas tecnologías de IA bajo un marco legal seguro y predecible.
Sanciones y cumplimiento: Se establecen sanciones estrictas para quienes no cumplan con los requisitos, incluidas multas significativas para los desarrolladores y proveedores de IA de alto riesgo.
El Reglamento de Inteligencia Artificial introduce un marco uniforme en todos los países de la UE, basado en una definición prospectiva de la IA y un enfoque basado en el riesgo:
- Riesgo mínimo: la mayoría de los sistemas de IA, como los filtros de correo no deseado y los videojuegos basados en la IA, no están sujetos a ninguna obligación en virtud del Reglamento de Inteligencia Artificial, pero las empresas pueden adoptar voluntariamente códigos de conducta adicionales.
- Riesgo específico de transparencia: los sistemas como los chatbots deben informar claramente a los usuarios de que están interactuando con una máquina, mientras que determinados contenidos generados por IA deben etiquetarse como tales.
- Riesgo alto: los sistemas de IA de alto riesgo, como los softwares médicos basados en IA o los sistemas de IA utilizados para la contratación, deben cumplir requisitos estrictos, incluidos sistemas de reducción del riesgo, conjuntos de datos de alta calidad, información clara para el usuario, supervisión humana, etc.
- Riesgo inadmisible: por ejemplo, los sistemas de IA que permiten la «puntuación ciudadana» por parte de gobiernos o empresas se consideran una clara amenaza para los derechos fundamentales de las personas y, por tanto, están prohibidos.
Las disposiciones relativas a los modelos de inteligencia artificial de uso general entrarán en vigor en 12 meses. La Comisión espera finalizar el Código de Buenas Prácticas a más tardar en abril de 2025. Además, las observaciones de la consulta también servirán de base para el trabajo de la Oficina Europea de Inteligencia Artificial, que supervisará la aplicación y el cumplimiento de las normas del Reglamento de Inteligencia Artificial relativas a los modelos de inteligencia artificial de uso general.
Esta regulación posiciona a la UE como un líder en la regulación ética y segura de la inteligencia artificial, fomentando la confianza del consumidor y garantizando una competencia justa en el mercado.
Leer más