Ciberdiligencia debida: ¿una actualización necesaria para el Derecho Internacional del ciberespacio?
Fuente: Real Instituto Elcano.-
El problema de la atribución de la responsabilidad internacional a ciberatacantes respaldados por Estados sigue sin una solución eficaz. Se sugiere que el estándar de la “ciberdiligencia debida” podría ser una posible respuesta.
Si ya es difícil atribuir técnicamente un ciberataque a un grupo de ciberatacantes que opere en el territorio de otro Estado, no es más fácil atribuírselo jurídicamente debido a la regulación internacional aplicable al ciberespacio. Por ello, este ARI estudia las dificultades que existen para atribuir un ciberataque según los instrumentos del Derecho Internacional disponibles en la actualidad. Sugiere, entonces, recurrir al estándar de la “ciberdiligencia debida”, que conllevaría para todo Estado la obligación de prevenir, mediante actividades de monitoreo, posibles ciberamenazas provenientes de grupos privados radicados en el territorio de un Estado.
En una sociedad internacional cada vez más sometida a la economía digital no sorprende que aumenten los problemas de ciberseguridad. Los ciberataques tienen objetivos muy dispares y provienen de entidades heterogéneas, ya sean actores estatales o internos. Entre ellos, los que perpetran los actores-Estado y los grupos de actores no estatales respaldados por Estados representan una de las principales ciberamenazas en la comunidad internacional. Estos utilizan el ciberespacio para realizar, junto con actividades ya clásicas de ciberguerra, ciberespionaje y sabotaje, también operaciones de influencia en la opinión pública entre los nacionales de otros Estados mediante la desinformación.
Pese a que la casuística en estos ámbitos ya sea muy amplia, el Derecho Internacional aún no cuenta con una regulación internacional obligatoria que permita resolver las dificultades jurídicas que nacen de estos tipos de ciberamenazas.
LEER ARTÍCULO COMPLETO
Leer másMitad de la jornada en casa y mitad en la oficina, la apuesta post-pandemia de un tercio de los empresarios
Fuente: elderecho.com.-
Un 36% de los directivos de las grandes empresas españolas y un 34% de las pymes apuestan por un futuro post-pandemia en el que el empleado divida su jornada entre la oficina y su domicilio, según un estudio de Vodafone.
Otra opción con mucho peso es la de trabajar solo algunos días desde casa y otros en la oficina, un futuro que suena plausible para el 72% de los directivos de grandes empresas y el 61% de los directivos de pymes.
En cuanto al conjunto de la población, un estudio de Actiu publicado esta semana indica que el 81% de los españoles apuesta por un modelo híbrido que combine la oficina y el hogar. Además, un 62,3%, de hecho, prefiere esta fórmula mixta, frente a quienes prefieren el modelo prepandemia (21,3%) o solo teletrabajar (7,8%).
MICROPYMES Y SECTOR SERVICIOS, ABOCADOS AL PRESENCIAL
Sin embargo, los planes del empleo a distancia no son aplicables a todos los sectores: solo el 18% de las microempresas continuará trabajando a distancia durante la pandemia, una cifra muy similar al 14% que ya teletrabajaba antes de la irrupción del coronavirus.
La cifra disminuye drásticamente en algunos sectores como el de los hoteles y restauración, ya que solo el 4% de los representantes en el estudio creen que tendrá algo de continuidad el trabajo a distancia.
En sectores como el comercio minorista y la logística y el transporte, menos del 10% de los microempresarios apostaría por esta modalidad.
LA ADMINISTRACIÓN SE TRANSFORMA
La Administración Pública fue, entre los segmentos identificados en el estudio de Vodafone, el área en el que mayor propensión a optar por el teletrabajo ha traído la pandemia.
Antes del confinamiento, solo se teletrabaja en el 18% de la Administración, una cifra solo ligeramente superior a las microempresas y muy por debajo de pymes y grandes empresas, mientras que el 55% de los directivos espera teletrabajar cuando termine la pandemia.
No obstante, existen grandes diferencias según qué rama de la Administración conteste a la pregunta, ya que mientras que apenas un tercio de los gestores de la administración central (32%) apuesta por el teletrabajo, en los gobiernos autonómicos esta cifra asciende al 82%.
Asimismo, el 79% de los gestores apuesta por trabajar únicamente unos días a la semana a distancia, mientras que el 27% considera adecuado trabajar a tiempo completo y el 26% parte de la jornada.
De hecho, los mandos de la Administración consultados tienen a la digitalización como la principal preocupación (7,8), solo por detrás de la pandemia y la economía.
Leer másBruselas quiere prohibir «sistemas de identificación biométrica remota en espacios públicos» en su regulación de la inteligencia artificial
Fuente: elDiario.es. –
La Comisión Europea ha presentado su propuesta de regulación de la Inteligencia Artificial en Europa.
La Comisión Europea ha propuesto este miércoles nuevas normas para regular la inteligencia artificial en la UE. ¿El propósito, según Bruselas? «Garantizar la seguridad y los derechos fundamentales de las personas y las empresas». Bruselas pretende abordar «los riesgos específicos que plantean los sistemas de inteligencia artificial y establecer el estándar más alto en todo el mundo».
Las nuevas, una vez aprobadas tras las negociaciones con los gobiernos y el Parlamento Europeo, se aplicarán de la misma forma en todos los Estados miembros de la UE.
Para Bruselas, «los sistemas de inteligencia artificial identificados como de alto riesgo incluyen la tecnología» utilizada en: infraestructuras críticas (por ejemplo, transporte), que podrían poner en riesgo la vida y la salud de los ciudadanos; formación educativa o vocacional, que puede determinar el acceso a la educación y el curso profesional de la vida de alguien (por ejemplo, calificación de exámenes); componentes de seguridad de los productos (por ejemplo, aplicación de la inteligencia artificial en cirugía asistida por robot); empleo, gestión de trabajadores y acceso al trabajo por cuenta propia (por ejemplo, software de clasificación de CV para los procedimientos de contratación); servicios públicos y privados esenciales (por ejemplo, calificación crediticia que niega a los ciudadanos la oportunidad de obtener un préstamo); aplicación de la ley que pueda interferir con los derechos fundamentales de las personas (por ejemplo, evaluación de la confiabilidad de las pruebas); gestión de migración, asilo y control de fronteras (por ejemplo, verificación de la autenticidad de los documentos de viaje); administración de justicia y procesos democráticos (por ejemplo, aplicar la ley a un conjunto concreto de hechos).
De acuerdo con la propuesta de Bruselas, «los sistemas de inteligencia artificial de alto riesgo estarán sujetos a estrictas obligaciones antes de que puedan comercializarse».
«En particular», dice la Comisión Europea, «todos los sistemas de identificación biométrica remota se consideran de alto riesgo y están sujetos a requisitos estrictos. Su uso en espacios de acceso público en directo está prohibido en principio. Las excepciones limitadas están estrictamente definidas y reguladas (por ejemplo, cuando sea estrictamente necesario para buscar un niño desaparecido, para prevenir una amenaza terrorista específica e inminente o para detectar, localizar, identificar o enjuiciar a un perpetrador o sospechoso de un delito grave). Dicho uso está sujeto a la autorización de un órgano judicial u otro organismo independiente y a los límites adecuados en el tiempo, el alcance geográfico y las bases de datos buscadas».
La Comisión Europea considera «riesgo limitado» a los «sistemas de inteligencia artificial con obligaciones específicas de transparencia». Es decir, «cuando se utilizan sistemas de inteligencia artificial como chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina para que puedan tomar una decisión informada para continuar o dar un paso atrás».
El «riesgo mínimo» se refiere a la propuesta legal que «permite el uso gratuito de aplicaciones como videojuegos habilitados para inteligencia artificial o filtros de spam».
«La gran mayoría de los sistemas de inteligencia artificial entran en esta categoría», reconoce Bruselas: «El proyecto de reglamento no interviene aquí, ya que estos sistemas representan solo un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos».
En términos de gobernanza, la Comisión Europea propone que las autoridades nacionales competentes de vigilancia del mercado supervisen las nuevas normas. Al tiempo, «la creación de una Junta Europea de Inteligencia Artificial facilitará su implementación e impulsará el desarrollo de estándares para la inteligencia artificial. Además, se proponen códigos de conducta voluntarios para la IA que no es de alto riesgo, así como entornos de prueba regulatorios para facilitar la innovación responsable».
Leer más