El viernes 12 de julio de 2024 fue publicado el Reglamento Europeo de Inteligencia Artificial, que entró en vigor el 1 de agosto de 2024, a los 20 días de su publicación en el Diario Oficial de la Unión Europea, y aplicable a partir del 2 de agosto de 2026. Empresas proveedoras, clientes, ciudadanos y en general responsables de investigación, desarrollo y puesta en producción de sistemas de inteligencia artificial, todas las personas en general, se van a ver afectadas por esta tecnología disruptiva, que es la Inteligencia Artificial, y que queda regulada bajo el precitado Reglamento europeo.

En cualquier caso, serán de aplicación los siguientes capítulos en las siguientes fechas:

  • Capítulos I y II, serán de aplicación a partir del 2 de febrero de 2025,
  • Capítulo III, sección 4; capítulo V y capítulo XII y el artículo 78, serán de aplicación a partir del 2 de agosto de 2025, con las siguientes excepciones:
  • Artículo 101 y artículo 6 apartado 1, así como las obligaciones del presente Reglamente, que serán de aplicación a partir del 2 de agosto de 2027.

El Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial establece, como todo Reglamente europeo, normas armonizadas para potenciar el mercado interior a través de un marco jurídico uniforme para el desarrollo, comercialización y puesta en servicio y utilización de sistemas de Inteligencia Artificial, con el fin de proteger los derechos de los ciudadanos europeos a la vez que potenciar la investigación, desarrollo y uso de dichos sistemas.

Con tal fin, este Reglamento establece también prohibiciones de determinadas prácticas de Inteligencia Artificial, así como requisitos específicos para los sistemas de Inteligencia Artificial de alto riesgo, y obligaciones para los investigadores, desarrolladores y comercializadores de productos que incorporen tecnología de Inteligencia Artificial, a través de normas armonizadas en Europa.

Publicado el Reglamento europeo de Inteligencia Artificial, éste será de aplicación a:

  • Proveedores de sistemas de inteligencia artificial, con independencia de si están establecidos en la Unión o en terceros países,
  • Responsables de despliegue de sistemas de Inteligencia Artificial, establecidos en la Unión Europea,
  • Proveedores y responsables de despliegue de sistemas de Inteligencia Artificial establecidos en terceros países, cuando los resultados de dichos sistemas de Inteligencia Artificial se utilicen en la Unión Europea,
  • Fabricantes de productos que introduzcan o pongan en servicio sistemas de Inteligencia Artificial,
  • Importadores y distribuidores de sistemas de Inteligencia Artificial,
  • Representantes autorizados de proveedores que no estén establecidos en la Unión Europea,
  • personas usuarias de sistemas de Inteligencia Artificial que puedan ser afectadas por dichos sistemas, y que estén ubicadas en la Unión Europea.

No es de aplicación este Reglamento a:

  • Los ámbitos que queden fuera del ámbito de aplicación del Derecho de la Unión Europea,
  • las materias relativas a la seguridad nacional de Estados miembros,
  • Autoridades públicas de terceros Estados u organizaciones internacionales que estén bajo el ámbito de aplicación del Reglamento cuando utilicen sistemas de Inteligencia Artificial en el marco de acuerdos o de cooperación internacional con fines de garantía del cumplimiento del Derecho y cooperación judicial con la Unión Europea o con uno o varios Estados miembros, bajo la premisa de que se ofrezcan garantías de protección de derechos y libertades fundamentales de las personas usuarias o que puedan ser afectadas por los resultados de dichos sistemas.

La lista de prácticas prohibidas y la excepción al uso de herramientas biométricas en espacios públicos en tiempo real

Publicado el Reglamento europeo de Inteligencia Artificial, éste define los sistemas de Inteligencia Artificial en base a los siguientes factores:

  • máquina diseñada para operar con diferentes niveles de autonomía,
  • muestra capacidad de adaptación tras su despliegue,
  • infiere resultados a partir de información de entrada, en forma de predicciones, contenidos, recomendaciones o decisiones que pueden influir en su entorno

Dado el peligro que la tecnología de Inteligencia Artificial puede suponer para los seres humanos, y para los ciudadanos europeos en particular, este Reglamento europeo de Inteligencia Artificial establece una lista de prohibiciones en su artículo 5, para evitar que los usos indebidos de esta tecnología deriven en prácticas de manipulación, explotación de debilidades o circunstancias especiales de las personas o control social mediante la vigilancia indiscriminada de las personas físicas.

La Inteligencia Artificial es una tecnología disruptiva que va a afectar a todas las facetas de nuestras vidas, y a nuestros derechos como ciudadanos. Los abogados del Despacho Pérez Parras Economistas y Abogados son expertos en Ingeniería y en Derecho de las Nuevas Tecnologías, e imparten clases de Derecho de la Inteligencia Artificial y Protección de Datos en la Universidad de Málaga, en un Título Propio. Visita nuestra web para conocer nuestras áreas de especialización en la compra y venta de inmuebles en Málaga y Nerja, en Extranjería y en Tributación Internacional para No Residentes, y tributación nacional (Modelo 720, Patrimonio, Grandes Fortunas, etc), y otras áreas en las que como abogados en Málaga y Nerja podemos ayudarte.

La Inteligencia Artificial es una tecnología disruptiva que va a afectar a todas las facetas de nuestras vidas, y a nuestros derechos como ciudadanos. Los abogados del Despacho Pérez Parras Economistas y Abogados son expertos en Ingeniería y en Derecho de las Nuevas Tecnologías, e imparten clases de Derecho de la Inteligencia Artificial y Protección de Datos en la Universidad de Málaga, en un Título Propio. Visita nuestra web para conocer nuestras áreas de especialización en la compra y venta de inmuebles en Málaga y Nerja, en Extranjería y en Tributación Internacional para No Residentes, y tributación nacional (Modelo 720, Patrimonio, Grandes Fortunas, etc), y otras áreas en las que como abogados en Málaga y Nerja podemos ayudarte.

La lista de prácticas prohibidas es la siguiente:

  • La introducción en el mercado, puesta en servicio o utilización de determinados sistemas de Inteligencia Artificial que se apoyen en técnicas subliminales a través de, por ejemplo, estímulos de audio, video o imágenes que no se puedan percibir, o de técnicas deliberadamente manipuladoras o engañosas  con el objetivo de alterar el comportamiento de una persona o un colectivo, mermando su capacidad de tomar decisiones informadas, generando perjuicios considerables a esas personas o colectivos.
  • Los sistemas de Inteligencia Artificial que exploten vulnerabilidades de una persona física o colectivo por su edad o discapacidad, o de una condición social o económica tal que aumente su vulnerabilidad a verse alterados sus comportamientos, o que les pueda provocar perjuicios considerables,
  • La utilización de sistemas de categorización biométrica, en base a datos tales como los rasgos faciales o las huellas dactilares de una persona física, para deducir o inferir su raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, vida sexual u orientación sexual. Se excluyen el etiquetado, filtrado y categorización lícitos de conjuntos de datos biométricos adquiridos conforme al Derecho Nacional o de la Unión.
  • La comercialización, puesta en servicio de sistemas de Inteligencia Artificial para realizar evaluaciones de riesgo de personas físicas con el fin de evaluar o predecir el riesgo de que una persona física cometa un delito basándose únicamente en la elaboración de perfiles de una persona física o en la evaluación de sus rasgos y características de personalidad. Se excluye de esta prohibición los sistemas de Inteligencia Artificial utilizados para apoyar la valoración humana de la implicación de una persona en una actividad delictiva que se base en hechos ya objetivos y verificables directamente relacionados con una actividad delictiva, cuando sea necesario para lograr un interés público esencial cuya importancia compense los riesgos, tales como la búsqueda de determinadas víctimas de un delito, incluidas personas desaparecidas, etc.
  • La comercialización, puesta en servicio o uso de sistemas de Inteligencia Artificial que creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de internet o de grabaciones y de circuitos cerrados de televisión, por la afectación al derecho a la intimidad de las personas.
  • La puesta en el mercado, en servicio o uso de sistemas de Inteligencia Artificial para inferir emociones de una persona física en los ámbitos del lugar de trabajo y las instituciones educativas, salvo que sean usados por motivos médicos o de seguridad. Se pretende en dichos contextos evitar discriminaciones.

Los sistemas de identificación biométrica remota en tiempo real en espacios de acceso público, sólo pueden utilizarse bajo condiciones restrictivas de la persona objeto de análisis, período de tiempo de análisis, ámbito geográfico y personal, debiendo ser autorizados por una autoridad judicial o administrativa independiente de un Estado miembro y cuya decisión sea vinculante. Ejemplos de uso de estos sistemas sería: búsqueda selectivade víctimas de secuestro, trata de seres humanos o explotación sexual, búsqueda de personas desaparecidas, prevención de amenazas específicas tales como atentados terroristas, etc.

Las actividades anteriormente listadas, además de estar prohibidas por el Reglamento, si generaran un daño como consecuencia de su uso, conllevaría sanciones administrativas, así como un sistema de responsabilidad objetivo, que supondría la atribución del daño a los agentes que hubieran realizado la actividad prohibida, aunque no tengan culpa o responsabilidad, pues ésta nacería del mero hecho de su uso.

La posibilidad del uso de herramientas biométricas con inteligencia artificial en tiempo real ha sido una de las cuestiones más debatidas, con la oposición del Parlamento Europeo pero, con la petición de los Estados miembro que solicitaban que dicha prohibición se aplicara con la excepción de determinadas circunstancias, tales como la búsqueda de implicados en delitos graves, contándose con autorización judicial que valore el impacto del uso de dicha medida frente a derechos fundamentales en juego. Es en este tipo de escenarios donde se hace visible la potencia y utilidad de este tipo de herramientas en aplicaciones para seguridad pública y nacional, pero en los que se pone de manifiesto la necesidad de un equilibrio entre utilidad y vulneración de derechos fundamentales de ciudadanos.

Y es que los datos biométricos pueden ser tratados de forma que produzcan resultados sesgados y tener efectos discriminatorios, en cuanto a la edad, etnia, raza, sexo o la discapacidad. Por el contrario, se excluyen como sistemas de IA de alto riesgo los destinados a la verificación biométrica, incluyendo la autenticación con el único propósito de confirmar que una persona física es quien dice ser, así como la confirmación de la identidad física de una persona para que pueda acceder a un servicio específico, o para desbloquear un dispositivo o tener acceso seguro a un local.

Clasificación de los Sistemas de Inteligencia Artificial. Publicado el Reglamento europeo de Inteligencia Artificial

Publicado el Reglamento Europeo de Inteligencia Artificial, éste clasifica los sistemas de inteligencia artificial en función del riesgo que puedan generar, y según sus usos. Para clasificar los sistemas de inteligencia artificial como de alto riesgo, se han tenido en cuenta 3 variables:

  • la finalidad del sistema en sí misma,
  • los posibles daños que puedan causar dichos sistemas de inteligencia artificial,
  • la gravedad y la probabilidad de que los daños puedan causarse.

Sin embargo, un sistema de Inteligencia Artificial puede clasificarse como de alto riesgo por el Reglamento Europeo de Inteligencia Artificial, pero el producto del que sea componente, o el propio sistema de Inteligencia Artificial como producto no ser considerado de alto riesgo por el Reglamento de Inteligencia Artificial.

Así, un sistema de Inteligencia Artificial que se clasifique como de alto riesgo, y no forme parte de productos, o sean productos en sí mismos, serán clasificados como de alto riesgo por el efecto en la salud, la seguridad o la vulneración en los derechos fundamentales de las personas que puedan causar, y en base a las 3 variables anteriormente precitadas.

 

Se establecen 3 niveles de riesgo para los sistemas de inteligencia artificial, y uno específico para los sistemas de uso general:

  • Riesgo inadmisible: aplica a un conjunto muy limitado de prácticas de Inteligencia Artificial en la Unión Europea, porque vulneran los derechos fundamentales, quedando prohibidas. Establecidas en el artículo 5 del Reglamento, se incluyen como prácticas prohibidas, por ejemplo:
    • el uso de técnicas subliminales,
    • la puntuación social con fines públicos y privados,
    • el aprovechamiento de las debilidades o vulnerabilidades de las personas,
    • la categorización biométrica de personas físicas,
    • el reconocimiento de emociones en el lugar de trabajo y en las instituciones educativas, exceptuando las finalidades médicas o de seguridad.
  • Alto riesgo: se clasifican de alto riesgo un número limitado de sistemas de inteligencia artificial, definidos en el Reglamento, y que se incluyen a su vez en dos categorías:
    • que los sistemas de Inteligencia Artificial sean productos, o componentes de seguridad de productos, que según la normativa recogida en el Anexo I tiene que ser sometidos a evaluación de conformidad de terceros con la normativa UE, antes de su comercialización o introducción en el mercado o puesta en servicio. Se incluyen en esta clasificación, entre otros: máquinas, juguetes, ascensores, productos sanitarios o vehículos a motor.
    • sistemas enumerados en el Anexo III del Reglamento, y que incluye tanto sistemas a utilizar por las Administraciones Públicas, como puede ser en el ámbito de las políticas sociales o de Extranjeríacomo en el ámbito privado, en los seguros de vida y salud, las clasificación crediticia de las personas físicas, o en la selección, promoción o despido de personal, y que tengan en general un impacto negativo potencial en la seguridad de las personas o en sus derechos fundamentales, recogidos en la Carta de los Derechos Fundamentales de la UE.

En general, se considerarán sistemas de alto riesgo los relativos a la identificación y categorización biométrica de personas físicas, la gestión y explotación de infraestructuras críticas -enumeradas en el anexo, punto 8, de la Directiva (UE) 2022/2557 del Parlamento Europeo y del Consjo de 14 de diciembre de 2022 relativa a la resiliencia de las entidades críticas, del tráfico rodado y del suministro de agua, gas, calefacción y electricidad, ya que un fallo en dichos sistemas por un componente que integre IA puede poner en peligro la vida y la salud de las personas a gran escala e impactar significativamente en el normal desarrollo de las actividades sociales y económicas-, la educación y formación profesional, el empleo, la gestión de trabajadores, la aplicación de la ley, la gestión de la migración, el asilo y el control de fronteras y la administración de justifica y los procesos democráticos.

En el ámbito educativo, los sistemas de inteligencia artificial deben catalogarse como de alto riesgo ya que, utilizados en la educación o en la formación profesional, y en particular al ser usados para el acceso o la admisión de estudiantes, o para clasificar o distribuir personas o estudiantes entre diferentes instituciones educativas y de formación profesional, o de programas formativos a todos los niveles, o para evaluar los resultados del aprendizaje de los estudiantes, o para evaluar el nivel formativo de una persona y decidir el nivel de formación que un estudiante recibirá o al que podrá acceder, o para supervisar y detectar comportamientos prohibidos de los estudiantes durante pruebas de evaluación, dichos sistemas de IA podrán decidir la trayectoria formativa y profesional de las personas, pudiendo afectar al futuro y a la subsistencia de dichas personas.

En igual sentido, los sistemas de IA pueden impactar en el ámbito laboral, de la gestión de trabajadores y del acceso al autoempleo, interviniendo en procesos de contratación y selección de personal, en la toma de decisiones de las condiciones laborales, la promoción y la rescisión de relaciones contractuales de trabajadores, en la asignación de tareas según evaluaciones de desempeño de trabajadores y sus características personales, y en la supervisión y evaluación en general de trabajadores, ya que esta tecnología de IA puede afectar considerablemente a las perspectivas laborales de los empleados, a syu subsistencia y a los derechos de los trabajadores.

En cuanto al acceso a servicios y prestaciones esenciales, de carácter público o privado, como servicios esenciales que permiten que un ciudadano pueda participar plenamente en la soclidad y mejorar su nivel de vida, se clasifican como de alto riesgo los sistemas de IA que deciden por parte de las autoridades la concesión, denegación, reducción o revocación de prestaciones personales y servicios, o la reclamación de su devolución. Dichas decisiones, tomadas por un sistema de IA, puede impactar en derechos fundamentales de los ciudadanos (derecho a la protección social, a la dignidad humana, a la no discriminación, a la tutela judicial efectiva, etc) teniendo un efecto considerable en los medios de subsistencia de las personas.

Resulta de especial relevancia la clasificación según el riesgo que puedan generar los sistemas de Inteligencia Artificial, así como el daño que pueden por lo tanto ocasionar a los ciudadanos, no debiendo olvidarse que, en Derecho, dicho daño será reclamable bajo un sistema de responsabilidad objetivo.

Resulta de especial relevancia la clasificación según el riesgo que puedan generar los sistemas de Inteligencia Artificial, así como el daño que pueden por lo tanto ocasionar a los ciudadanos, no debiendo olvidarse que, en Derecho, dicho daño será reclamable bajo un sistema de responsabilidad objetivo.

            Es importante destacar, por lo tanto, que no se consideraran sistemas de inteligencia artificial de alto riesgo cuando no planteen un riesgo importante de causar un perjuicio a la salud, a la seguridad o a los derechos fundamentales de las personas físicas, o no influyan sustancialmente en el resultado de la toma de decisiones, ya sea humana o automatizada. Pero, para ello, se deben cumplir las siguientes condiciones:

      • que el sistema de Inteligencia Artificial esté destinado a realizar una tarea de procedimiento limitada, de forma que el sistema de IA transforme datos no estructurados en estructurados, o clasifique en categorías los documentos recibidos, o detecte duplicados entre un gran número de aplicaciones,
      • que el sistema de IA esté destinado a mejorar el resultado de una actividad humana que ha sido previamente realizada, de modo que el sistema de IA sólo añada un nivel adicional a la actividad humana, entrañando así un menor riesgo. Por ejemplo, los sistemas de IA destinados a mejorar el lenguaje en documentos ya redactados.
      • que el sistema de IA no esté destinado a sustituir la valoración humana previamente realizada sin una revisión humana adecuada, ni a influir en ella, sino que el sistema de IA esté destinado a detectar patrones de toma de decisiones o desviaciones con respecto a patrones de toma de decisiones anteriores. De ese modo, el riesgo es menor debido a que el sistema de IA se utiliza tras una valoración humana previamente realizada, y no se pretende sustituirla o influir en ella sin una revisión o supervisión adecuada por parte de un ser humano. Por ejemplo, no se consideraran de alto riesgo los sistemas de IA que persiguen comprobar a posteriori si un profesor se ha desviado de su patrón de calificación, y detectar así posibles anomalías o incoherencias.
      • que el sistema de IA se destine a realizar tareas que sólo sean preparatorias de evaluaciones que sean pertinentes a efectos de los casos enumerados en el Anexo III, con lo que la posible repercusión de los resultados sería muy escasa de cara a representar un riesgo para la subsiguiente evaluación. Ejemplos de sistemas de IA incluido en este apartado son las soluciones inteligentes para la gestión de archivos, que incluyen funcionalidades tales como la indexación, búsqueda, tratamiento de texto y habla o la vinculación de datos a otras fuentes de datos , o los sistemas de IA utilizados para la traducción de los documentos iniciales. Pero, todos estos sistemas del anexo III, si elaboran perfiles de personas físicas, se considerarán de alto riesgo.

En todo caso, el elemento clave en cuanto a sistemas de IA de alto riesgo es que los proveedores o responsables del despliegue de estos sistemas deberán realizar, obligatoriamente, antes de implementar cualquier sistema de IA de los que se clasifican de alto riesgo, una evaluación de impacto de los derechos fundamentales de los ciudadanos europeos -nada nuevo, pues otras normativas europeas ya obligan a ello en otras áreas, como es el Reglamento General de Protección de Datos-, debiendo notificarlo a la correspondiente autoridad de vigilancia del mercado y debiendo registrar el sistema de IA de alto riesgo, y registrarse el propio proveedor, en la base de datos de la UE correspondiente.

Publicado el Reglamento Europeo de Inteligencia Artificial, las novedades de éste, con sus definiciones básicas, las exclusiones de dicho Reglamento, la lista de prohibiciones y excepciones de sistemas basados en Inteligencia Artificial, las novedades en la implementación de sistemas de Inteligencia Artificial de Alto Riesgo y el nuevo sistema de gobernanza de Inteligencia Artificial serán algunos de los aspectos que analizaremos en el Máster en Criptografía Avanzada y Seguridad de las Comunicaciones, título propio de la Universidad de Málaga, que se impartirá en modalidad online desde la Escuela Técnica Superior de Ingeniería de Telecomunicación de la Universidad de Málaga este próximo curso 2024/25, y en la que colaborarán los abogados en Málaga y Nerja del despacho Pérez Parras Economistas y Abogados.

El Despacho Pérez Parras Economistas y Abogados cuenta con Abogados en Málaga y Nerja expertos en Derecho de la Inteligencia Artificial, Derecho de las Nuevas Tecnologías, profesores en el Departamento de Ingeniería de Comunicaciones de la Universidad de Málaga, que imparten clases en el Máster en Criptografía Avanzada y Seguridad de las Comunicaciones, título propio de la Universidad de Málaga, que se impartirá en modalidad online desde la Escuela Técnica Superior de Ingeniería de Telecomunicación de la Universidad de Málaga este próximo curso 2024/25.

Más información sobre el Máster en Criptografía avanzada y Seguridad en las Comunicaciones: https://www.biosip.uma.es/master-cripto/

Se ha publicado recientemente el Reglamento Europeo de Inteligencia Artificial. Los abogados del Despacho Pérez Parras Economistas y Abogados, en Málaga y Nerja, con doble titulación en Ingeniería de Telecomunicaciones y Derecho, impartirán formación sobre el Derecho de Inteligencia Artificial en el Máster en Criptografía Avanzada y Seguridad de las Comunicaciones, título propio de la Universidad de Málaga, que se impartirá en modalidad online desde la Escuela Técnica Superior de Ingeniería de Telecomunicación de la Universidad de Málaga este próximo curso 2024/25. Somos abogados expertos en Derecho de la Inteligencia Artificial, la Ciberseguridad y las Telecomunicaciones. También en Derecho de Inmobiliario, asesorando a nuestros clientes en la compraventa de inmuebles en Málaga, y en tributación internacional, en Extranjería y otros.

Se ha publicado recientemente el Reglamento Europeo de Inteligencia Artificial. Los abogados del Despacho Pérez Parras Economistas y Abogados, en Málaga y Nerja, con doble titulación en Ingeniería de Telecomunicaciones y Derecho, impartirán formación sobre el Derecho de Inteligencia Artificial en el Máster en Criptografía Avanzada y Seguridad de las Comunicaciones, título propio de la Universidad de Málaga, que se impartirá en modalidad online desde la Escuela Técnica Superior de Ingeniería de Telecomunicación de la Universidad de Málaga este próximo curso 2024/25. Somos abogados expertos en Derecho de la Inteligencia Artificial, la Ciberseguridad y las Telecomunicaciones. También en Derecho de Inmobiliario, asesorando a nuestros clientes en la compraventa de inmuebles en Málaga, y en tributación internacional, en Extranjería y otros.