Por Álvaro García, Partner Success Manager en Talentia Software
El pasado 12 de julio, se hacía público el Reglamento (UE) 2024/1689 en materia de Inteligencia Artificial, cuyo objetivo es mejorar el funcionamiento del mercado interior mediante el establecimiento de un marco jurídico uniforme, en particular para el desarrollo, la introducción en el mercado, la puesta en servicio y la utilización de sistemas de IA, a fin de promover la adopción de una IA centrada en el ser humano y fiable, garantizando, al mismo tiempo, un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea. Dicho reglamento está formado por un total de 13 capítulos y 113 artículos, además de trece anexos que responden a criterios de diferentes artículos.
El concepto IA
Tal y como vamos conociendo, aunque el término, per se, no es nuevo, la IA es un conjunto de tecnologías en rápida evolución que contribuye a generar beneficios, muy diversos, en todos los sectores económicos, medioambientales y actividades sociales. El uso de la IA puede proporcionar ventajas competitivas a las empresas y facilitar la obtención de resultados positivos en múltiples ámbitos (la educación y la formación, el deporte, la gestión de infraestructuras, la energía, el transporte, la seguridad, la justicia, la eficiencia de los recursos o la energía, entre otros), a fin de mejorar la predicción, optimizar las operaciones y la asignación de los recursos, y personalizar las soluciones digitales que se encuentran a disposición de las organizaciones.
¿Cuándo entra en vigor y qué consideraciones hay que tener en cuenta?
El presente Reglamento entrará en vigor a los veinte días de su publicación en el Diario Oficial de la Unión Europea, es decir, el próximo 1 de agosto de 2024. Igualmente, el reglamento deberá ser ratificado por los estados miembros.
No obstante, será aplicable a partir del 2 de agosto de 2026, teniendo en cuenta algunas consideraciones que aplicarán a diferentes capítulos y/o artículos antes de dicha fecha.
a) Los capítulos I y II (Disposiciones Generales y Prácticas de IA prohibidas) serán aplicables a partir del 2 de febrero de 2025.
b) El capítulo III (Sistemas de IA de alto riesgo), sección 4 (Autoridades notificantes y organismos notificados), el capítulo V (Modelos de IA de uso general), el capítulo VII (Gobernanza) y el capítulo XII (Sanciones) y el artículo 78 (Confidencialidad) serán aplicables a partir del 2 de agosto de 2025, a excepción del artículo 101 (Multas a proveedores de modelos de IA de uso general).
c) El artículo 6 (Reglas de clasificación de los sistemas de IA de alto riesgo), apartado 1, y las obligaciones correspondientes del presente Reglamento serán aplicables a partir del 2 de agosto de 2027.
Un reglamento denso con múltiples puntos relevantes
Si bien es verdad que no es un reglamento sencillo de “digerir”, por la dimensión y la multitud de conceptos (total de 68 definiciones), uno de los puntos más importantes es la clasificación de los sistemas de IA, en función del riesgo que éstos pueden generar y de su uso.
- Riesgo Inaceptable
Se refiere a aquellos sistemas de IA están prohibidos, debido a los riesgos graves que representan para la seguridad, los derechos fundamentales y la privacidad, como la evaluación o puntuación del comportamiento para determinar su acceso a servicios y oportunidades.
- Riesgo Alto
Se refiere a aquellos sistemas que tienen un impacto significativo en la vida de las personas y, por lo tanto, están sujetos a estrictos requisitos de conformidad. Estos requisitos incluyen la evaluación de riesgos, la documentación técnica, la transparencia, la supervisión humana y la robustez.
- Riesgo Limitado
Se refiere a aquellos sistemas que están sujetos a requisitos específicos de transparencia, pero no están tan estrictamente regulados como los sistemas de alto riesgo. Estos sistemas deben informar a los usuarios que están interactuando con una IA, como pueden ser los Chatbots o Asistentes Virtuales.
Por último, aunque no se menciona explícitamente como una categoría separada, también se reconoce una categoría implícita de riesgo mínimo, que incluye sistemas de IA que presentan riesgos insignificantes o nulos y, por lo tanto, están sujetos a pocas o ninguna obligación regulatoria.
Derechos que hay que proteger y retos a los que se enfrentan las organizaciones
Otro de los puntos más relevantes del reglamento, hace alusión a los derechos que se quieren proteger: el derecho a la dignidad humana; el respeto de la vida privada y familiar; la protección de datos de carácter personal; o todo lo que va implícito en términos de diversidad, no discriminación y equidad (“promover la igualdad de acceso, la igualdad de género y la diversidad cultural, al tiempo que se evitan los efectos discriminatorios y los sesgos injustos prohibidos por el Derecho nacional o de la Unión”).
En términos generales, el reglamento presenta varios retos significativos para las organizaciones que desarrollan, implementan y utilizan sistemas de inteligencia artificial. Por ello, las organizaciones deberán considerar aspectos como los costes, la evaluación y certificación, la transparencia y comunicación, la protección de datos y privacidad, la innovación y competitividad, el seguimiento y adaptación, o la ética y responsabilidad social.
Porcentaje de uso de tecnologías IA
Según datos del Ministerio de Economía, Comercio y Empresa, y el Ministerio de Asuntos Económicos y Transformación Digital, a través de ONTSI, el porcentaje de empresas españolas que utilizan tecnologías de IA, se aproximan al 12%, aunque si consultamos en fuentes de Eurostat, las cifras indican algunos puntos porcentuales menos (9,2% en 2023, frente al 7,7% de 2021, en España), situándonos por encima de la media europea (7% en 2023).
Es evidente que este uso va a crecer más pronto que tarde, pero también es verdad que dependerá de múltiples factores, directos e indirectos, con un enfoque holístico, sin perder el foco y “cocinando a fuego lento”; la madurez de las compañías será clave para poder empezar a hacer uso de ello.
En definitiva, las organizaciones se enfrentan a un conjunto complejo de retos técnicos, legales, financieros, organizativos y éticos al pretender cumplir con la Ley de IA de la UE. El equilibrio entre la conformidad, el rigor y la innovación será crucial para el éxito en este nuevo marco regulatorio.