Algoverit-Logo

Marco regulador de la IA

Te informamos

AVANCES RELEVANTES EN EL MARCO REGULATORIO: EL REGLAMENTO EUROPEO de IA

La Ley Europea de Inteligencia Artificial (Ley de IA), el primer reglamento global sobre esta tecnología en el mundo, ha entrado en vigor el jueves, 1 de agosto de 2024, no obstante, la mayoría de las normas contempladas comenzarán a aplicarse el 2 de agosto de 2026, tal como advierte la Comisión Europea en un comunicado.


La normativa está diseñada para garantizar que la IA desarrollada y utilizada en la Unión Europea (UE) sea "fiable", según se afirma, por lo que contempla diversas salvaguardias para proteger los derechos fundamentales de las personas.

En ese sentido, la normativa establece diferentes niveles de riesgo sobre los sistemas de inteligencia artificial, que van desde el 'mínimo' hasta el 'inaceptable'.


En la categoría de riesgo mínimo se encuentran la mayoría de los sistemas de IA, como los de recomendación basados en esta tecnología que precisan no obstante su robustez técnica y los filtros de correo no deseado.

"Estos sistemas no se enfrentan a obligaciones en virtud de la Ley de IA debido a su riesgo mínimo para los derechos y la seguridad de los ciudadanos. Las empresas pueden adoptar voluntariamente códigos de conducta adicionales", detalla la Comisión Europea.


Tras ello se encuentran los sistemas con "riesgo específico de transparencia", en los que se encuadran, por ejemplo, los chatbots, que deberán revelar "claramente" a los usuarios que están interactuando con una máquina.

"Determinados contenidos generados por IA, incluidas las ultra falsificaciones, deben etiquetarse como tales, y los usuarios deben ser informados cuando se utilicen sistemas de categorización biométrica o reconocimiento de emociones. Además, los proveedores tendrán que diseñar sistemas de manera que los contenidos sintéticos de audio, vídeo, texto e imágenes estén marcados en un formato legible por máquina y detectables como generados o manipulados artificialmente", destaca la Comisión Europea.


Por otro lado, Los sistemas de inteligencia artificial considerados “inaceptables· o de "alto riesgo" ( Artículos 5 y 6 de la ley) estarán obligados a cumplir requisitos estrictos, como la "alta calidad" de sus conjuntos de datos, el registro de la actividad, la documentación detallada, una información clara para el usuario, la supervisión humana y un alto nivel de solidez, precisión y ciberseguridad.


Entre los sistemas de IA de alto riesgo se incluyen, por ejemplo, los utilizados para la contratación de personal o para evaluar si alguien tiene derecho a obtener un préstamo, entre otras cuestiones.

Asimismo, la IA de "riesgo inaceptable" --que estará prohibida-- es aquella que se considere una clara amenaza para los derechos fundamentales de las personas.


"Esto incluye los sistemas o aplicaciones de IA que manipulan el comportamiento humano para eludir la libre voluntad de los usuarios, como los juguetes que utilizan asistencia vocal que fomentan el comportamiento peligroso de los menores, los sistemas que permiten la 'puntuación social' por parte de gobiernos o empresas y determinadas aplicaciones de la actuación policial predictiva", ha indicado la Comisión Europea.


También estarán prohibidos algunos usos de sistemas biométricos, por ejemplo, los de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar a las personas o la identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con limitadas excepciones).


La Comisión Europea ha subrayado que se impondrán multas a las empresas que no cumplan las normas, unas sanciones que podrían ascender hasta el 7% de su volumen de negocios anual mundial por infracciones de aplicaciones prohibidas de IA, hasta el 3% en el caso de incumplir otras obligaciones y hasta el 1,5% por el suministro de información incorrecta. 

En este contexto, los Estados miembros de la UE tienen de plazo hasta el 2 de agosto de 2025 para designar a las autoridades nacionales competentes, que supervisarán la aplicación de las normas aplicables a los sistemas de IA y llevarán a cabo actividades de vigilancia del mercado.


Sin embargo, las prohibiciones de los sistemas de inteligencia artificial que se consideren que presentan un "riesgo inaceptable" se aplicarán ya al cabo de seis meses, mientras que las normas para los denominados modelos de IA de uso general se aplicarán dentro de 12 meses.


El Ministerio para la Transformación Digital y de la Función Pública de España ha celebrado la entrada en vigor de esta normativa, señalando en la red social X este mismo día.



Hoy entra en vigor la Ley de Inteligencia Artificial en Europa! Un marco pionero que asegura el desarrollo de una IA ética y responsable, a la vez que impulsamos las ganancias de productividad que suponen las tecnologías de vanguardia

 USA. PERSPECTIVAS EN EL MARCO REGULADOR: ACUERDOS CON LAS GRANDES TECNOLÓGICAS.

En octubre de 2023, Joe Biden firma la primera ley federal para regular la IA en EE. UU. La referencia con una vieja ley de tiempos de la guerra de Corea, para adoptar un nuevo decreto para mitigar los riesgos de la Inteligencia Artificial General (IA). Afirma el presidente USA que “la tecnología debe ser gobernada, no puede haber discusión”. Las empresas estarán obligadas a notificar a las autoridades federales cualquier avance que pueda suponer un “riesgo grave para la seguridad nacional, económica o para la salud y seguridad pública”. Se creará un nuevo organismo, la Junta de Seguridad de IA dependiente del Departamento de Seguridad Nacional.


Será preciso ver como se materializa de forma concreta su efectividad más operativa.


El modelo estadounidense de IA ha venido priorizando primero el propio desarrollo del sistema de la IA y, en el caso de que tras su despliegue se detecte usos discriminatorios, aplicar mecanismos de respuesta ex post, promoviendo caso por caso. Es decir, no pretende aportar un paquete de soluciones marco normativo y exhaustivo que se vaya a aplicar a todas las situaciones, sino que se espera conocer cada caso particular para decidir cómo proceder. 


No obstante, en los últimos años la necesidad de una cierta regulación ex ante se abre camino y muy recientemente lo demuestra las conversaciones entre los responsables europeos y norte americano sobre necesidades armonizadoras del marco jurídico a nivel internacional, que también se ha manifestado con carácter subordinado en el manifiesto final de la 49ª Cumbre del G-7 celebrada en Japón (mayo 2023).


Esto lleva a considerar la importancia singular y el papel estratégico que adquiere en USA y también la potencial incidencia que podría tener en europea y a nivel internacional, los acuerdos que se alcancen con sectores económicos relevantes, que pueden incorporar un valor añadido a la regulación muy importante.


La prensa se ha referido a este factor en los días finales del mes de julio de 2023 y habrá que esperar a su concreción en la realidad de que las grandes empresas tecnológicas estadounidenses supuestamente han aceptado las medidas de seguridad sobre el desarrollo de inteligencia artificial (IA) propuestas por la Casa Blanca, según anunció reciente del Gobierno estadounidense.

  • VER MAS: ACUERDOS CON LAS GRANDES TECNOLÓGICAS Y PROPUESTAS DE REGULACIÓN

    Amazon, Anthropic, Google, Inflection, Meta, Microsoft y Open AI, compañías que están desarrollando tecnologías punteras de IA, se considera que se han comprometido a adoptar “de forma inmediata” medidas para asegurar que “la innovación no se produzca a expensas de los derechos y seguridad de los estadounidenses”, señala la Casa Blanca en un comunicado.


    El acuerdo que se califica de voluntario, parece comprometerse a que las siete empresas tecnológicas realicen pruebas internas y externas de sus sistemas de IA antes de hacerlos públicos, así como compartir información con otras empresas, gobiernos, sociedad civil y el mundo académico sobre la gestión de los riesgos que supone la IA.


    .Las referencias de prensa incorporan en sus crónicas, será necesario comprobar la realidad de los hechos, que las tecnológicas estadounidenses desarrollarán los sistemas con la seguridad como prioridad y ofrecerán garantías al público con el etiquetado de los contenidos generados con IA, la investigación sobre los riesgos que supone para la sociedad y el desarrollo de sistemas que “ayuden a responder a los mayores desafíos” de la humanidad.


    La Administración del presidente Joe Biden también ha afirmado que está trabajando para que los compromisos voluntarios de las compañías estadounidenses se traduzcan en un “sólido marco internacional que gobierne el desarrollo y uso de la IA” y añadió que ya ha mantenido consultas con países como Brasil, Canadá, Corea del Sur, Francia, Alemania, India, Israel, Japón, México y el Reino Unido.


    Desde que OpenAI lanzó al público el sistema ChatGPT, y otras compañías han mostrado sus productos, científicos, políticos y filósofos, así como organizaciones de defensa de los derechos humanos, han advertido de la amenaza que la IA puede suponer para la humanidad.


    Por otra parte El martes 18 de julio los países miembros del Consejo de Seguridad de la ONU celebraron una reunión acerca de los beneficios y riesgos de la tecnología generativa emergente, también destacaron los peligros de una aplicación militar de la inteligencia artificial.


    El secretario general de la ONU, António Guterres, también reiteró que el futuro desarrollo de la inteligencia artificial (IA) debe estar “gobernado” por una entidad de Naciones Unidas.


PERSPECTIVA REGULATORIA MARCO INTERNACIONAL ¿UN NUEVO CAMINO?

La cumbre sobre la regulación de la IA celebrada en Bletchley el uno de noviembre de 2023,  en la que participaron 28 países, incluidos entre otros el Reino Unido, Estados Unidos, los países de la UE incluida España, China, India, Japón y Brasil, se presenta como una referencia histórica. Dado el hecho de haber suscrito un primer compromiso, subrayando que los firmantes “aceptan la urgente necesidad de comprender y gestionar de forma colectiva los riesgos potenciales a través de un nuevo esfuerzo global conjunto para garantizar que la IA se desarrolla y despliega de forma segura” y propugnar la creación de un grupo de expertos para el seguimiento de los avances.


Por otra parte, sienta las bases para la celebración de cumbres globales que tendrán lugar cada seis meses, las próximas en Corea del Sur y Francia, respectivamente.


El primer ministro del Reino Unido, anfitrión de esta primera cumbre, afirmó que “Estamos ante un logro histórico que hace que las mayores potencias de IA del mundo coinciden en la urgencia de comprender y garantizar el futuro a largo plazo”.

La cumbre del G-7 celebrada en Hirosima (Japón) recoge en su comunicado final “avanzar en las discusiones sobre la gobernanza inclusiva de la IA y su inter operatividad para lograr nuestra visión común y objetivo de una IA fiable, en línea con nuestros valores democráticos compartidos”.


CENTRO EUROPEO PARA LA TRANSPARENCIA ALGORÍTMICA  (ECAT) Y CREACIÓN DE LA AGENCIA ESPAÑOLA DE SUPERVISIÓN DE LA INTELIGENCIA ARTIFICIAL

En Sevilla capital, se ha establecido recientemente el Centro Europeo para la Transparencia Algorítmica (ECAT en sus siglas en inglés), una de las principales plataformas de la Unión Europa para garantizar el buen funcionamiento y el control de contenidos ilícitos y perjudiciales de las plataformas digitales y brindar una mayor protección de los derechos fundamentales de los usuarios y ciudadanos que son los objetivos de la Directiva de Servicios Digitales (DSA) ya en vigor.


El objetivo principal del ECAT es impulsar un mayor conocimiento y arrojar más transparencia sobre los sistemas algorítmicos que se encuentran detrás de los servicios digitales y pretende tener un importante papel en la regulación de la Comisión Europea sobre las grandes plataformas y buscadores.

Creación de la Agencia Española de supervisión de la Inteligencia Artificial (RD 729/2023 de 22 de agosto) 


Corresponde a la Agencia Española de supervisión de la Inteligencia Artificial, con sede en La Coruña, que llevará a cabo tareas de supervisión, asesoramiento, la concienciación y la formación dirigidas a entidades de derecho público y privado para la adecuada implementación de toda la normativa nacional y europea en torno al adecuado uso y desarrollo de los sistemas de inteligencia artificial, más concretamente, de los algoritmos. Además, la Agencia tendrá la función de inspección, comprobación, sanción y demás que le atribuya la normativa europea 


La Agencia tiene por objeto la minimización de los riesgos que puede suponer el uso de esta nueva tecnología, el adecuado desarrollo y potenciación de los sistemas de inteligencia artificial. En el ámbito de la competencia estatal, ejercerá las funciones de autoridad responsable de la supervisión, y en su caso sanción, de los sistemas


 Responderá a los siguientes fines: 


 a) La concienciación, divulgación y promoción de la formación, y del desarrollo y uso responsable, 

 b) La definición de mecanismos de asesoramiento y atención a la sociedad y a otros actores relacionados 

 

c)  La colaboración y coordinación con otras autoridades, nacionales y supranacionales, de supervisión de inteligencia artificial. 

 

d)  El fomento de entornos reales de prueba de los sistemas de inteligencia artificial para reforzar la protección de los usuarios y evitar sesgos discriminatorios.

 

 e) La supervisión de la puesta en marcha, uso o comercialización de sistemas que incluyan inteligencia artificial y, especialmente, aquellos que puedan suponer supranacionales riesgos significativos para la salud, seguridad, la igualdad de trato y no discriminación, en particular entre mujeres y hombres, y para los demás derechos fundamentales.


La actualización de la Agenda España Digital para el horizonte 2026 fue presentada el pasado viernes 8 de julio en el Ministerio de Asuntos Económicos y Agenda Digital. Este documento hace balance y actualiza la hoja de ruta de digitalización aprobada hace dos años por el Gobierno y que ha supuesto la puesta en marcha de proyectos en el ámbito de la conectividad, 5G, inteligencia artificial, ciberseguridad, competencias digitales, digitalización de la administración y pymes y el despliegue de España como hub audiovisual de Europa.


Además de incorporar los 11 Proyectos Estratégicos para la Recuperación y Transformación Económica (PERTE) puestos en marcha con los fondos europeos Next Generation EU, esta actualización incorpora el programa RETECH con el que se invertirán 530 millones de euros del Plan de Recuperación en 2022 y 2023 para desplegar redes de proyectos tecnológicos y transformadores en el área digital sobre la base de las propuestas de las comunidades autónomas.

Aprobada la actualización de la Agenda Digital España 2026

Retos y Oportunidades para la sociedad en el uso de la inteligencia artificial

USOS ALGORITMICOS EN LAS RELACIONES LABORALES

PRIMER DEBATE

El día 7 de abril 2022 a las 18,30h tuvo lugar en la Fundación Fernando de los Ríos el primer debate auspiciado por la Asociación AlGOVERIT. Tras una breve intervención de su Presidente, Juan Antonio Garde, acerca de las finalidades y proyectos de la asociación, el coordinador del debate Ignacio González, Ingeniero y Doctor en Inteligencia Artificial, así como estudioso e investigador incansable en esta materia, presentó a los tres invitados: Santiago Segarra (IBM), Afshim Almassi (SAS) y Ana Caballero (EADT), alcanzando ya con sus primeras preguntas, un entorno de conocimiento muy apreciable, vinculado a la experiencia práctica de cada uno de ellos.


 Posteriormente, a partir de temas de actualidad respecto de la IA y el uso de los algoritmos, el coordinador supo con habilidad propiciar consensos entre los invitados, a la vez que favorecía la aparición de controversias y matices singulares, que se reflejan en la visión de las fotografías que figuran junto con este texto.

A esta dinámica reflexiva y aportadora, se unieron de forma entusiasta otros asistentes al acto, miembros de la Asociación AlGOVERIT, como la doctora Lola Ruíz Iglesias, con sus aportaciones respecto del uso actual de la IA en el sector de la salud, la problemática del caudal de información y la calidad de los datos.


El impacto de la pandemia y las oportunidades y dilemas éticos.


También la profesora universitaria de Derecho del Trabajo, María Luz Rodríguez Fernández, considerando los efectos en el mercado de trabajo y la problemática existente respecto el uso de los algoritmos en las relaciones laborales.

Sobre el perfil y tipos de algoritmos y sus características, el experto José Manuel Martín Ayala, promovió una práctica visual de fluidos y burbujas interactuando, para visualizar como se adquieren nuevas formas de conocimiento algorítmico.

Entre otros aspectos tratados en esta sesión se hicieron notables los siguientes:

 

-        La problemática vinculada a la litigiosidad y la responsabilidad en actuaciones “Hibridas”, así como el debate en torno a los aspectos vinculados, a la existencia o no, en el futuro de una personalidad jurídica propia de robots y decisores algorítmicas.

-        La necesidad de supervisión y de la responsabilidad humana ,como factor esencial en el despliegue de la IA.

-        El papel de los principios y derechos digitales de los ciudadanos y la protección jurídica de los datos, la necesidad de su uso exclusivo para las finalidades específicas que se solicitan. Mas aún si cabe en el caso de los datos públicos.

 

-        La importancia de la regulación europea de la IA en ciernes, así como de los mercados y servicios digitales y su despliegue efectivo, en un mundo en bloques, también la garantía de armonización entre nuestros países, evitando los dumpings, y propiciando la unidad del mercado europeo y el fomento de la innovación tecnológica.

-        Evitar el arbitrismo y favorecer una auditoría pragmática que mejore la eficiencia en el uso de las herramientas, la calidad de la información, el uso de los datos y  la programación algorítmica, buscando causalidades y correlaciones de rigor para las evidencias en la toma de decisiones y contando con el compromiso de los diversos actores sociales para la gestión de los riesgos, minimizar los distintos sesgos posibles y favorecer el compromiso ético explícito de su uso por parte de las empresas y del propio sector público.


Como señala la declaración- manifiesto de la asociación ALGOVERIT - “Existe un peligro cierto de que la IA evolucione y pase de ser un instrumento de clasificación y conocimiento, a convertirse en un instrumento de calificación, que deje de ser una herramienta de predicción para convertirse en una herramienta de conducción y adquiera sesgos y efectos desfavorables para las personas más vulnerables”.

DEBATE ASOCIACIÓN ALGOVERIT

FUNDACIÓN FERNANDO DE LOS RIOS. 

25 de MAYO 2022

El esquema de las intervenciones en el debate sobre regulación de la IA y los mercados y servicios digitales por parte de la UE, fue diseñado a través de tres referencias principales:

Juan Miguel Márquez (Red.es), respondió a algunos aspectos generales y de forma específica al contenido de borrador de la ley de Inteligencia Artificial que se debate en el Parlamento Europeo. Profundiza esencialmente en la posición existente por parte de la UE acerca del uso de este conjunto de tecnologías y su alcance, así como del modelo regulatorio estratégico pretendido para su uso y control por la sociedad, vinculado a los principios y valores europeos. Se refirió de manera específica a la dialéctica regulación-innovación tecnológica establecida.

Diego López Garrido (Fundación Alternativas) trató acerca de las normas de mercados y servicios digitales, configurando su papel garante de la regulación de la competencia, su proactividad frente a la articulación y funcionamiento de conjunto de la actividad digital y de los diversos actores involucrados.


Amazon, Google o Facebook y también Apple, las denominadas GAFAs, ocupan hoy una posición dominante en el mercado digital y cuentan con una ventaja desproporcionada sobre sus competidores que la UE pretende regular para el mercado europeo.


A menudo determinan las próximas innovaciones o la elección de los consumidores y sirven de "guardianes de acceso", según la norma en debate, frente al conjunto de las empresas y los usuarios de internet.


La Unión Europea propone medidas más estrictas de control para estas y otras grandes empresas cuyos criterios se definen específicamente en los borradores en debate.


Considera la posición de la UE, tanto respecto a los mercados y sus interdependencias, como a la necesidad de la armonización entre países europeos, la defensa al derecho a la intimidad y otros aspectos de políticas estratégicas más globales.

Cristina García Herrero (Instituto de Estudios Fiscales), trató acerca del uso de la IA y los algoritmos por parte del sector público, la necesidad de extremar la prudencia, rigor y cuidado en evitar sesgos e inequidades en la aplicación de los derechos y su servicio a la gobernanza pública. También considera la dificultad de la armonización efectiva pretendida en los países europeos respecto de los “guardianes de acceso”.

Finalmente, analizó algunas primeras sentencias de los tribunales al respecto en países como Holanda, Francia y España y el alcance potencial que pudiera representar la litigiosidad en este campo.

Tras diversas preguntas y comentarios de Juan Antonio Garde como coordinador, Vicente Peirats, Purificación Esteso, Ignacio Gonzalez, Bienvenido Pascual y algunos miembros del Instituto de Auditores Internos acerca de la auditoría algorítmica, quedó concluido el debate, quedando emplazados para un nuevo encuentro en el Ateneo para el mes de Septiembre referido a Ética, Derechos Digitales y Algoritmos”.

Funcionamiento de conjunto de la actividad digital y de los diversos actores involucrados. Amazon, Google o Facebook y también Apple, las denominadas GAFAs, ocupan hoy una posición dominante en el mercado digital y cuentan con una ventaja desproporcionada sobre sus competidores que la UE pretende regular para el mercado europeo.

A menudo determinan las próximas innovaciones o la elección de los consumidores y sirven de "guardianes de acceso", según la norma en debate, frente al conjunto de las las empresas y los usuarios de internet.

La Unión Europea propone medidas más estrictas de control para estas y otras grandes empresas cuyos criterios se definen específicamente en los borradores en debate. 

Considera la posición de la UE, tanto respecto a los mercados y sus interdependencias, como a la necesidad de la armonización entre países europeos, la defensa al derecho a la intimidad y otros aspectos de políticas estratégicas más globales.

Share by: