Algoverit-Logo

Auditoría algorítmica

Contacta con nosotros

OBJETIVOS GRUPO DE TRABAJO: GUÍA 2024”

La pretensión de ofrecer una guía para un uso ético y fiable de la IA, tiene como punto de partida un conjunto de referencias que comparten numerosos países y diversos organismos internacionales, incluida la Unión Europea. ¿ Podrían concretarse dichos principios también, en recomendaciones profesionales y de gobierno adecuados, mediante test básicos, con referencias técnicas y de comprensión asumibles?

Para poder contestar de forma positiva a esta pregunta, se precisa la existencia de una herramienta general de apoyo al cuidado de la gobernanza de los datos, la construcción y prueba de los algoritmos y en conjunto el despliegue y validación de una IA que ofrezca más atención a sus procesos de uso, vinculando a los diversos actores económicos y sociales implicados.

Todo ello posibilita y aconseja la formulación de un conjunto de principios, basados en algunos de los amplios consensos existentes, que permitan sintetizar y orientar los numerosos dilemas éticos que se producen en la generación, desarrollo y en aquellas decisiones que subyacen a la IA, que implican a los seres humanos, las instituciones y empresas, sin que pueda olvidarse su repercusión en los derechos humanos fundamentales que generan sus usos.

Pero los análisis si se efectúan en base sólo a principios o referencias generales, careciendo de criterios de referencia prácticos para su despliegue, no suponen en si mismos garantía suficiente para impulsar una dinámica ética y fiable adecuada, ni tampoco la configuración de unos valores efectivos para su uso.

En consecuencia, es aconsejable tratar de integrar principios o referencias con compromisos y conductas, si se pretende alcanzar el contenido de una guía general de referencia para una perspectiva ciudadana , que sirva también de inspiración y complemento del despliegue de una regulación normativa tan necesaria como compleja, como la establecida por la UE.

El trabajo efectuado por ALGOVERIT el último año, pretende construir un listado- recordatorio de ciertos aspectos y principios generales indispensables, qué junto a prácticas básicas de conductas alineadas con los mismos, puedan ofrecer confiabilidad social ciudadana, respecto de un uso de la IA adecuado. Acompañando también su contenido, con su uso como canal de expresión y comunicación de una voluntad positiva de compromiso de organizaciones, profesionales, instituciones y empresas, con un despliegue responsable y transparente de su uso.

La Asociación ALGOVERIT presenta esta Guía con el fin de favorecer el uso ético de la IA entre aquellos profesionales y organizaciones con medios limitados, que gestionan soluciones con esta herramienta.

Con esta Guía- test de auto evaluación no se pretende considerar o desplegar aspectos meramente técnicos y específicos de las tecnologías empleadas, a menudo de una gran diversidad y complejidad.

Tampoco puede esta guía sustituir el uso de un manual de auditoría algorítmica, o modelos e instrucciones de control interno de esta actividad, la necesaria programación de la gestión de riegos, ni programas para un plan de gobierno de datos eficaz, en que se apoye la IA empleada.

Para eso existen otras instituciones y organismos técnicos e institucionales que cumplen positivamente estas tareas ( RGPD y las guías de la Agencia de Protección de Datos y otros muchos más).

Su objetivo es mucho más modesto y limitado: ser un instrumento de divulgación básica, comunicación, auto análisis y difusión cultural, de algunos de los aspectos de referencia que las instituciones internacionales y los principales actores públicos y privados vienen considerando respecto de un uso ético y fiable de estas tecnologías, desde un foco estrictamente de ciudadanía, rigor técnico y derechos humanos.


  • Ver más

    1. INTRODUCCIÓN.

    2. SEIS GRANDES PRINCIPIOS O REFERENCIAS PARA UN USO ÉTICO Y FIABLE DE LA IA:

       -Gobernanza del Sistema

       -Datos

       -Riesgos y Seguridad.

       -Justicia y Derechos.

    -Transparencia.

    -Relaciones laborales


    3. PRINCIPALES GRUPOS DE DESTINATARIOS ESPECÍFICOS : CIUDADANOS; PYMES

    Y ONGS; SECTOR PÚBLICO ;PROGRAMADORES Y COLECTIVOS TECNICOS; DIRECTIVOS.

    .

    4. INSTRUCCIONES Y CONSIDERACIONES PARA EL USO,DESPLIEGUE Y VALORACIÓN DEL CUESTIONARIO.

    5. CUESTIONARIO TESTING PARA CADA GRUPO DE DESTINATARIOS

    6. AUTOVALORACIÓN Y COMPROMISO- ADHESIÓN DE SEGUIMIENTO ADOPTADO


    Botón

El Instituto de Auditores Internos de España cuenta con un interesante trabajo aplicando el uso de un interesante trabajo aplicado al uso de la IA en los procesos de negocio.

A partir de la metodología del modelo COSO 2013 considera cinco actividades clave para integrar en estos procesos:


  1. La identificación de los riesgos según la complejidad de los algoritmos, objetivos y el entorno. Vinculando también el apetito de riesgos como referencia.
  2. La supervisión de la arquitectura de datos empleados. Incluyendo protección de la privacidad, actualización, seguridad y atención a ciberataques.
  3. El análisis del perfil y relevancia de los modelos empleados.
  4. La supervisión de la implementación de los algoritmos, su entrenamiento, garantía de la existencia de pruebas suficientes y otros testings.
  5. La revisión periódica, actualización de métricas e indicadores de desempeño.

Específicamente, en relación con la primera etapa COSO Entorno de Control, que agrupa los conceptos de gobierno, cultura, ética y valores, señala el trabajo comentado la necesidad de una política de gobierno de los datos, dado el volumen ingente de su uso en IA, y considerar las amenazas y oportunidades para su actividad.


También se ocupa, en este ámbito específico de la IA, de la necesaria garantía del cumplimento regulatorio, una cultura ligada a los componentes éticos, el despliegue de la evaluación de riesgos derivados, así como de contar con personal con competencias adecuadas.

Auditoría Interna de la AI

LAS ESCUELAS Y SENDAS ALGORÍTMICAS

 

Durante los setenta años en los que evoluciona la IA , sus creadores han seguido un número limitado de sendas. Pedro Domingos (2015) y más recientemente Ignacio González (2023·) han mostrado las cartografías de los caminos empleados por los exploradores y sus seguidores actuales.

Cada escuela persigue alcanzar un objetivo: los simbolistas la precisión al clasificar, los conexionistas minimizar una función que se llama “descenso del gradiente” ,los evolucionistas maximizar una función que se llama “fitness function”, los bayesianos mejorar la estimación de la probabilidad a posteriori y los analogistas medir bien una distancia.

El auditor, al llegar a una organización se encontrará representadas estas distintas sendas. Se encontrará con “arboles de decisión” y cada vez más con “redes neuronales” profundas, simulaciones del cerebro. También con regresiones, análisis factorial, análisis cluster, matrices de confusión y datos estructurales y no estructurales.

  • Ver más

    La referencia Simbolista. Como los antiguos acadios y los fenicios trabajaron con símbolos. Planteada una pregunta, la convertían en símbolos y luego operaban con expresiones, como hacen los algebristas. Su forma de avanzar era la deducción inversa. Se parte de un pequeño conocimiento y con pequeños pasos se avanza hacia el origen acumulando conocimiento.


    La Conexionista. Intentaron reproducir como funcional el cerebro humano aplicando el equivalente a una neurona humana presentada en forma de una ecuación. Sustituían las conexiones del cerebro por las conexiones de las ecuaciones y su enfoque fue el de ingeniería inversa. (Convutional Neural Networks CNN)


    La evolucionista de orientación biologista y cibernética. Siguiendo la idea de Darwin pensaron en sistemas que aprendiesen por selección. Un ejemplo actual es la llamada programación genética. El sistema se auto inventa valores para las variables (mutaciones) y si acierta más que antes, acepta el valor como provisionalmente bueno repitiendo muchas veces el proceso.


    La Bayesiana con raíces matemáticas y de probabilidad. Ven el mundo lleno de incertidumbre que se puede reducir con sucesivas observaciones y experimentos. Creadores del concepto de “redes bayesianas”. Un clasificador Naive (ingenuo) Bayes asume la independencia entre variables predictoras, la presencia de una cierta característica en un conjunto de datos no está en absoluto relacionada con la presencia de cualquier otra característica.


    La analogista con vocación de agrimensores y topógrafos. Como los escolásticos medievales, pensaron por analogía desarrollar algoritmos para medir con precisión si dos cosas son semejantes o no. Una de sus estrategias es KNN.( clasificador de aprendizaje supervisado “de vecinos o proximidad”)


Una auditoría algorítmica de caja negra además de ser compleja puede tener costes muy elevados. No siempre es posible contar con el Código Fuente y tampoco, en ocasiones puede que sirva de gran cosa. 

Pero existen auditorías que pueden y deben tener objetos más precisos y acotados y centrarse en elementos críticos singulares. Hay que partir del conocimiento de lo que puede esperarse de la auditoría de un sistema de I.A. y qué no es posible esperar.

Es preciso propiciar el análisis e la composición y usos de los algoritmos para generar mejoras de su eficiencia que eviten riesgos y sesgos detectables, que sean asumibles con el acervo técnico e instrumental existente y con costes asequibles. La transparencia lo exige también, cuando el algoritmo se aplica sobre acciones que afectan de manera especial y fundamental a los seres humanos, ya que es preciso adoptar una perspectiva ética, y eso implica la existencia de valores y su explicitación.

Por otra parte, se recomienda la lectura de estos tres recientes artículos específicos aparecidos en el número 73 ( enero-abril 2023) de la Revista de la Fundación de la Universidad Autónoma de Madrid “Encuentros Multidisciplinares”, dirigida por el catedrático Jesús Lizcano.


 http://www.encuentros-multidisciplinares.org/revista-73/juan-antonio-garde.pdf   

- ¿Pueden los algoritmos ser evaluados con rigor? Juan Antonio Garde Roca


http://www.encuentros-multidisciplinares.org/revista-73/jose-luis-anta.pdf

- Primeros materiales para pensar máquinas, el debate de la IA y el fin del viaje. José Luis Anta y Eleder Piñeiro.


http://www.encuentros-multidisciplinares.org/revista-73/maria-jesus-yague-y-otra.pdf

- Economía digital, una realidad emergente, su investigación a través de CIEDI. María Nieves Villaseñor y María Jesús Yagüe.

Como resumen, contestando a la pregunta del inicio del primer artículo, “¿Pueden los algoritmos ser evaluados con rigor?"


“Más allá de la complejidad y dificultades objetivas, se puede (y se debe) evaluar rigurosamente los algoritmos, dada la existencia de una gran variedad de tipos de auditorías y también de objetos de evaluación y siempre que se considere con realismo lo que puede y no puede auditarse y el cómo se audita”.



Miércoles 23 de mayo de 2023

CENTRO LATINOAMERICANO DE ADMINISTRACIÓN PARA EL DESARROLLO. CLAD

El Centro Latinoamericano de Administración para el Desarrollo CLAD, es un organismo público internacional, de carácter intergubernamental que desarrolla actividades de investigación y fortalecimiento institucional con distintas instituciones gubernamentales de cooperación y actúa como Secretaría Técnica permanente de las Conferencias Iberoamericanas de Ministros de Administración Pública y Reforma del Estado que se realizan en el marco de las Cumbres Iberoamericanas de Jefes de Estado y de Gobierno

  • Ver más

    El acto fue presentado por el Secretario General del CLAD D. Francisco Velázquez y transmitido en vivo por el Canal de YouTube del CLAD. 

    En su disertación, Juan Antonio Garde Roca, economista y expresidente de la Agencia Estatal de Evaluación (AEVAL) de España y presidente de la Asociación ALGOVERIT, ofreció un panorama actual de la inteligencia artificial y los algoritmos, en el marco de lo que denominó la cuarta revolución industrial. 

    Se refiere a como la Inteligencia Artificial (IA) comprende un conjunto de tecnologías de rápida evolución que pueden favorecer el progreso, si se acompaña de un refuerzo ético, ofreciendo garantías de cumplimiento de los derechos humanos, sociales y digitales, considerándola como bien público, asentándola con una sociedad civil activa. La misma contiene tres componentes básicos: la máquina, los algoritmos y los datos.

    Sin embargo, aseveró que existen riesgos, siendo algunos de ellos las dificultades de marcos regulatorios, así como la falta de transparencia en sus algoritmos. Asimismo, advirtió el surgimiento de sesgos presentando datos de poca fiabilidad.

    Para ello, es necesario garantizar que el conjunto de datos que se ha utilizado para entrenar el modelo esté equilibrado, que la selección de las variables sea correcta, que la técnica utilizada sea adecuada y que su resultado sea relevante.

    En cuanto al uso de la IA por parte de la Administración Pública, señala que la misma debe velar y garantizar el interés público con sometimiento pleno a la ley y al derecho. Se requiere, por tanto, no sólo en su papel regulador, sino también en sus acciones directas y en el uso algorítmico, un plus de rigor.

    La presentación culminó con una gran cantidad de preguntas al ponente por parte de los 215 inscritos de más 23 países. El video de la actividad se encuentra disponible en el canal de YouTube del CLAD



Share by: