Por David Zamora y Gloria Guerrero

Durante el mes de junio se lanzaron oficialmente los resultados del Índice Global de IA Responsable. Este estudio evaluó el compromiso de 138 países para avanzar en una inteligencia artificial alineada a los principios de los derechos humanos, liderado por el Global Center on AI Governance. Para su desarrollo se definieron hubs de investigación regionales que implementaron la recolección de datos. Desde ILDA coordinamos la investigación en la región de América Latina con 14 países: Argentina, Bolivia, Brasil, Chile, Colombia, Ecuador, El Salvador, Guatemala, Honduras, México, Panamá, Paraguay, Perú y Uruguay.

La IA responsable incluye el diseño, desarrollo, implementación y gobernanza de la IA de una manera que respete y proteja todos los derechos humanos y defienda los principios de la ética de la IA en cada etapa del ciclo de vida y la cadena de valor de esta tecnología. Requiere que todos los actores involucrados en el ecosistema nacional de IA asuman la responsabilidad de los impactos humanos, sociales y ambientales de sus decisiones.

El diseño y despliegue de la IA no solo debe responder a las necesidades tecnológicas sino a la necesidades sociales de las personas a las que pretende servir.

El proceso de data collection

La primera parte de este proceso consistió en la conformación del equipo de investigación regional, con una persona experta para cada uno de los países a relevar. A través de una convocatoria abierta, se seleccionaron 14 personas investigadoras que cumplieron con una serie de requisitos, entre ellos, tener una participación activa en el ecosistema de inteligencia artificial y datos de sus países.

A este le siguió una etapa de capacitación en la metodología del Índice, la cual se basó en una serie de manuales y un programa de capacitación que fue diseñado por el equipo central del Global Index on Responsible AI. Previo a la capacitación global la metodología había sido puesta a prueba a través de investigaciones piloto en países específicos, entre los que estuvo Costa Rica, que también coordinamos desde ILDA. El resultado de estos pilotos terminó de pulir la metodología para la etapa global de recolección de datos.

Durante el proceso de recolección de datos global, cada persona investigadora tuvo el desafío de analizar en sus países diferentes áreas temáticas agrupadas en 3 ejes transversales: gobernanza de IA responsable, capacidades de IA responsable y derechos humanos. Algunas de las áreas temáticas fueron: equidad de género, protección de datos y privacidad, participación pública y sensibilización social, derechos de la niñez, protección laboral y derecho al trabajo, diversidad cultural, evaluaciones de impacto, supervisión y decisión humana, responsabilidad y rendición de cuentas, transparencia y explicabilidad, acceso a vías de recurso y reparación, entre otras.

Cada área temática evaluó el desempeño de tres pilares diferentes del ecosistema de IA responsable:

  • Marcos gubernamentales: leyes nacionales o federales, regulaciones, políticas públicas, guías, que aborden las implicaciones de la IA en el área temática.
  • Acciones gubernamentales: acciones del gobierno nacional o federal que involucran el desarrollo o implementación de marcos gubernamentales, o iniciativas lideradas por el gobierno que promueven acciones dentro del área temática identificada, incluso en ausencia de un marco gubernamental.
  • Iniciativas de actores no estatales: actores externos al gobierno (universidades, organizaciones de la sociedad civil y entidades del sector privado) que trabajan activamente en cuestiones relacionadas con la IA dentro del área temática.

Cada una de las áreas temáticas tuvo una encuesta que fue completada por las personas investigadoras con base en los relevamientos para evaluar el avance en cada país. De esta manera, identificaron las iniciativas de IA responsable para cada tema. Para asegurar la calidad de la evidencia recolectada, el proceso incluyó una doble revisión detallada de la información por parte de la coordinación de ILDA y el área central del GIRAI. Las intensas revisiones permitieron elevar la confiabilidad de los datos y el estándar de calidad. Esta fase requirió una alta masa crítica de trabajo humano, es un ejercicio que muestra el valor de la coordinación y el expertise de las personas investigadoras.

Una vez finalizada la recolección y revisión de la data, el área central del GIRAI inició el procesamiento de datos para armar el Índice y analizar los resultados con sus implicaciones. Las puntuaciones del índice se derivaron de datos primarios recopilados para todas las áreas temáticas, cada una calificada en un rango de 0 a 100 y promediada para calcular las puntuaciones de los pilares y la calificación total nacional.

Los principales retos

Los países de la región estudiados no mostraron limitaciones relevantes en el acceso a información relacionada con AI responsable y de derechos humanos. Tanto los gobiernos como los actores no estatales parecieron interesados ​​en demostrar sus avances en el tema, facilitando la identificación de evidencia. Sin embargo, a partir de entrevistas complementarias con diferentes líderes temáticos, se pudo identificar que en pocos casos no todos los esfuerzos están bien documentados en fuentes públicas, por lo que quizás algunas acciones tomadas durante el período de estudio no aparezcan en esta investigación.

Otro de los retos fue la adopción del enfoque de este Índice, para entender la evidencia a observar y recolectar. Primero, esta no fue una investigación para documentar aplicaciones, iniciativas o proyectos de IA, sino para identificar esfuerzos que permitan que esas aplicaciones de IA sean responsables y éticas. Segundo, esta no fue una investigación para contabilizar de forma ilimitada esfuerzos para impulsar una IA responsable, sino para identificar y documentar aquellos que podrían parecer más relevantes en los contextos nacionales.

Reflexiones de las personas investigadoras

En esta sección recuperamos testimonios y comentarios sobre los retos para la recolección por parte de algunas de las personas investigadoras que participaron en el proyecto:

El mapeo de actores que realmente vean el tema, muchos dicen trabajar con IA pero más por moda que por realidad.

Lia Patricia Hernández – Investigadora de Panamá

La colección de datos se realizó con búsqueda en la WEB utilizando palabras claves como derechos digitales, algoritmos éticos entre otros, que corresponden a cada una de las dimensiones. Luego se evaluó la pertinencia del documento en caso de encontrar información, entonces en esta etapa el problema mayor fue que no la mayoría de casos estaban en periodos fuera de estudio, o no incluían información de inteligencia artificial con este enfoque ético que pedía el estudio. Para minimizar este riesgo en el levantamiento de información se realizaron entrevistas a diferentes grupos académicos, activistas para conocer en que se encuentran trabajando y se concluyó que la mayoría están trabajando en el uso de aplicaciones de inteligencia artificial.

Susana Graciela Cadena Vela – Investigadora Ecuador

El mayor reto del proceso de recolección de datos en el campo de la inteligencia artificial en Colombia ha sido la falta de marcos normativos y de políticas públicas específicas. La inteligencia artificial es un tema relativamente nuevo en el país, lo que ha llevado a una escasez de regulaciones que orienten y estructuren la recolección y uso de datos. 

Sin embargo, es importante destacar que en los últimos meses se ha observado un progreso significativo en la actualización y consolidación de estos marcos normativos y políticas públicas en el país.

Juliana Galvis Nieto – Investigadora Colombia

Entre los retos que encontramos, se cuenta la falta de información oficial y de acceso público que permitan generar suficiente evidencia. Lastimosamente, en los últimos años, los niveles de transparencia han retrocedido, varios portales de datos libres y repositorios de información del Estado boliviano, han desaparecido o están desactualizados (sus actualizaciones son de antes de la pandemia). Esto tanto a nivel nacional como subnacional.

Carencia de espacios y foros de discusión e interlocución entre el Estado y sociedad civil, lo que dificultó que podamos corroborar y verificar información de fuentes oficiales. Antes el Estado boliviano contaba con un Consejo para las Tecnologías de información y Comunicación (CTIC) que permitía acceder a información de fuentes oficiales y hacer seguimiento al desarrollo de políticas públicas.

Cristian Leon Coronado – Investigador Bolivia

Una vez más, desde ILDA, agradecemos a las personas investigadoras  involucradas en este proyecto, su trabajo y compromiso permitieron mostrar el contexto de la IA responsable en nuestra región y este trabajo llega en un momento clave para la región y para el mundo.

También agradecemos al equipo del Global Center on AI Governance la confianza y la oportunidad de ser parte de este proyecto, fue también una gran oportunidad para aprovechar el conocimiento acumulado de otros proyectos como el Barómetro Global de Datos y mejorar las capacidades de la red. Sin duda, el Índice de IA Responsable es un  mecanismo para instalar capacidades y desarrollar redes sofisticadas de investigadores expertos en el Sur Global.

Te invitamos a descargar el reporte completo y explorar los resultados en el sitio web del Global Index AI.