El lunes 28 de agosto iniciamos con un conversatorio dedicado a pensar los desafíos y estrategias para el desarrollo de tecnologías alineadas al respeto de los derechos humanos, la equidad y la inclusión de comunidades históricamente marginadas. De este espacio participaron Gloria Guerrero, Sara Fratti, Beatriz Busaniche e Ivana Feldfeber.
Empezar la pregunta por quiénes
Nuestra Directora Ejecutiva, Gloria Guerrero, abrió este debate desde la noción que la inteligencia artificial, como cualquier otra tecnología, tiene tanto beneficios como desafíos. Destacó que en el caso de la Inteligencia Artificial, debemos tener en cuenta el impacto diferenciado que tiene para mujeres, diversidades sexuales, afrodescendientes, indígenas. Por ello es importante entender cómo se desarrollan estas herramientas y qué tipo de riesgos o sesgos traen y a qué comunidades pueden potencialmente impactar.
Tanto Sara como Ivana hicieron mención a quiénes están creando estos sistemas, mencionando una masculinización del campo de la IA -en su mayoría hombres blancos del Norte Global- lo cual conlleva una carga de sesgos. Siguiendo el lema de “romper primero, pedir perdón después” las grandes empresas están en una carrera para desarrollar con poco resguardo de las tecnologías que impactan la vida de miles de personas.
En la misma línea, Bea explicó que los sistemas generan respuestas, feedback o resultados, a partir de un entrenamiento basado en grandes volúmenes de datos, por lo que arrastran sesgos de esos datos y de quienes hacen esa definición de qué datos se usan y de quienes diseñan esas tecnologías. Como resultado, los sistemas automatizados son profundamente conservadores: son prejuicios implementados en código hacia poblaciones históricamente discriminadas. Como explicó Sara, las agendas de exclusión o violencia siguen ahí, y que quizás lo que la IA permite es sofisticarlas.
Por eso, Bea destacó la importancia de hacer varias preguntas al sistema para poder comprender mejor cuáles son sus intenciones, sus fines, quien lo financió y por qué, para entender cómo afecta a diversos grupos. El objetivo es poder detectar si tiene sesgos y poder visibilizarlos para generar una rendición de cuentas de los riesgos o beneficios.
Ivana hizo mención precisamente a la necesidad de desmitificar las tecnologías y la IA pensando que pueden resolver todos los problemas. Explicó que las tecnologías replican patrones de poder y tensiones que ya tenemos en la vida real, y desde los movimientos sociales y el feminismo se puede pensar como romper con estas lógicas. En la misma línea, Bea se refirió a la tendencia de intentar resolver todo con IA, sin tener en cuenta que existen aspectos que necesitamos mirar críticamente desde un abordaje informado.
Vigilancia y tecnologías
Gloria destacó que uno de los usos de tecnologías de IA que más preocupaciones ha generado es el de vigilancia y seguridad. Siguiendo esta tendencia que las panelistas identificaron hacia la adopción de tecnología como respuesta a todos los problemas, los gobiernos de América Latina han estado incorporando tecnologías a los procesos vinculados con la seguridad. Como detalló Bea, además de las cámaras de vigilancia, hemos visto una serie de promesas sobre la automatización de la búsqueda de personas y de identificación de situaciones de peligro.
Siguiendo esto, Bea identificó la problemática de la compra de sistemas que están inmaduros porque presentan fallas, o se compran sistemas por fuera del debate público y no se someten a una consulta ciudadana o evaluación de los órganos legislativos o auditorías. Además, esto se complejiza debido a que las empresas niegan el acceso porque argumentan que están protegidos por propiedad intelectual, dejando a la sociedad civil con limitadas estrategias de acción.
Desde la sociedad civil los desafíos son muchos, ya que es complejo con las limitadas capacidades seguir la cuenta de las empresas que avanzan vendiendo y ofreciendo tecnologías -que se han comprobado riesgosas- a los gobiernos, tratando de identificar estas situaciones y a su vez haciendo incidencia en los debates legislativos o iniciando procesos judiciales. Por esto Bea mencionó la necesidad de colaborar entre organizaciones y la llegada al público para ampliar las capacidades de nuestras organizaciones para incidir.
Estrategias y posibles caminos
Todas las panelistas coincidieron en la necesidad de promover la rendición de cuentas de las tecnologías de IA, pero también que las comunidades afectadas puedan participar y apropiarse del desarrollo de estas tecnologías para traer soluciones a sus propias problemáticas. Como dijo Sara, debemos pensar en miradas más integrales desde planes de educación, políticas públicas, que cumplan con ciertos criterios de derechos humanos, y se puedan integrar con enfoques de género, equidad e inclusión social. En este sentido, Ivana destacó la importancia de pensar desde los activismos cómo usar estas tecnologías para potenciar nuestras luchas.
Desde ILDA, Gloria destacó la importancia de reflexionar en colectivo sobre este tema y los aportes para nuestra región del trabajo de Sara, Ivana y Beatriz.
¡Mira el webinar completo en nuestro canal de Youtube!