Por Gloria Guerrero y Violeta Belver

En 2024 el 51% de la población mundial participará en procesos electorales en sus respectivos países. Definitivamente en un año crucial para la democracia a nivel global; Estados Unidos, Rusia, el Parlamento Europeo, Sudáfrica, México, Indonesia, entre otros países, se encaminan a las urnas en un contexto marcado por la incertidumbre de los efectos que puede causar la inteligencia artificial en la agenda pública y la generación de información -ya sea real, falsa, distorsionada o un mix de todo eso-.

Las elecciones son el vehículo mediante el cual la ciudadanía elige a sus representantes y muestra sus preferencias, un elemento vital para los sistemas democráticos modernos. Asegurar que estos procesos se lleven a cabo en contextos ordenados, participativos e informados son condiciones necesarias para asegurar la confianza de la ciudadanía en las instituciones. Hoy en día, es innegable el impacto que las tecnologías de la información y las plataformas de redes sociales tienen en el debate público y la información que circula, para eso basta con recordar el caso de Cambridge Analitica. 

El entorno digital se ha vuelto algo cotidiano y debido a los  enormes volúmenes de flujo de información es un desafío para la mayoría de las personas identificar de forma sencilla qué es real y qué es falso. El crecimiento agigantado de las tecnologías de generación de información automatizada profundiza este fenómeno y se vuelve un aspecto central a este debate. El desarrollo de  IA que sean responsables, confiables y alineadas a principios éticos y de derechos humanos es más urgente que nunca para cuidar nuestras democracias.

 

¿De qué riesgos hablamos cuando hablamos de IA?

Uno de los riesgos más urgentes de la intersección de uso de IA durante procesos electorales es el uso de la inteligencia artificial para generar contenido engañoso, ya que puede generar tanto deep fakes-recreando la voz o imagen de políticos o candidatos o personalidades destacadas, como difundir noticias falsas de manera rápida, precisa y segmentada. Es en definitiva una tecnología que velozmente puede viralizar la desinformación para manipular la opinión pública.

Otro de los temas importantes son los sesgos que estas tecnologías pueden tener y diseminar de forma rápida y masiva. No hay que olvidar que el insumo que entrena  a los algoritmos, son los datos, los cuales, de acuerdo a como han sido registrados y recolectados, pueden profundizar la discriminación, la desigualdad, las brechas de género, u otras exclusiones. Es vital, hacer énfasis en que son personas las que desarrollan y entrenan a los algoritmos, y es por eso que, las tecnologías son un espejo de los valores, prejuicios, dilemas y luchas que tienen nuestras sociedades.

 

¿Qué hacen las empresas de Big Tech con todo esto?

El mundo mira a las empresas de Big Tech y sus esfuerzos para mitigar el impacto de sus creaciones. La presión de gobiernos, activistas y ciudadanía las ha volcado a anunciar varias medidas para prevenir el uso malicioso de las funciones basadas en inteligencia artificial, sistemas de moderación de contenidos y a implementar sistemas piloto para identificar  contenidos engañosos. Recientemente, hemos visto esfuerzos regulatorios por parte de Estados Unidos y la Unión Europea e incluso publicación de reportes, actas y recomendaciones por parte de la UNESCO.

El pasado 16 de febrero, 20 empresas tecnológicas firmaron un pacto llamado “La industria tecnológica contra el uso engañoso de la IA en las elecciones de 2024” en el marco de la Conferencia de Seguridad de Múnich. A través de 8 puntos de acuerdo se comprometieron a combatir la desinformación generada por la inteligencia artificial en este año crucial para las elecciones a nivel global. Entre los firmantes están  4 Big Tech: Microsoft, Meta, Google y Amazon, así como también empresas como X, Adobe, IBM y OpenAI. Es importante destacar que estos acuerdos no son vinculantes. De igual forma, las empresas no toman un rol de responsabilidad en cuanto a eliminar y/o prohibir contenidos falsos en sus plataformas, sin duda un reto es encontrar el balance entre responsabilidad y libertad de expresión.

 

Un modelo de IA para fortalecer nuestras democracias, ¿es posible?

En América Latina si sabemos de algo, es de democracias en riesgo. Tenemos una larga historia -y presente- de regímenes democráticos interrumpidos y amenazados. Enfrentamos también enormes desafíos en la consolidación de nuestras democracias y la reducción de las brechas tecnológicas. En nuestra región la falta de regulaciones y políticas públicas que mermen los posibles impactos negativos de estas nuevas tecnologías es también una realidad.

Diseñar e implementar regulación y modelos de desarrollo que garanticen la transparencia, responsabilidad y explicabilidad de las tecnologías automatizadas es un horizonte urgente. Debemos abogar por medidas que protejan el debate público y que combatan de forma eficaz las cuentas y contenidos falsos en las plataformas de redes sociales, sobre todo en redes como Whatsapp, que se ha convertido en el principal servicio de mensajería instantánea en América Latina. A pesar del surgimiento de iniciativas como “Soy digital”, entre Meta y el Instituto Nacional Electoral en México, un programa educativo orientado al desarrollo de pensamiento crítico, el consumo responsable de información y la seguridad en línea, el volumen de información falsa es inmensa. De acuerdo al sitio Statista, la población mexicana ocupa el 3er lugar a nivel global en el consumo de información falsa o engañosa.

La detección y reporte de noticias falsas requiere que las y los usuarios sepan de antemano identificar este tipo contenido, sin duda, un reto enorme, ya que el nivel de sofisticación de estos contenidos será cada vez mayor debido al uso de inteligencia artificial. En contextos donde aún persisten las brechas digitales y los rezagos en el uso de estas tecnologías limitan derechos como el de la libertad de expresión o la educación, es necesario seguir apostando por espacios de diálogo e intercambio de conocimientos entre sociedad civil, gobierno y sector privado para co-diseñar soluciones prácticas e inclusivas que permitan la re-apropiación de la tecnología al servicio de las personas y no solo como un mecanismo de extracción de datos y generación de capital.

La IA promete contribuir al desarrollo sostenible facilitando la implementación de modelos de economía circular, energía renovable e incluso la construcción de ciudades que utilicen de forma más eficiente sus recursos. Pero para que esto sea una realidad y no un nuevo motivo de desigualdad debemos poner atención en los desafíos que esta tecnología representa en otros sectores y sus implicaciones.

El desarrollo de la IA debe ir de la mano con programas de capacitación sobre alfabetización digital, empoderamiento de la ciudadanía en cuanto a cómo y quiénes usan sus datos. Es necesario también abogar por legislación que atienda las necesidades y contextos de Latinoamérica y que no solo replique lo que se determina en contextos del norte global. El uso de IA y de herramientas automatizadas, sobre todo en temas sociales y político-electorales, debe de ser monitoreada por grupos multiactor.

Desde ILDA entendemos que seguir apostando por una gobernanza democrática de los datos y la inteligencia artificial es el camino que nos va a permitir desarrollar tecnologías que estén al servicio de las personas y fomenten un desarrollo sostenible e inclusivo de América Latina.

 

Fuentes consultadas: