top of page

Inteligencia artificial: retos en la política y la buena gobernanza

En años recientes, el desarrollo de inteligencia artificial (IA), aprendizaje automático y la ciencia de datos ha revolucionado la forma de interactuar del ser humano, desde la forma de hacer negocios hasta la generación de nuevas formas de arte y cultura. Sin embargo, hay un eje específico que vale la pena resaltar, que es la incidencia de estas nuevas tecnologías en la forma de hacer política y ejercer buena gobernanza.


Aprovechando la temática, preguntamos a una de las herramientas de IA, Chat-GPT, sobre los riesgos de ésta en los dos puntos antes señalados. La respuesta fue atinada al señalar que podría generar sesgos y discriminación, falta de transparencia y responsabilidad, dependencia excesiva a las nuevas tecnologías, riesgos de ciberseguridad y privacidad, así como desplazamiento laboral. Sin embargo, hay tres riesgos adicionales que no fueron señalados en nuestra conversación con Chat-GPT (quizá por conveniencia) en los que este blog busca enfocarse.


Imagen: MIT Sloan Management Review , 2022


El primero tiene que ver con la capacidad que tiene la IA de generar “historias”. De acuerdo con Yuval Noah Harari, historiador y autor de libros como “Sapiens”, “Homo Deus” y “21 lecciones para el Siglo XXI”, desde la época de las cavernas, los humanos han construido historias complejas y han convencido a otras personas para que crean en ellas. Derivado de lo anterior, hemos sido capaces de crear ideas como gobierno, democracia, dinero o religión, ya que son un conjunto de ideas e historias que las sociedades reconocen como válidas. Las herramientas de IA no solo pueden utilizarse para analizar y consolidar contenido generado por seres humanos, sino que tienen la capacidad de crear este contenido. Hoy, por ejemplo, algunos noticieros han puesto en marcha presentadores de noticias con inteligencia artificial. ¿Podrían este tipo de herramientas generar nuevos, o por el contrario, invalidar estas historias o acuerdos sociales que hoy existen? ¿Tendrían la capacidad de desestabilizar gobiernos, economías o religiones?


Un segundo riesgo está relacionado con la capacidad que tendrá cualquier grupo (con un interés particular, válido o no) de influir en la población mediante información generada por la inteligencia artificial. Recientemente, investigadores de la Universidad de Stanford realizaron un estudio para comprobar si los argumentos generados por IA podían cambiar la opinión de personas sobre temas controversiales.[1] Spoiler alert: funcionó. El estudio consistía en que, por medio de ciertas herramientas de IA, se generasen argumentos convincentes a favor o en contra de algún tema álgido como el control de armas, los impuestos ambientales, licencias de paternidad, entre otros. Más tarde, dichos argumentos generados, en conjunto con algunos otros ideados por seres humanos, fueron presentados a distintos grupos de personas, mismas que debieron haber expresado su posición previamente y hacerlo una vez más tras leer los argumentos. Los resultados mostraron que los participantes expuestos a los argumentos fabricados por IA fueron más propensos a modificar sus posturas.


Más allá de casos controvertidos como el de Cambridge Analytica, cuyo debate se centró en la validez de comunicar información estratégicamente, del punto anterior surge el riesgo de que este tipo de herramientas puedan ser utilizadas para generar información inexacta o engañosa para algún fin en particular. Las fotos del Papa Francisco vestido con un abrigo Balenciaga dieron la vuelta al mundo hace unos días, pero ¿qué imágenes, videos, posicionamientos o noticias podremos llegar a generar de manera artificial? ¿Estaremos enfrentándonos a una era post-fake news que se asemeje más a una época de artificial news?


Un tercer riesgo tiene que ver con el uso que se le podría dar a estas herramientas para tomar decisiones directamente relacionadas con el desarrollo y bienestar de la población en general, es decir cómo, cuándo y por qué debemos usar IA en la toma de decisiones de organizaciones políticas, sociales y económicas.


Josh Simons, académico de la Universidad de Princeton, plantea en su estudio Algorithms for the People [2] que muchas de las decisiones que toman los gobiernos, las empresas y las organizaciones implican valores morales y decisiones políticas que derivan en ciertos patrones. Entonces, si entendemos a las herramientas de IA como algoritmos que predicen resultados con base en distintos patrones que existen en un conjunto de datos, se podría asumir que existen pocas posibilidades de que éstas construyan predicciones neutrales y que, por ende, se utilice esta información para tomar una decisión que sea imparcial.


El estudio ahonda en que un posible efecto de utilizar estas herramientas para decidir sobre quién puede obtener un préstamo, qué denuncias de abuso investigar o quién debe obtener atención médica prioritaria, podría derivar en reproducir y afianzar patrones discriminatorios o arbitrarios. Sabemos que “conocimiento es poder”, pero la generación de este conocimiento a través de herramientas de IA ¿podría derivar en obstaculizar la igualdad política de la población?


Este breve blog no pretende encontrar respuestas a las preguntas antes planteadas, ni explorar todos los riesgos que se podrían derivar de la IA, y mucho menos demeritar todos los beneficios y oportunidades que estas herramientas han demostrado que pueden aportar. Simplemente busca invitar a la reflexión y al debate sobre cómo deben utilizarse en la forma de hacer política. El escenario ideal deberá construirse con base en debates morales, éticos y legales sobre el alcance de la IA y, sin duda, requerirá de cooperación entre gobiernos, academia, sociedad civil y los sectores involucrados en el desarrollo y uso de la IA, para lograr consensos que resulten en beneficio de la población.

 

[1]Bai, H., Voelkel, J. G., Eichstaedt, j. C., & Willer, R. (2023). “Artificial Intelligence Can Persuade Humans on Political Issues.” https://doi.org/10.31219/osf.io/stakv

[2]Simons, J. (2023). “Algorithms for the People:Democracy in the Age of AI”. Princeton University Press. https://press.princeton.edu/books/hardcover/9780691244006/algorithms-for-the-people

Este artículo fue escrito por Marina Gutiérrez, Consultora en Grupo Estrategia Política.

0 comentarios

Entradas Recientes

Ver todo
bottom of page