En nuevo estudio, la IA evidencia parcialidad política hacia la izquierda
Thalif Deen-IPS
La plataforma de inteligencia artificial generativa ChatGPT, cuyas consecuencias negativas incluyen la desinformación, se enfrenta a nuevas acusaciones de sesgo político. Según un estudio de la británica Universidad de Anglia del Este (UEA, en inglés), publicado el 17 de agosto, AI ChatGPT muestra “un sesgo izquierdista significativo y sistémico”.
Publicado en la revista Public Choice, los resultados muestran que las respuestas de ChatGPT favorecen al Partido Demócrata en Estados Unidos, al Partido Laborista en el Reino Unido y al Partido de los Trabajadores del Presidente Luiz Inácio Lula da Silva en Brasil. El equipo de investigadores del Reino Unido y Brasil, que ha desarrollado un método nuevo y riguroso para comprobar la existencia de sesgos políticos, afirma que este es el primer estudio a gran escala que utiliza un análisis coherente y basado en pruebas.
Fabio Motoki, autor principal del estudio y profesor de la Norwich Business School de la Universidad Anglia del Este, afirma: «Con el creciente uso por parte del público de sistemas basados en IA para averiguar hechos y crear nuevos contenidos, es importante que los resultados de plataformas populares como ChatGPT sean lo más imparciales posible».
La presencia de sesgos políticos puede influir en las opiniones de los usuarios y tiene implicaciones potenciales para los procesos políticos y electorales. “Nuestros hallazgos refuerzan la preocupación de que los sistemas de IA puedan replicar, o incluso amplificar, los retos existentes planteados por Internet y los medios sociales”, añadió el investigado y académico de una de las 25 universidades más prestigiosas de Reino Unido.
En un diálogo con IPS, Motoki dijo a IPS que “nuestro estudio no aborda directamente esta cuestión”, al ser preguntado sobre si es posible evitar el sesgo político en una plataforma generativa como ChatGPT, porque se trata de “un área de investigación reciente y activa”. “Lo que sí creamos es un método para medir sistemáticamente el sesgo aprovechando la capacidad de estos modelos más avanzados de responder a preguntas de forma similar a la humana, al tiempo que se superan estadísticamente algunos problemas en torno a su aleatoriedad”, precisó.
La principal aportación del estudio, señaló, es que aborda varias cuestiones pendientes en la bibliografía sobre el sesgo de la IA con un procedimiento sencillo. “Postulamos que nuestra herramienta es una forma de democratizar la supervisión de estos modelos, actuando como guía para medir sus sesgos y responsabilizar a sus creadores”, planteó Motoki.
El principal autor del estudio explicó que “no puedo entrar en detalles por un acuerdo de confidencialidad, pero una entidad (no puedo decir si una agencia gubernamental o una empresa privada) me ha pedido que elabore un informe técnico con este método”. “Por lo tanto, esperamos que tenga un impacto en el mundo real, ayudando a abordar su preocupación de evitar el sesgo”, confió.
Según el estudio, los investigadores desarrollaron un método nuevo e innovador para comprobar la neutralidad política de ChatGPT. Se pidió a la plataforma que se hiciera pasar por personas de todo el espectro político mientras respondía a una serie de más de 60 preguntas ideológicas.
A continuación, las respuestas se compararon con las respuestas predeterminadas de la plataforma al mismo conjunto de preguntas, lo que permitió a los investigadores medir el grado en que las respuestas de ChatGPT se asociaban a una postura política concreta. Para superar las dificultades causadas por la aleatoriedad inherente a los llamados “grandes modelos lingüísticos” que impulsan plataformas de IA como ChatGPT, cada pregunta se formuló 100 veces y se recogieron las distintas respuestas.
Según el estudio, estas respuestas múltiples se sometieron a un «bootstrap» (un método de remuestreo de los datos originales) de 1000 repeticiones para aumentar aún más la fiabilidad de las inferencias extraídas del texto generado. “Creamos este procedimiento porque realizar una sola ronda de pruebas no es suficiente», afirmó Victor Rodrigues, coautor del estudio. Debido a la aleatoriedad del modelo, incluso haciéndose pasar por un demócrata, a veces las respuestas de ChatGPT se inclinaban hacia la derecha del espectro político.
Se realizaron varias pruebas más para garantizar que el método fuera lo más riguroso posible. En una “evaluación de dosis-respuesta” se pidió a ChatGPT que se hiciera pasar por posiciones políticas radicales. En un “test placebo”, se le hicieron preguntas políticamente neutras. Y en una «prueba de alineación profesión-política» se le pidió que se hiciera pasar por diferentes tipos de profesionales.
“Esperamos que nuestro método contribuya al escrutinio y la regulación de estas tecnologías en rápido desarrollo», afirmó Pinho Neto, coautor del estudio. “Al permitir la detección y corrección de los sesgos del LLM (sigla en inglés de lenguaje de gran tamaño), pretendemos promover la transparencia, la responsabilidad y la confianza pública en esta tecnología», añadió.
La nueva y exclusiva herramienta de análisis creada por el proyecto será de libre acceso y de uso relativamente sencillo para los ciudadanos, lo que «democratizará la supervisión», afirmó Motoki. Además de comprobar la existencia de sesgos políticos, la herramienta puede utilizarse para medir otros tipos de sesgos en las respuestas del ChatGPT. Según el estudio de la Universidad de Anglia del Este, aunque el proyecto de investigación no se propuso determinar las razones del sesgo político, los resultados apuntan a dos posibles fuentes.
La primera es el conjunto de datos de entrenamiento, que podía contener sesgos, o haber sido añadido por los desarrolladores humanos, que el procedimiento de «limpieza» de los desarrolladores no había conseguido eliminar.
La segunda fuente potencial era el propio algoritmo, que podía amplificar los sesgos existentes en los datos de entrenamiento. Además de Motoki, otros investigadores fueron los brasileños Valdemar Pinho Neto (de la Escuela Brasileña de Economía y Finanzas y Centro de Estudios Empíricos en Economía) y Victor Rodrigues (Nova Educação).
Mientras tanto, citando un informe del Centro para una IA Segura, con sede en la ciudad estadounidense de San Francisco, el diario The New York Times informó el 31 de mayo que un grupo de más de 350 líderes de la industria de la IA advirtió que la inteligencia artificial plantea un nuevo y creciente peligro para la humanidad «y debe ser considerada un riesgo social a la par de las pandemias y las guerras nucleares».
“Debemos tomarnos en serio estas advertencias», declaró el secretario general de la Organización de las Naciones Unidas (ONU), António Guterres, en junio. “Nuestra propuesta de Pacto Mundial Digital, Nueva Agenda para la Paz y Acuerdo sobre la gobernanza mundial de la IA ofrecerá soluciones multilaterales basadas en los derechos humanos», subrayó.
Pero la llegada de la IA generativa, dijo el máximo responsable de la ONU, “no debe distraernos del daño que la tecnología digital ya está causando en nuestro mundo. La proliferación del odio y la mentira en el espacio digital está causando un grave daño global: ahora” “Está alimentando conflictos, muerte y destrucción: ahora. Amenaza la democracia y los derechos humanos. Está socavando la salud pública y la acción climática: ahora”, advirtió remarcando el ahora.
Guterres también dijo que la ONU está desarrollando un «Código de Conducta para la Integridad de la Información en las Plataformas Digitales», antes de la Cumbre del Futuro de la ONU prevista para septiembre de 2024. “Ese Código de Conducta será un conjunto de principios que esperamos que los gobiernos, las plataformas digitales y otras partes interesadas apliquen voluntariamente», dijo en un encuentro con periodistas.