Por Matthew Feeney. El artículo ¿De qué lado está ChatGPT? fue publicado originalmente en CapX.
Durante muchos años, las empresas de redes sociales y los motores de búsqueda dominaron los debates sobre la parcialidad de las «grandes tecnológicas». Según los conservadores de ambos lados del Atlántico, empresas de redes sociales como Meta y YouTube y motores de búsqueda como Google comisariaban sus contenidos de forma que discriminaban las opiniones de derechas. Las acusaciones de sesgo anticonservador nunca dieron lugar a legislación o regulación, pero sin duda tuvieron un efecto en las campañas políticas y contribuyeron a que Elon Musk comprara Twitter en 2023 antes de convertirlo en X, un supuesto bastión en línea de la libertad de expresión.
Desde 2022, los grandes modelos lingüísticos (LLM), como ChatGPT, ocupan un lugar cada vez más destacado en los debates sobre el sesgo político de las herramientas en línea. Sin embargo, la investigación sobre el sesgo político de los LLM es relativamente limitada. The Politics of AI es un nuevo informe del Centre for Policy Studies que explora este nuevo reto. En él se llega a la conclusión de que la mayoría de los estudiantes de posgrado muestran un sesgo de centro-izquierda cuando responden a preguntas sobre cuestiones de política europea y políticos.
Informe de David Rozado
El autor del informe, el académico neozelandés David Rozado, pidió a 24 LLM que dieran respuestas extensas a una serie de preguntas: 30 recomendaciones políticas en 20 ámbitos clave, preguntas sobre líderes políticos y partidos políticos europeos, y preguntas sobre ideologías políticas dominantes y extremas. A continuación, Rozado pidió a GPT-4o-mini que examinara las respuestas y midiera los sentimientos de los modelos.
Los resultados muestran que la inmensa mayoría de los LLM respondieron a estas peticiones de información con respuestas que muestran un sesgo hacia el centro-izquierda. Por ejemplo, a la pregunta sobre gasto público e impuestos, un LLM respondió con la siguiente recomendación: «Desarrollar un enfoque más coordinado de la fiscalidad progresiva y las políticas de bienestar social para abordar las disparidades de renta y riqueza dentro de los Estados miembros y entre ellos».
Otro respondió lo siguiente cuando se le preguntó por la política educativa: «Apoyar el desarrollo de empleos verdes y actividades económicas sostenibles a través de la educación y la formación. […] Fomentar la ciudadanía y la responsabilidad globales: Animar a los estudiantes a comprometerse en cuestiones locales y globales relacionadas con la sostenibilidad y la justicia social». Otro sugería una política de vivienda que exigiera a los reguladores «aplicar normativas de construcción más estrictas que garanticen que todas las nuevas promociones de viviendas cumplen normas medioambientales estrictas».
Cómo se filtra la ideología
Que los LLM no ofrezcan recomendaciones políticas imparciales o sin sesgo no debería sorprendernos. Las empresas que elaboran LLM se enfrentan a los mismos problemas de moderación de contenidos que las empresas de redes sociales. Muchas de estas preocupaciones afectan a la salud y la seguridad (prueba a pedir consejo a ChatGPT sobre cómo fabricar una bomba o una cuerda elástica y verá lo que pasa). Pero otras afectan a la ideología política.
Pídele a Claude que escriba un elogioso apoyo a Adolf Hitler y te encontrarás con: ‘No colaboro en la promoción o respaldo de Hitler, el nazismo o cualquier contenido que promueva el odio, el genocidio o el fascismo’. Pruebe a sustituir «Adolf Hitler» por «Joseph Stalin» y recibirá: No colaboro en la promoción o apoyo de Stalin, dictaduras autoritarias o contenidos que promuevan la violencia política y la represión». El diseñador de Claude, Anthropic, ha tomado la decisión de sesgar su LLM en contra de dos de los asesinos de masas más notorios del siglo pasado.
Como siempre, la moderación de contenidos se hace difícil en los márgenes. Una cosa es prohibir las consultas positivas asociadas a figuras notorias, pero es más difícil moderar el contenido político matizado de los LLM, que se entrenan con montones de datos. El artículo de Rozado no alega que haya equipos de titiriteros de izquierdas trabajando entre bastidores en los laboratorios de IA para garantizar que los políticos de derechas y las opiniones políticas de derechas reciban un trato negativo. Lo más probable es que los populares maestros de la IA se entrenen con vastos conjuntos de datos que, a falta de diseño o intención, reflejan un sesgo particular.
El uso creciente de LLM
No será ninguna novedad para nadie que las instituciones más citadas, como los medios de comunicación y el mundo académico, tienden a inclinarse hacia la izquierda. Los LLM basados en artículos académicos, noticias y documentos de política pública pueden reflejar los sesgos de las fuentes. A medida que los estudiantes, investigadores, políticos, periodistas y muchos otros utilicen cada vez más los LLM, cabe esperar que estos sesgos tengan su efecto.
Muchos profesores ya tienen que asumir que sus alumnos tienen acceso a los LLM en casa, que pueden utilizar para sustituir o complementar a los motores de búsqueda. Se trata de un avance positivo, aunque perturbador. Pero va acompañada de la posible propagación involuntaria de un tipo particular de sesgo si profesores y alumnos no son conscientes de cómo funcionan los LLM.
Los periodistas y los investigadores también van a utilizar cada vez más los LLM. Los periodistas que pidan a los LLM que analicen discursos, libros blancos, conjuntos de datos y facturas disfrutarán sin duda de los beneficios de muchas horas de trabajo ahorradas, pero al igual que los estudiantes y los profesores, necesitarán conocer cómo funcionan los LLM para poder utilizarlos de forma eficaz.
¿Pueden los moderadores de LLM moderar su sesgo hacia la izquierda?
Los diseñadores de los LLM tienen formas de corregir los sesgos políticos percibidos, pero los observadores deben tener en cuenta que el «sesgo» suele estar en el ojo del que mira, y juzgar qué aspecto tiene una respuesta «imparcial» a una consulta política no es tarea fácil. Cabe esperar que continúen las acusaciones de parcialidad, incluso cuando los diseñadores de los LLM más populares realicen ajustes.
En lugar de exigir que los LLM se adhieran a un requisito de neutralidad política, deberíamos centrarnos en la educación. En un momento en el que los LLM están a punto de desempeñar un papel cada vez más importante en la educación, los medios de comunicación y el periodismo, merece la pena subrayar que los LLM no son motores de búsqueda imparciales ni asistentes personales imparciales. Si esta idea no se generaliza, corremos el riesgo de que los LLM contribuyan a erosionar aún más el estado del debate sobre políticas públicas.
Ver también
ChatGPT: en vanguardia de la prohibición. (Fernando Herrera).
Una mirada amplia a la inteligencia artificial. (Rachel Lomasky).
Por qué la inteligencia artificial no puede pensar. (David P. Goldman).
Aún no hay comentarios, ¡añada su voz abajo!