Sesgos en los Large Language Models (LLMs)

Título:
Sesgos en los Large Language Models (LLMs): Análisis práctico y comparativo de los modelos LLaMA, Mistral, Deepseek, ChatGPT y Salamandra
Autores:
Irati Otxoa, Antonio Cantero
Año:
2025
Formato:
Paper académico (UPV/EHU)

Este estudio analiza la presencia de sesgos ideológicos y geopolíticos en modelos de lenguaje de gran tamaño (LLMs) aplicados a tareas de generación y evaluación textual. Se ha empleado una metodología experimental basada en escenarios ambiguos, generación automática y análisis cruzado mediante una matriz estructurada, con el fin de evaluar el comportamiento discursivo bajo condiciones controladas.

Se parte de la hipótesis de que estos modelos replican marcos ideológicos dominantes incluso sin instrucciones explícitas. Los resultados evidencian patrones de parcialidad y encuadre ideológico, así como una consistencia relativa en la autoevaluación de determinados modelos, lo que abre líneas de investigación sobre meta-gatekeeping algorítmico, transparencia y responsabilidad de la IA en el ecosistema mediático.

Palabras clave: LLMs, PLN, sesgo, Inteligencia Artificial, teorías de la comunicación.