Madrid. Jueves 12 de marzo de 2026. Los chatbots de inteligencia artificial (IA) están estandarizando la forma en que las personas hablan, escriben y piensan, según un trabajo de la Universidad del Sur de California.
Si esta homogeneización continúa sin control, se corre el riesgo de reducir la sabiduría colectiva y la capacidad de adaptación de la humanidad, sostienen informáticos y psicólogos en un artículo de opinión publicado en la revista Tendencias en Ciencias Cognitivas, de Prensa celular.
Afirman que los desarrolladores de IA deberían incorporar una mayor diversidad del mundo real en los conjuntos de entrenamiento de modelos de lenguaje amplios, no sólo para preservar la diversidad cognitiva humana sino también para mejorar la capacidad de razonamiento de los chatbots.
“Las personas difieren en la forma de escribir, razonar y ver el mundo”, contextualiza el primer autor del artículo e informático Zhivar Sourati, de la Universidad del Sur de California.
«Cuando estas diferencias están mediadas por los mismos modelos lingüísticos generales, su estilo lingüístico, perspectiva y estrategias de razonamiento distintivos se homogeneizan, produciendo expresiones y pensamientos estandarizados para todos los usuarios».
Según los investigadores, dentro de los grupos y sociedades humanos, la diversidad cognitiva impulsa la creatividad y la resolución de problemas.
Sin embargo, la diversidad cognitiva está disminuyendo en todo el mundo, ya que miles de millones de personas utilizan los mismos chatbots de IA para un número cada vez mayor de tareas. Cuando las personas usan chatbots para pulir su escritura, por ejemplo, su individualidad estilística se pierde y las personas se sienten menos responsables de su producción creativa.
“La preocupación no es sólo que los modelos lingüísticos amplios moldeen la forma en que las personas escriben o hablan, sino que redefinan sutilmente lo que se considera discurso creíble, perspectiva correcta o incluso buen razonamiento”, advierte Sourati.
experiencia sesgada
El equipo señala múltiples análisis que muestran que los resultados de los estudios LLM son menos variados que los escritos generados por humanos y que tienden a reflejar el lenguaje, los valores y los estilos de razonamiento de las sociedades occidentales, educadas, industrializadas, ricas y democráticas.
«Debido a que los modelos de lenguaje amplios están entrenados para capturar y reproducir regularidades estadísticas en sus datos de entrenamiento, que a menudo representan en exceso los lenguajes e ideologías dominantes, sus resultados a menudo reflejan una porción estrecha y sesgada de la experiencia humana», dice Sourati.
Aunque los estudios muestran que los individuos suelen generar más ideas con más detalle cuando utilizan modelos lingüísticos amplios, los grupos humanos producen cada vez menos ideas creativas cuando dependen de ellos que cuando simplemente combinan sus poderes colectivos, dicen los investigadores.
«Aunque las personas no sean usuarios directos de estos modelos, les afectarán indirectamente», subraya Sourati. «Si mucha gente a mi alrededor piensa y habla de cierta manera y yo hago las cosas de manera diferente, me sentiría presionado a alinearme con ellos porque me parecería una forma más creíble o socialmente aceptable de expresar mis ideas».
Más allá del lenguaje, los estudios han demostrado que después de interactuar con modelos lingüísticos sesgados y amplios, las opiniones de las personas se vuelven más similares al modelo que utilizaron.
«Estos esquemas también favorecen modos lineales de razonamiento, como la reflexión en cadena, que requiere modelos para mostrar el razonamiento paso a paso. Este énfasis reduce el uso de estilos de razonamiento intuitivo o abstracto, que a veces son más eficientes que el lineal», dicen los investigadores. También señalan que patrones lingüísticos amplios pueden alterar las expectativas de las personas, lo que puede cambiar sutilmente la dirección del trabajo de un individuo.
«En lugar de dirigir activamente la generación, los usuarios a menudo se dejan llevar por las continuaciones sugeridas por el modelo y seleccionan opciones que parecen ‘suficientemente buenas’, en lugar de crear las suyas propias, transfiriendo gradualmente la iniciativa del usuario al modelo», explica Sourati.
Los investigadores dicen que los desarrolladores de IA deberían incorporar intencionalmente diversidad de lenguaje, perspectivas y razonamiento en sus modelos. Destacan que esta variedad debería basarse en la que existe en los humanos a escala global, en lugar de introducir variaciones aleatorias.
«Si los modelos lingüísticos amplios tuvieran maneras más diversas de abordar ideas y problemas, apoyarían mejor la inteligencia colectiva y las capacidades de resolución de problemas de nuestras sociedades – añade el especialista -. Necesitamos diversificar los propios modelos de inteligencia artificial y al mismo tiempo ajustar nuestra interacción con ellos, especialmente teniendo en cuenta su uso generalizado en diversas tareas y contextos para proteger la diversidad cognitiva y el potencial de ideación de las generaciones futuras».





