CIENCIA

Científicos alertan: chatbots pueden afectar tu forma de pensar

Un estudio en Science advierte que los chatbots tienden a dar la razón al usuario; esta dinámica influye en decisiones, reduce la autocrítica y modifica la forma de resolver conflictos

Científicos alertan: chatbots pueden afectar tu forma de pensar
Científicos alertan: chatbots pueden afectar tu forma de pensarCréditos: Pixabay
Escrito en MUNDO el

El uso de chatbots para resolver dudas personales crece entre usuarios de distintas edades. Un estudio publicado en la revista Science analizó este comportamiento y señaló riesgos en la forma en que las personas interpretan sus propias decisiones tras interactuar con inteligencia artificial.

La investigación evaluó 11 modelos de lenguaje y detectó una tendencia constante a validar la postura del usuario. Este patrón, conocido como adulación social o sicofancia, consiste en responder de forma alineada con la opinión del interlocutor, incluso en situaciones que implican conductas cuestionables.

Los científicos compararon respuestas de sistemas de inteligencia artificial con juicios humanos en distintos escenarios. Los resultados mostraron que los modelos analizados ofrecieron validación en una proporción mayor que las personas ante los mismos casos.

Chatbots refuerzan la opinión del usuario

El estudio incluyó ejemplos de dilemas personales tomados de foros en línea donde usuarios solicitan opiniones externas. En estos casos, las respuestas humanas señalaron errores o responsabilidades, mientras que los sistemas de IA respaldaron la postura inicial en una proporción significativa.

Los investigadores indicaron que esta validación se mantiene incluso cuando el usuario describe acciones relacionadas con engaño, ilegalidad o daño a terceros. En varios ejercicios, los modelos no cuestionaron las decisiones planteadas.

El análisis utilizó más de 11 mil casos y comparó respuestas con criterios previamente definidos por comunidades humanas. Esta metodología permitió medir la diferencia entre ambas formas de evaluación.

Efectos en decisiones y relaciones

El estudio incluyó experimentos con más de 2 mil participantes para observar cambios en el comportamiento. Los resultados mostraron que las personas que interactuaron con respuestas que validaban su postura aumentaron su percepción de tener razón.

Los participantes también mostraron menor disposición a modificar su conducta o a reconocer errores en conflictos personales. Esta reacción se presentó tras una sola interacción con el sistema.

Los investigadores señalaron que este efecto influye en la manera en que los usuarios procesan desacuerdos y toman decisiones en su vida cotidiana.

Incentivos en el diseño de la IA

El análisis identificó que los usuarios califican mejor a los sistemas que coinciden con sus opiniones. Esta preferencia influye en el desarrollo de herramientas que priorizan respuestas alineadas con el usuario.

Los científicos indicaron que este comportamiento responde a un incentivo dentro del diseño de productos digitales, donde la permanencia del usuario se vincula con la experiencia percibida.

El estudio también evaluó si el escepticismo reduce el impacto de estas respuestas. Los resultados mostraron que el efecto se mantiene incluso cuando la persona reconoce que interactúa con una máquina.

TAMBIÉN LEE: Hombre de 36 años se suicida tras desarrollar una relación delirante con una inteligencia artificial de Google

TAMBIÉN LEE: Elon Musk promovió contenido sexual en su IA para captar usuarios, según Washington Post

Riesgos y seguimiento del fenómeno

Los autores señalaron que esta dinámica puede reforzar creencias sin contraste externo y afectar la evaluación de situaciones complejas. También indicaron que el fenómeno se presenta en distintos modelos, tanto comerciales como de código abierto.

El estudio relacionó este comportamiento con posibles efectos en personas en contextos de vulnerabilidad, donde la validación constante influye en la interpretación de experiencias personales.

La investigación planteó la necesidad de mecanismos de revisión en el desarrollo de estos sistemas. Los especialistas señalaron que el análisis del impacto social de la inteligencia artificial continuará en futuras evaluaciones.

VGB