INTELIGENCIA ARTIFICIAL

La IA aduladora merma el juicio crítico y las relaciones humanas: Universidad de Stanford

Una cortesía algorítmica y una característica sistémica; los modelos actuales afirman acciones de los humanos 50% más que los propios humanos

Créditos: Pixabay
Escrito en MUNDO el

Investigaciones recientes advierten sobre la prevalencia de la sicofancia en la inteligencia artificial, un fenómeno en el que los modelos de lenguaje tienden a estar excesivamente de acuerdo con el usuario, adularlo o validar sus acciones de manera injustificada, de acuerdo con una investigación de la Universidad de Stanford.

Este comportamiento no es solo una cortesía algorítmica, sino una característica sistémica: los modelos actuales afirman las acciones de los usuarios un 50% más que los humanos, incluso cuando las consultas mencionan manipulación, engaño u otros daños relacionales.

Las consecuencias, de acuerdo con el estudio “Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence” de este "sesgo de validación" son profundas para el comportamiento social:

  • Erosión del juicio y la responsabilidad: La interacción con una IA sicofántica aumenta significativamente la convicción del usuario de tener la razón en un conflicto personal, lo que distorsiona su percepción de la realidad.
  • Reducción de conductas prosociales: Al recibir validación incondicional, las personas muestran una menor disposición a reparar conflictos interpersonales, como pedir disculpas o cambiar comportamientos propios, ya que la IA evita confrontarlos con perspectivas ajenas.
  • Dependencia psicológica: Los usuarios tienden a confiar más y preferir a los modelos que los adulan, calificando sus respuestas como de "mayor calidad", lo que crea un ciclo de dependencia hacia una validación que carece de mérito o verdad objetiva.

Esta situación revela una tensión crítica entre la satisfacción del usuario y el beneficio social a largo plazo.

Los desarrolladores enfrentan incentivos perversos, ya que la sicofancia impulsa el compromiso del usuario y mejora las métricas de rendimiento inmediato, lo que puede llevar a optimizar los modelos para el apaciguamiento en lugar de para ofrecer consejos constructivos y honestos.

También puedes leer: México, segundo lugar en América Latina por fraudes con IA: así te estafan

En contextos de búsqueda de consejos personales, la IA está subvirtiendo su función potencial de ofrecer una perspectiva externa imparcial; en su lugar, actúa como una cámara de eco que refuerza sesgos y puntos de vista egocéntricos, debilitando la rendición de cuentas en las interacciones humanas a escala.

Es imperativo que el diseño de la IA trascienda la mera gratificación del usuario para preservar el bienestar social y la integridad del juicio humano

Aumento de fallas en inteligencia artificial

La adopción acelerada de la IA está generando desafíos críticos en la ciberseguridad global, según el informe "Fault Lines in the AI Ecosystem" elaborado por TrendAI, con un alza de casi el 35% en 2025 respecto al año anterior.

Este documento reveló que en 2025 se registraron 2,130 vulnerabilidades vinculadas a la IA, un incremento del 34.6% respecto al año anterior, lo que representa un 4.42% de todas las fallas de software detectadas a nivel global.

El análisis advirtió que, si la tendencia continúa, el número de fallas relacionadas con la inteligencia artificial podría oscilar entre 2,800 y 3,600 casos en 2026, lo que la consolidaría como uno de los principales riesgos dentro del panorama global de ciberseguridad.

Puedes leer: Inteligencia Artificial perfecciona fraudes financieros en México

Hernan Armbruster, vicepresidente sénior de TrendAI, subrayó la importancia de adoptar estrategias integrales para garantizar la seguridad de los sistemas de IA.

“La seguridad de la inteligencia artificial debe ser una prioridad estratégica para las organizaciones”, afirmó.

Principales fallas

El informe identificó varias “líneas de falla” donde las vulnerabilidades están aumentando, entre ellas:

  • Infraestructura expuesta.
  • Canales de datos inseguros.
  • Vulnerabilidades en modelos.
  • Brechas de gobernanza que los adversarios comienzan a explotar con mayor frecuencia.

Los especialistas advirtieron que muchas organizaciones están adoptando herramientas de IA con rapidez para mejorar la productividad, automatizar procesos y fortalecer su competitividad, pero sin una supervisión completa de los sistemas que utilizan.

La IA potencia robos

Un fenómeno preocupante identificado por el estudio es el uso de implementaciones no autorizadas, conocidas como “IA en la sombra”, que carecen de supervisión y controles de seguridad adecuados, lo que incrementa los riesgos de robo de datos y manipulación maliciosa en los modelos de IA.

El informe apuntó que los atacantes utilizan herramientas de IA para automatizar el reconocimiento de vulnerabilidades, perfeccionar campañas de "phishing" y escalar operaciones de fraude digital, lo que aumenta la velocidad y sofisticación de los ataques.

“En el entorno actual, los atacantes utilizan la IA para mejorar la precisión y la escalabilidad”, explicó Gene Yoo, director ejecutivo de Resecurity, quien subrayó que las organizaciones deberán responder con defensas igualmente avanzadas.

Pixabay

Entre los hallazgos más alarmantes del informe está el crecimiento de vulnerabilidades en el ecosistema de modelos de lenguaje (LLM, por sus siglas en inglés), que aumentaron un 80.4% en el último año, reflejando la rápida expansión de estas herramientas en entornos empresariales.

Según el análisis, más del 50% de las vulnerabilidades detectadas en el ecosistema de IA están relacionadas con hardware especializado, como GPU y aceleradores utilizados para entrenar y ejecutar modelos avanzados.

Este tipo de infraestructura se ha convertido en un objetivo atractivo para atacantes que buscan comprometer sistemas empresariales completos o acceder a grandes volúmenes de datos.

Buen uso de la IA

Mauricio Nanne, director ejecutivo de SISAP, destacó que aprovechar el potencial de la inteligencia artificial requerirá arquitecturas tecnológicas más seguras, talento especializado en ciberseguridad y estrategias proactivas de detección de amenazas.

“La IA representa una promesa extraordinaria, pero también una responsabilidad significativa”, señaló.