En las últimas semanas se ha hecho evidente un aumento preocupante de incidentes vinculados al uso de inteligencia artificial en operaciones críticas, desde borrados accidentales de bases de datos hasta ataques deliberados que aprovechan la autonomía de los sistemas. Informes recientes señalan que 68% de las organizaciones han sufrido filtraciones de datos vinculadas al uso de herramientas de IA, mientras que sólo 23% cuenta con políticas de seguridad formales para mitigar estos riesgos. El costo promedio de una filtración de datos alcanzó los 4.88 millones de dólares en 2026 y las pérdidas globales por ciberdelitos superaron los 16.6 mil millones, un incremento del 33% respecto a 2023.
Diversos reportes de 2026 muestran que los ataques y fallos relacionados con la inteligencia artificial han crecido de manera acelerada y con consecuencias cada vez más graves. Se documentaron campañas de phishing automatizado con correos generados por IA que lograron tasas de éxito muy superiores a las tradicionales, afectando especialmente a instituciones financieras. También se han registrado incidentes en modelos de lenguaje que permitieron a atacantes manipular sistemas para ejecutar comandos no autorizados. En otro caso ampliamente difundido, un actor malicioso utilizó herramientas generativas para automatizar el reconocimiento de vulnerabilidades en infraestructuras de red de varios países, reduciendo drásticamente el tiempo necesario para comprometer sistemas que antes requerían equipos altamente especializados.
El caso más reciente fue el de PocketOS, que marca un punto de inflexión en la discusión sobre la autonomía de los agentes de inteligencia artificial en entornos sensibles. En cuestión de segundos, un agente informático borró la base de datos de producción y todas las copias de seguridad de una plataforma que sirve a pequeñas empresas de renta de autos, eliminando meses de reservas y registros operativos. El error se originó por permisos excesivos y en una arquitectura de almacenamiento que guardaba respaldos en el mismo volumen que producción, lo que permitió que la acción del agente tuviera un alcance devastador. Aunque la empresa logró restaurar parte de la información en una hora, enfrentó más de treinta horas de interrupción y tuvo que reconstruir manualmente datos esenciales desde correos y pagos, lo que puso en evidencia la fragilidad de confiar en sistemas automatizados sin controles humanos.
Te podría interesar
Estos incidentes reflejan un patrón común, donde la inteligencia artificial no sólo acelera los ataques tradicionales, como el robo de credenciales o la escalada de privilegios, sino que también introduce nuevas formas de explotación que las defensas clásicas no están preparadas para enfrentar. En este contexto, el caso de PocketOS no es un hecho aislado, sino parte de una tendencia más amplia en la que la autonomía de los agentes de IA, combinada con configuraciones inseguras y falta de gobernanza, está generando daños reales y tangibles. Más allá del impacto inmediato en las operaciones, estos incidentes abren un debate sobre la responsabilidad compartida entre las empresas de software, las plataformas de infraestructura y los desarrolladores de IA.
El caso debería servir como advertencia para toda la industria tecnológica, porque la autonomía de la inteligencia artificial no puede estar por encima de la necesidad de salvaguardas robustas. Los sistemas críticos requieren confirmaciones humanas obligatorias, segmentación estricta de permisos y respaldos almacenados en entornos aislados. De lo contrario, el riesgo de que un agente actúe de manera destructiva, seguirá siendo una amenaza latente.
En un mundo donde las pequeñas y grandes empresas dependen cada vez más de plataformas digitales para sobrevivir, un incidente como el de PocketOS no sólo es un problema técnico, sino un recordatorio de que la confianza en la inteligencia artificial debe construirse sobre la base de la responsabilidad, la transparencia y la seguridad.
