¿Ha notado que, tan pronto como tiene hambre y se acerca la hora del almuerzo, le aparece un anuncio de comida mientras transita de un video a otro en sus redes? ¿Está preocupado por un tema de salud y le aparecen anuncios de productos milagrosos? Hasta ahí, es algo positivo que los algoritmos, cada vez más ágiles para adaptarse a nuestras necesidades y deseos, nos brinden un servicio en el momento. ¿Pero a qué costo?
El 9 de febrero de 2026, el sistema legal de Estados Unidos inició un proceso que promete ser el "momento tabacalero" de la era digital. En un tribunal de Los Ángeles, California, dio inicio un juicio sin precedentes que ha sentado en el banquillo a los gigantes tecnológicos Meta y Google. El caso, impulsado por una joven usuaria de redes sociales desde los seis años, acusa a estas corporaciones de diseñar deliberadamente productos adictivos que han descarrilado el desarrollo normal y la salud mental de toda una generación. No estamos ante un simple hábito de consumo, sino ante una dependencia estructural que se ha normalizado en nuestra vida cotidiana.
Como sociedad, hemos sucumbido a la narrativa de la responsabilidad individual, interpretando la dependencia digital como una mera falla de carácter o una carencia de autodisciplina. Esta visión traslada convenientemente el riesgo y las consecuencias al usuario, ignorando que lo que enfrentamos es una asimetría de poder estructural: la voluntad del individuo frente a una ingeniería diseñada para erosionarla.
Te podría interesar
Lo que estamos presenciando estas semanas, con el testimonio de figuras como Mark Zuckerberg, no es un simple litigio por daños, es la disección pública de un modelo de negocio que ha convertido la vulnerabilidad humana en su principal activo financiero. El juicio, que se espera dure al menos seis semanas, ha revelado documentos internos en los que el término "adicción del internauta" aparece no como un efecto secundario lamentable, sino como un objetivo declarado del diseño.
Lo que se ventila en las cortes es que el diseño de estas plataformas no es una evolución azarosa de la usabilidad, sino una ingeniería de precisión basada en las neurociencias. El centro de la acusación sostiene que las tecnologías "manufacuran" la adicción mediante mecanismos de refuerzo intermitente —como el scroll infinito y las notificaciones en tiempo real— que funcionan bajo la misma lógica neurobiológica que las máquinas tragamonedas: la entrega impredecible de una recompensa (un "like", un video viral, una gratificación instantánea) que dispara picos de dopamina y anula la capacidad de autocontrol.
La tecnología que cargamos en el bolsillo ya no nos pertenece; nosotros le pertenecemos a ella. Las empresas han perfeccionado algoritmos que adivinan nuestros pensamientos y atacan nuestras inseguridades para maximizar el tiempo de pantalla. Cuando la adicción es la norma y la desconexión genera angustia, la plataforma ha ganado.
Hasta ahora, el juicio ha revelado que no se trata de voluntad; es una batalla desigual entre la corteza prefrontal del usuario y una supercomputadora orientada a predecir y manipular su comportamiento. Las plataformas saben a qué hora somos más vulnerables y qué tipo de estímulos nos mantienen enganchados. Como ya advertía desde hace algunos años el documental El Dilema de las Redes Sociales, estas empresas no buscan el bienestar del usuario, sino la monetización de su tiempo de vida: un segundo extra a la vez, a cualquier costo.
La relevancia de este juicio radica en que se convertirá en un parteaguas legal para la rendición de cuentas. Las Big Tech suelen blindarse bajo la doctrina de la “libertad editorial” o el “secreto industrial”, argumentando que cualquier supervisión externa asfixiaría la innovación. No obstante, el estándar global está cambiando gracias a la Ley de Servicios Digitales (DSA) y la Ley de Inteligencia Artificial de la Unión Europea. Estos marcos legales, ya vigentes, obligan a las empresas a abandonar la opacidad y someterse a una gobernanza basada en el riesgo. Bajo esta ley, las plataformas no pueden decidir qué auditar; están obligadas por mandato gubernamental a permitir que expertos independientes revisen sus algoritmos para identificar 'riesgos sistémicos', como el diseño adictivo o la manipulación conductual, antes de que el daño sea irreversible.
Bajo este nuevo paradigma, los algoritmos dejan de ser considerados "discursos protegidos" para ser tratados como productos industriales. Si un algoritmo es defectuoso —por ejemplo, si sistemáticamente promueve contenido dañino a menores para aumentar el engagement—, la empresa debe ser responsable del defecto de diseño, no solo del contenido. Al igual que el tabaco o los fármacos, la infraestructura digital requiere auditorías algorítmicas independientes y evaluaciones de impacto antes de su despliegue masivo.
La verdadera sustancia de este debate no es la censura, sino la transparencia y la autonomía. Necesitamos políticas que obliguen a las plataformas a desvincular el alojamiento de contenidos de su jerarquización algorítmica (curación), permitiendo que el usuario elija su propio "filtro" en lugar de estar sometido a una caja negra opaca.
Si aceptamos límites a sustancias adictivas en aras de la salud pública, es urgente aplicar el mismo criterio al entorno digital que mediatiza nuestra realidad. Recuperar la soberanía sobre nuestra atención no es un tema de etiqueta digital. No es simplemente una decisión individual, sino el acto de resistencia política más urgente de nuestra década. La resistencia no es "dejar de usar el celular", sino exigir el derecho al diseño no adictivo.
Al igual que ocurrió con las tabacaleras, el juicio no se centra en el consumo del producto, sino en la manipulación deliberada de sus componentes para anular el libre albedrío. Si el algoritmo es la 'nicotina digital' de nuestra era, su regulación no es censura, sino una medida básica de higiene democrática.
El juicio contra Zuckerberg nos plantea una pregunta fundamental: ¿seguiremos permitiendo que el diseño de nuestro entorno esté orientado a la explotación de nuestras debilidades, o exigiremos una tecnología que respete la integridad de la conciencia humana?
