Seguramente le ha pasado, como a mí, encontrarse con algún familiar, amigo o conocido que tiene ideas muy arraigadas sobre cierto tema. En ocasiones podremos estar de acuerdo, o no, según nuestra ideología, experiencia o formación. Esto es lo más natural y quizás el ejercicio cotidiano más elemental en sociedad.
Sin embargo, algo preocupante surge cuando estas ideas arraigadas no provienen exclusivamente de convicciones personales, sino de un espiral de consumo de contenidos basados en algoritmos de computadora. Tome el tema que guste: que si la tierra es plana, que si Rusia en realidad es buena onda, que si George Soros mueve los hilos del mundo, o que si estamos a punto de ser Venezuela.
Información a medias, teorías de la conspiración y demás contenidos que jalen usuarios en YouTube, X, Facebook, o TikTok se valen con tal de que unos moneticen contenidos y otros paguen sus estrategias de propaganda.
Te podría interesar
Basta con buscar algún tema o darle follow a un usuario para que los algoritmos hagan su trabajo: arrojarnos contenidos con gente y argumentos similares. Son tan sofisticados que recomiendan y enlistan videos según cuántos segundos pasamos en un determinado contenido, a qué comentario reaccionamos o con qué velocidad de desplazamiento vamos.
Esta personalización llevada al límite nos encapsula en burbujas individuales en donde, sin darnos cuenta, terminamos escuchando solo lo que queremos escuchar. No es el interés de los contenidos informarnos, sino es que pasemos el mayor tiempo posible frente a una pantalla para hacer dinero. Funciona más o menos así: ves algo, te picas, empiezas a sentir que tiene lógica lo que dice el video, arroja otras cosas que te parecen interesantes, y sin darte cuenta terminas en un universo propio de gente que habla y valida ideas entre sí.
Pasó una vez que un amigo terraplanista insistía en la teoría de la tierra plana, y me compartió unos vínculos de YouTube. Empecé a ver unos vídeos muy bien hechos, con argumentos que guardaban tan bien sus trampas que, como buenos seductores de la conspiración, te sembraban una que otra duda. Más bastó un poco de cordura, y otro tanto de sentido común para ver lo que estaba consumiendo.
Desafortunadamente, no todos los temas son tan evidentes, ni tampoco hay siempre ganas de escuchar ideas distintas. Una vez que la concepción sobre algo se fija en el cerebro, la validación de esa idea se vuelve una práctica obsesiva que los algoritmos se encargan de alimentar. Quien quiera estar convencido de que Claudia o Xóchitl va a ganar, de si AMLO es demócrata o autoritario, o si Pedro Infante sigue vivo, podrá encontrar su propio universo.
Lo interesante es que esta condición no se trata de personas listas o ingenuas, sino de una forma de vida parasitaria, como lo explica Byung-Chul Han sobre el caso de los memes, en donde los algoritmos determinan nuestro consumo e influyen en nuestras percepciones.
A medida que más avancemos hacia la comodidad de la personalización, en donde busquemos validaciones y no pluralidad y confirmación, mayor número de multiversos estaremos viviendo unos con otros. No tengo claro a qué camino podría llevar, pero seguramente no es ninguno bueno.