Desde hace meses, hemos advertido en este espacio semanal, los peligros de las Fake News y la poderosa combinación de engaño que resulta el manejo doloso de la Inteligencia Artificial. Hace tiempo dimos cuenta aquí de las falsas imágenes que representaban un “arresto” del expresidente Trump, luego vino la chamarra blanca del Papa y así cada tanto, a diario circulan imágenes falsas que toman por sorpresa a la población.
Pues bien, ahora se les ocurrió a los brillantes “activistas” de Amnistía Internacional, usar Inteligencia Artificial para crear “imágenes falsas” sobre un presunto abuso policiaco de las fuerzas del orden colombianas.
Sin presentar datos ni pruebas, se les hizo fácil “recrear” una presunta detención a “modo” donde se ve a una mujer con rasgos latinos ser detenida por presuntos policías con la banderita de Colombia y obvio ardieron al redes.
La ONG Amnistía Internacional fue inmediatamente criticada en redes por utilizar imágenes de Inteligencia Artificial (IA) para representar “la brutalidad policial en Colombia”. La principal organización mundial de derechos humanos publicó imágenes “falsas” que “muestran las protestas y la brutalidad policial en Colombia.” Pero todas eran una mentira realizada seguramente con Midjourney.
Frente a las burlas y críticas de expertos en periodismo y derechos humanos, Amnistía Noruega eliminó en unas horas los tuits que contenían las imágenes después de que la medida fuera condenada rotundamente por un estudioso de los medios que afirmaba que “devalúa” el trabajo de los fotógrafos. Y tienen razón. Al ya de por sí golpeado gremio del Fotoperiodismo, se le suma la desleal competencia de imágenes “ideales” que se generan tras una pantalla para sustituir la realidad y acusar a otras instituciones. Todo mal.
En un correo electrónico que Amnistía Internacional hizo llegar a un portal especializado llamado Peta Pixel, la ONG dice “que eliminó las imágenes para hacer una pausa y reflexionar más sobre el uso de la IA por parte de la organización”. Y agregan: “Esperamos que la eliminación de las imágenes nos ayude a crear conciencia sobre las violaciones de derechos humanos cometidas contra los manifestantes en Colombia”, dice su vocero.“Como hemos tomado en cuenta los comentarios y las críticas de que su uso solo distraía de nuestro mensaje central de apoyo a las víctimas y sus llamados a la justicia”. Puro rollo pues para terminar aceptando que se equivocaron.
Obviamente los comentaristas en redes y otros medios reaccionaron negativamente a las imágenes, pero Amnistía inicialmente defendió su estrategia diciéndole a “Gizmodo que usó IA para proteger a las personas presentes en las protestas después de consultar con organizaciones asociadas en Colombia”. Puras patrañas, insisto para hacer de la propaganda, algo más barato y conmovedor. Increíble.
Amnistía Internacional señaló además “que agregaron un descargo de responsabilidad en la parte inferior de las imágenes, señalando que las imágenes eran sintéticas para evitar “engañar” a alguien.” Si claro, como si el gran público reparara en una línea microscópica que alude a la IA en esa imagen. Por favor, más cinismo imposible.
En medio de tantas mentiras y la falta de controles éticos para esta nueva tecnología, hacen muy difícil la regulación de IA. Es por ello que la ética profesional se convierte en el último muro de defensa social para el uso indebido de estas imágenes. Es tal descontrol que incluso hoy se puede acusar de “falsa” una imagen real, así lo demuestran otros casos en donde los aludidos inmediatamente declaran una foto o video de abusos contra derechos humanos como una falsificación, lo mismo aplica para políticos pillados en trampas, reuniones o situaciones incómodas. Todo mundo miente y cada parte defiende su “verdad” haciendo casi imposible establecer con certeza los “hechos” reales.
Un periodista norteamericano se expresó también con relación a estas imágenes: “Se devalúa el trabajo de todos esos valientes reporteros y fotógrafos que han pasado décadas documentando violaciones de derechos humanos (y cuyas imágenes probablemente se usaron para entrenar el software que se usa aquí)”, agregó.
Pero, como se mencionó anteriormente, Amnistía dice que está reflexionando sobre el uso de la IA y agrega: “Actualmente, Amnistía Internacional no tiene una política a favor o en contra del uso de problemas generados por la IA”. Claro, por que no tienen ni idea de sus alcances y por lo visto, su gente no tiene un mínimo código de ética del uso de esa tecnología.
Aquí parte del comunicado de Amnistía en su propia defensa: “Amnistía Internacional es consciente del riesgo de desinformación si esta herramienta se utiliza de manera incorrecta. Por lo tanto, no nos esforzamos por crear resultados fotorrealistas e indicamos en las imágenes que se generan con IA”. Asimismo subrayan esto: “Antes de hacer más uso de la IA, analizaremos cómo puede ayudarnos a avanzar en nuestra misión de defender y promover los derechos humanos en todo el mundo de una manera que evite crear situaciones que puedan restar valor a nuestros mensajes y objetivos previstos”.
Y ya para rematar, Amnistía Internacional acepta que: “Nos tomamos en serio las críticas que hemos recibido y queremos asegurarnos de comprender mejor las implicaciones y nuestro papel para abordar los dilemas éticos que plantea el uso de esta tecnología. Como tal, no volveremos a utilizar imágenes generadas por IA hasta que tengamos una política clara al respecto”. Y tan tan.
Así las cosas, es obvio que la tentación de generar imágenes imposibles o impactantes está a flor de piel, pero eso es precisamente el trabajo del fotoperiodista. Su talento visual es su mejor herramienta. No devaluemos el trabajo de los colegas que se juegan la vida a diario en las calles. La Inteligencia Artificial llegó para quedarse, pero debe ser usada con ética profesional en todos los ámbitos de nuestra sociedad. No se distraigan.