
El fin de la evidencia tal como la conocíamos
Primero fue el papa Francisco con una campera blanca hiper cool que parecía salida de una portada de un disco de trap. Luego fue Donald Trump, arrastrado por policías en lo que era su supuesta de...
Primero fue el papa Francisco con una campera blanca hiper cool que parecía salida de una portada de un disco de trap. Luego fue Donald Trump, arrastrado por policías en lo que era su supuesta detención en Nueva York, hecho que podía suceder cerca a los días en los que se difundió a imagen. Pero no queda sólo en imágenes, existen audios y videos generados con inteligencia artificial (IA) con un resultado casi indistinguible a la realidad que están generando confusión y que acarrean posibles peligros en su utilización con fines maliciosos.
Las apps de IA mejoran semana a semana. Las versiones de Midjourney, la app utilizada para crear al “Papa cool” es una de las vedettes, pero las hay de a decenas. Imaginen recibir un audio por whatsapp de un ser querido pidiendo una ayuda urgente y que este sea un deepfake o ver un video de un referente político arengando una revuelta. Bueno, todo esto ya está pasando. Herramientas que clonan y que recrean una voz, una imagen o un video con resultados realistas, que inventan hechos y situaciones con nuestros sesgos de confirmación como alimento para el desastre.
Es solo cuestión de escribir el “prompt” atinado, así se llama al comando que se ingresa para que la IA haga su magia, para tener resultados creíbles. Creo que no vale la pena centrarnos en que todavía no son perfectos, en que es “fácil” reconocer su falsedad. Pronto no lo será. Creo que sí vale la pena pensar en las enormes implicancias que supone esto para la verificación de la verdad y en el potencial peligro que esto supone para la viralización de hechos apócrifos. Más teniendo en cuenta que lo falso se comparte tantísimo más que lo real. Un informe del MIT, publicado en la revista Science en 2018, demostró que las noticias falsas se comparten en promedio un 70% más que las veraces. Y este informe es anterior a la proliferación de estas herramientas de IA.
Esta semana, por ejemplo, Tiktok anunció que prohibirá en su plataforma el uso de deepfakes. Anteriormente, la plataforma solo tenía un pequeño aviso recomendando a los usuarios no subir contenido que podría manipular la realidad e información. A partir de ahora, la nueva prohibición obligaría a etiquetar todo el contenido que sea generado por inteligencia artificial. Una noticia que seguramente derrame en el resto de las redes sociales.
¿Qué hacemos con todo esto? En principio dudamos, dudamos más que nunca y no difundimos antes de intentar algún tipo de chequeo de veracidad. ¿Otra idea? Hacer consciente nuestro sesgo de confirmación con el que llegamos a ese contenido y en tercer lugar, formarnos. Es necesaria una nueva alfabetización mediática que nos permita analizar lo que vemos y escuchamos, que nos de herramientas para formar nuestra mirada y accionar crítico.