Amaka, una productora de vídeo nigeriana, recibe el encargo de realizar un vídeo falso indetectable de un político. Está en apuros. ¿Debe cosechar las atractivas recompensas financieras de esta falsificación, o debe permanecer fiel a sus principios morales?
Las falsificaciones profundas ya no pueden detectarse a simple vista gracias a potentes técnicas informáticas y de aprendizaje automático que los expertos en IA denominan «redes adversarias hipergenerativas».
Identificarlos requiere complejos algoritmos de validación y una enorme potencia de cálculo. Pero Amaka tiene la habilidad de engañar a los programas de detección, y está considerando la posibilidad de explotar estas herramientas con fines ilícitos.
La historia anterior es un escenario potencial esbozado por Chen Qiu-Fan y Li Kai-Fu en su libro AI 2041 (puede leer ese fragmento concreto aquí). Entremezclando ficción y no ficción, el libro describe un futuro en el que la creación y detección de falsificaciones es un juego global de ojo por ojo. Un mundo en el que ya no podemos confiar en nuestros ojos y oídos cuando vemos vídeos en Internet ya no es ciencia ficción.
¿Qué es un Deepfake?
La creación de deepfakes (imitaciones hiperrealistas de contenidos audiovisuales) es cada vez más fácil y barata. Como resultado, el número de deepfakes se ha disparado: en solo un año, de 2019 a 2020, el número de deepfakes se ha multiplicado por 6.820, pasando de 14.678 a 100 millones de vídeos.
Desde la famosa imitación de Barack Obama por parte del cómico Jordan Peele, pasando por la popularidad de la cuenta de TikTok DeepTomCruise, hasta el uso de la tecnología deepfake para encubrir a Robert De Niro en la película The Irishmen En muchos casos, los deepfakes se crean con fines puramente de entretenimiento.
Pero hay un lado más oscuro en los deepfakes. Pueden arruinar la reputación haciendo que los periodistas aparezcan en vídeos pornográficos, pueden utilizarse como una herramienta popular en las campañas de desinformación política y pueden permitir formas totalmente nuevas de engaño interpersonal.
Por esta razón, los responsables políticos y los investigadores advierten al público sobre los peligros potenciales de los deepfakes.
De hecho, parece que mucha gente no está preparada. Gracias a las técnicas de imitación, los estafadores pueden alcanzar nuevas cotas en los ataques de phishing. En un ejemplo, los delincuentes estafaron a una empresa más de 240.000 dólares haciéndose pasar por la voz de su director general.
Como nueva herramienta de desinformación, los deepfakes pueden así socavar la democracia (Aral, 2020). La cuestión que se plantea es cómo la gente puede mejorar su precisión en la detección de falsificaciones profundas para evitar caer en ellas.
Un artículo anterior del blog Psychology Today sugiere que concienciar sobre la importancia de detectar las falsificaciones profundas y fomentar un pensamiento más crítico puede ayudar. Probamos esta misma intervención en un estudio que mostró un exceso de confianza en nuestra capacidad de detección.
Los resultados sugieren que la concienciación de las personas sobre los efectos negativos de las falsificaciones profundas no mejora la precisión de detección de los sujetos en comparación con un grupo de control que no fue concienciado. Esto sugiere que el hecho de que la gente se deje engañar por las falsificaciones puede ser más una cuestión de motivación que de habilidad.
Esto es lo que distingue a Deepfake de otras formas de desinformación, como los artículos de noticias falsas. Por lo tanto, pedimos que se siga investigando para determinar si los deepfakes representan un reto totalmente nuevo para las sociedades democráticas o si son simplemente «vino viejo en una botella nueva».