Víctor Hugo Islas Suárez 

Deepfake es un término que se usa cada vez más con preocupación en los medios de comunicación, El término deepfake nació de la unión de dos conceptos: el deep learning, como se conoce al aprendizaje profundo de sistemas de inteligencia artificial y la palabra fake, falso, la palabra se acuñó en un foro de Reddit, cuando se hicieron virales videos en que, supuestamente, algunas celebridades tenían relaciones sexuales. 

Lo que pasó, básicamente, es que algunos usuarios usaron un software para poner el rostro de actrices de Hollywood como Natalie Portman, Daisy Ridle, Jessica Alba, Emma Watson, entre otras en videos de actrices porno. Desde que ocurrió esto, en 2018, se han perfeccionado las herramientas para que la generación de estos videos truqueados donde se suplanta la identidad parezcan más reales. 

A partir de ahí, empezó a extenderse su uso hasta superponer el rostro de una persona en un video donde sale otra persona, igualando gestos para hacerle creer a quien lo ve que quien sale en el video es alguien más. 

Para detener el avance del deepfake, en Estados Unidos se comenzó a penalizar la distribución de imágenes y videos pornográficos falsos desde julio de 2019. Sin embargo, cada vez más hay videos deepfake que no tienen contenido sexual, sino que se suplantan identidades de personas famosas diciendo o haciendo cosas que jamás harían. 

¿Cómo se hace un deepfake? 

En realidad, ahora es muy sencillo hacer un deepfake con la tecnología que existe. FakeApp, por ejemplo, es una de muchas aplicaciones que se pueden descargar para hacerlo. Una vez teniendo el software, se recopilan videos de las personas que quieras intercambiar, los cargas en el programa y listo, la inteligencia artificial hace el resto. 

Los programas de deepfake trabajan cada video como si se tratara de una fotografía y extraen cuadro por cuadro cada imagen que subas. De manera que entre más videos uses, con diferentes iluminaciones, es decir, mientras más información le des a la inteligencia artificial el resultado parecerá más real. 

¿Por qué debería preocuparnos? 

Esta tecnología comenzó a utilizarse para generar variaciones en algunas escenas icónicas del cine. Por ejemplo, la del actor Jim Carrey (The Mask) «suplantando» a Jack Nicholson en tres videos de la película The Shining. 

Los videos están alojados desde julio de este año, en un canal de YouTube llamado Ctrl Shift Face. Un mes después de la impresionante manipulación del rostro de Nicholson, apareció otro deepfake realmente digno de espantarnos.  

La base de este nuevo deepfake fue una entrevista que dio el comediante Bill Hader en 2008 a David Letterman, en donde el actor cuenta anécdotas de su trabajo con otros actores. Con una sincronización de gestos casi perfecta la cara del actor de It: Chapter Two se transforma en la de Tom Cruise (Top Gun: Maverick) y luego la de Seth Rogen (The Interview), de quienes habla e imita en la entrevista original. 

Por último, las consecuencias no solo pueden pensarse en términos masivos, advierte como la manipulación de una elección mediante mensajes falsos; también en círculos más pequeños, como el potencial riesgo para hacer bullying a un compañero de escuela o para que las agencias de publicidad generen nuevos patrones de belleza, manipulando a placer cualquier físico. 

Y muchos aún se preocupan de darle datos biométricos a algún gobierno, mientras que al usar esas aplicaciones le están dando hasta su ubicación en tiempo real, sin dejar de mencionar datos de todo su rostro.