Deepfakes: la desinformación no se detiene
Matías Enríquez

Participante del Programa de Jóvenes Investigadores y Comunicadores Sociales 2020. Periodista argentino que ha trabajado en diferentes medios de comunicación, actualmente dedicándose a la comunicación institucional de organismos de gobierno. Trabajó en diferentes medios gráficos como El Mundo (España), Marca (España) y ESPN-La Revista (Estados Unidos), en radio y TV. Fue corresponsal, redactor, movilero, editor, columnista, conductor y productor. También se desempeña como docente en talleres de Comunicación, Periodismo y Argumentación. Ha publicado columnas de opinión en diferentes medios como Infobae, Diario Perfil, ADN Ciudad, Mundiario  y Visión Liberal, entre otros. 





Creamos este proyecto para cambiar vidas". Esta vez le tocó al delantero colombiano del Liverpool, Luis Díaz, quien fue utilizado como carnada. El programa para ayudar personas en Colombia y darles dinero configura una auténtica estafa, mediante un contenido creado por inteligencia artificial que imita con bastante precisión su rostro y voz.
El caso Díaz se suma a otros más, vinculados a la política, como el del líder del partido Eslovaquia ProgresistaMichal Šimečka, cuya voz fue utilizada previo a las elecciones de dicho país del año pasado informando sobre supuestos planes de manipulación y compra de votos.
Ni es necesario imaginarse el revuelo que generó esta noticia en pleno proceso electoral. Con diferente impacto en el sufragio, pero similar intención fue lo que ocurrió con el propio presidente de Estados Unidos, Joe Biden, cuya voz se utilizó para llamar a los votantes previo a las elecciones primarias presidenciales de New Hampshire en enero de este año, para desalentar su participación en las primarias y guardar el sufragio para el mes de noviembre.
Los episodios de Colombia, Eslovaquia y Estados Unidos son solo algunos ejemplos de esta nueva metodología de desinformación que se denomina deepfake y se han vuelto moneda corriente por estos tiempos. Este tipo de contenidos, que utilizan los beneficios de la inteligencia artificial para ocasionar un daño, parecen reales, pero son falsos y, por consiguiente, sumamente engañosos.
La diferencia con otros contenidos que solíamos recibir y la complejidad para rastrearlos nos vuelve víctimas fáciles del engaño que buscan ocasionar, por su creación o manipulación con la mencionada inteligencia artificial. De esta manera, nos sentimos un tanto idiotas creyendo que a quien estábamos viendo sí era Luis Díaz o que en verdad sí estábamos escuchando al propio presidente Biden. Pero nada de eso pasó.
Esta nueva tendencia que está en auge y que, por ejemplo, ya ha ocasionado situaciones de hackeo a la seguridad biométrica, nos instala ante un nuevo paradigma que ha erosionado por completo la delgada línea entre realidad y ficción. Tal como presagiaron muchas consultoras expertas en la temática en años anteriores: cada vez tendremos más dificultades para distinguir lo cierto de lo falso.
El impacto de esta situación es total en materia de aumento de la desconfianza de todo lo que vemos y oímos y erosión de la credibilidad en las democracias modernas. Desde casos como los de Biden o Šimečka hasta bots que difunden información falsa o engañosa, vivimos tiempos realmente complejos y peligrosos para nuestras instituciones, justo en momentos donde la falta de confianza sobre ellas viene in crescendo.
El peligro de estos nuevos contenidos falsos es su dificultad para rastrear su veracidad, lo cual crea un clima propicio de inestabilidad de la verdad, tal como la conocíamos. Esta nueva desinformación es mucho más certera en su objetivo y no parecen haber muchos escenarios optimistas. De hecho, todo lo contrario: El panorama es desolador dado que las deepfakes sólo empeorarán.
Al igual que como hemos sostenido durante varios años frente a la desinformación más "tradicional" (por así llamarla), la alfabetización individual puede ser un buen aliado a la hora de no caer en estos contenidos. Entre las innumerables recomendaciones que brindan diversos especialistas en la materia, es imprescindible informarse sobre estas nuevas tecnologías, cultivar un pensamiento crítico que nos permita desarrollar habilidades para no caer en ellas y familiarizarse con las tácticas comunes utilizadas en la creación y difusión de esta nueva metodología de desinformación.
Frente a los habituales casos de videos que recibimos, debemos prestar particular atención a la calidad de los videos, la voz de los individuos y la fuente de los mismos. En el caso de Díaz, el audio no suena de una manera fluida y natural, incluso siendo su voz quizás no muy conocida por muchas personas, uno logra darse cuenta de que hay algo raro en su tono. El lenguaje no verbal y la particular atención sobre los rostros de las personas también pueden ser un gran compinche para distinguir las deepfakes, dado que suele ocurrir que se utilicen algunos patrones de superposición de caras que desnuden ciertos fallos de sincronización de audio y movimiento de la cara, algo así como un playback mal realizado. Eso sí, debemos mirar las piezas con atención y no solamente hacerlas partícipes de nuestro scrolleo multipantallas sin prestarle nuestra mirada.
En esta era digital que nos toca atravesar, en donde lo real y lo artificial se entrelazan cada vez más, las deepfakes crecen como un espejismo tecnológico que lo único que hace es desafiar nuestra percepción de la verdad. Desconfiar de todo lo que vemos y escuchamos parece ser una de las formas más elegidas a la hora de protegerse de ellas por parte de muchísimas personas, pero también nos aliena de todo lo que sucede a nuestro alrededor. No hay una fórmula precisa pero quizás tener un cierto grado de escepticismo informado y educarnos un poco más sobre estas tecnologías sea una buena metodología para fortalecer nuestra resiliencia frente a las deepfakes, no solo en nuestra defensa propia sino también para preservar las democracias, tal como las conocemos.

Publicado en diario Perfil.




 

Últimos 5 Artículos del Autor
Para los fieles creyentes de la astrología, será que la luna está e...
[Ver mas artículos del autor]