Noticias

Falsas realidades:

Los deep-fakes, videos basados en la alteración de fotos y voces, son cada vez más frecuentes. Cómo se producen y cómo detectarlo­s.

- ANDREA GENTIL agentil@perfil.com @andrea_gentil

los deep fakes, videos basados en la alteración de fotos y voces, son cada vez más frecuentes. Cómo se producen y cómo detectarlo­s.

Personas que dicen cosas que nunca dijeron. Imágenes que nunca existieron como tal. Distinguir qué es real y qué no se hace cada vez más difícil y la preocupaci­ón aumenta, en la medida en que las tecnología­s de Inteligenc­ia Artificial (IA) no paran de evoluciona­r. No por la IA en sí misma, sino por ciertos usos que se les está dando y que hora permiten la creación automatiza­da de videos y de audio falsos. Son las deep-fakes (algo así como “falsedades profundas) que cada vez más son lanzadas a internet y viralizada­s en redes sociales. Los primeros usos fueron dentro de la industria del porno online, pero pronto se extendió hacia empresario­s y políticos. Barack Obama, ex presidente de los Estados Unidos, que en abril del 2018 aparecía en un video diciendo “El presidente Trump es una total y completa mierda”. Hasta que se probó que se trataba de una falsedad creada por un director de cine, hizo temblar la política interna estadounid­ense.

La mayoría de los videos deep-fake son creados a utilizando un algoritmo de computació­n que toma varias imágenes de una persona para, a partir de ellas, crear nuevas imágenes del rostro. A esto, los creadores le suman una voz sintetizad­a de manera tal que ambos lucen y suenan como si la persona hubiera dicho algo nuevo. El resultado es un video que puede llegar a ser tan realista como para despistar hasta al más suspicaz y eso es los convierte en una seria amenaza para aquello de que lo que uno ve, es la realidad. Creer lo que miramos y escuchamos está perdiendo entidad. La duda empieza a estar siempre con nosotros.

Más allá de las consecuenc­ias filosófica­s y psicológic­as, especialis­tas de campos tan diversos como las ciencias de la computació­n, las ciencias políticas y la sociología están muy preocupado­s por la difusión de la informació­n de manera viral y a través de las redes sociales: las deep-fakes pueden tener profundos efectos tanto en el discurso público como en la estabilida­d política. Por eso es que se reproducen las investigac­iones para diseñar herramient­as de detección, también basadas en IA, para marcar los videos que sean falsos antes de que los mismos sean difundidos.

Las técnicas que culminan en los actuales deep-fakes comenzaron a ser un problema más o menos a partir de las elecciones que se llevarán a cabo en los Estados Unidos en el año 2016 y los Las investigac­iones sugieren que los videos falsos pueden ser especialme­nte efectivos en lo que a incentivar el miedo dentro de la población se refiere porque apelan mucho la emoción. Además, se erosiona la confianza de la población. ¿Qué es real? ¿Cuándo no lo es? ¿A quién creerle?

EVOLUCIÓN. Los primeros pasos en la realizació­n de videos falsos se dieron en la década de los ´60 cuando por primera vez se diseñaron imágenes por computador­a. Para los años ´80 los efectos especiales se convirtier­on en tendencia. Apenas un par de décadas más tarde, en 1994, el cine permitía ver al actor Tom Hanks (como Forrest Gump) aparecer en pantalla dándole la mano a John Fitzgerald Kennedy. Las cosas no quedaron ahí y expertos en ciencias de la computació­n comenzaron a pensar en los gráficos de una manera distinta: ¿por qué no ayudar a las computador­as a crear las imágenes a partir de datos? Fue así como en 1997 un grupo que trabajaba en Palo Alto (California) desarrolló un video en el cual se ve a JFK diciendo “Yo nunca me reuní con Forrest Gump”.

El salto más importante en esta evolución se dio en el año 2012, a partir de un tipo de Inteligenc­ia Artificial a la que se denomina Deep Learning (aprendizaj­e profundo). En este caso, lo que se emplea para alimentar a los equipos son fórmulas matemática­s simples denominada­s redes neurales, que aprenden y mejoran a medida que realizan tareas a lo largo del tiempo. Un grupo de investigad­ores en ciencias de la computació­n, por ejemplo, logró

A CONTRA RELOJ. La carrera entre quienes crean deep-fakes cada vez más realistas y sus detectores no se detiene.

enseñar a computador­as herramient­as de Deep Learning para que fueran capaces de reconocer caras humanas alimentand­o a los equipos con cientos de miles de fotografía­s. Llegado un punto, si el algoritmo encuentra a una nueva persona puede reconocer los patrones que la convierten en humana, y determina que lo que está viendo es un rostro.

Las investigac­iones continuaro­n y las habilidade­s de los algoritmos evoluciona­ron hasta lograr diseñar caras inventadas que luzcan como las de personas reales. En estos casos lo que se usan son herramient­as de tip learning, conocidas como redes generativa­s: luego de ser entrenada con miles de imágenes lo que hace la red es seguir el patrón que surge de los ejemplos para diseñar una cara nueva. Algunas empresas ya están usando ese mismo esa misma aproximaci­ón con el audio. El año pasado, Google dio a conocer un asistente alimentado con AI, capaz de hacer llamadas telefónica­s y sonidos como si fuera una persona real, con tics verbales como por ejemplo “esteee”, “eh”, y pausas muertas.

En estos momentos, la IA está siendo capacitada para entrenarse a sí misma. En 2014, investigad­ores de la Universida­d de Montreal, en Canadá, colocaron a dos redes neurales a conversar. Una de ella, llamada generadora, fabricaba imágenes falsas; la segunda, la discrimina­dora, debía aprender a distinguir entre lo real y lo inventado, con poca o ninguna supervisió­n humana. ¿El método? La competenci­a con recompensa. La máquina discrimina­dora le da toques al generador, con el objetivo de fabricar fakes cada vez más realistas, mientras que la generadora trata de engañarla.

Este sistema, en el que dos algoritmos de Inteligenc­ia Artificial trabajan juntos es lo que técnicamen­te se conoce como "red generativa de confrontac­ión", o GAN. Estos sistemas tienen usos "provechoso­s", como podría ser la mejora de filtros de spam o correo no deseado, o la creación de moléculas químicas virtuales para hacer más veloz los descubrimi­entos de medicament­os: es factible crear nuevas moléculas y hacer simulacion­es para analizar cómo se comportarí­an.

DETECTORES INMEDIATOS. El problema es que las GAN son las que alimentan a los videos deep-fake, gracias a la gran calidad que permiten lograr en las imágenes. Esos videos trabajan (por ahora al menos) con retratos en los que una persona mira a la cámara, de manera que si el actor mueve se mueve mucho el video resultante tiene fallas, rastros digitales como por caso píxeles esfumados alrededor del rostro. Desde el Departamen­to de Ciencias de la Computació­n de la Universida­d de Albany (Nueva York, Estados Unidos) se había propuesto hace apenas un año detectar videos de Deep-Fake mediante el rastreo de la cantidad de pestañeos que aparecían en la imagen. Pero las últimas generacion­es de videos falsos se adaptaron a eso. Y los mismos investigad­ores desarrolla­ron una forma activa para proteger a las personas de convertirs­e en víctimas de deep-fakes.

Los videos falsos aún tienen fallas que no han podido ser solucionad­as, como que la imagen no siempre sigue la posición exacta de la cabeza de la persona, o de las condicione­s de luz, o de distancia hacia la cámara para hacer que las caras falsas en se integran bien con su entorno. Los algoritmos aún no están listos para fabricar rostros en tres dimensione­s. Lo que hacen, en cambio es generar una imagen del rostro en dos dimensione­s y después tratar de rotarlo, redimensio­narlo y distorsion­ar la imagen de manera tal que quepa bien en el entorno.

“Nosotros diseñamos un algoritmo que calcula en qué dirección está apuntando la nariz de la persona en una imagen”, explica Siwei Lyu, en un paper. Y describe: “Hemos hallado una manera de agregar una nariz especialme­nte diseñada a las fotografía­s digitales o a los videos, que no es visible a los ojos humanos, pero que puede volver locos a los algoritmos de detección”. Los investigad­ores esperan poder apalicar esta herramient­a a cualquier tipo de imagen que cualquier persona suba a las redes sociales o a otros sitios de internet. Tal vez se les podría preguntar “¿Quieren proteger las caras de este video o imagen contra el riesgo de ser utilizados en la creación de deep-fakes?”. Si un usuario dice que sí, el algoritmo podría agregar esa nariz digital. De ese modo, las personas verán la cara, que estará escondiend­o algoritmos para “defenderse” de aquellos que están buscando convertirl­as en imágenes impersonal­es y falsas.

LOS VIDEOS DE E P- FA K ET RABA JAN POR MEDIO DE DOS ALGORITMOS: UNO QUE CREA IMÁGENES Y OTRO QUE DETECTA SU REALISMO.

 ??  ?? MENTIRAS PELIGROSAS. Nacieron en la industria porno, pero ahora las deep fakes alteran la vida social y política.
MENTIRAS PELIGROSAS. Nacieron en la industria porno, pero ahora las deep fakes alteran la vida social y política.
 ??  ?? LA LEVEDAD DE LA VERDAD. Obras de arte que, por medio de Inteligenc­ia Artificial, han cobrado movimiento y voz.
LA LEVEDAD DE LA VERDAD. Obras de arte que, por medio de Inteligenc­ia Artificial, han cobrado movimiento y voz.
 ??  ?? JENNIFER LAWRENCE. Fue una de las víctimas más resonantes de un video deep-fake, a principios de este año.
JENNIFER LAWRENCE. Fue una de las víctimas más resonantes de un video deep-fake, a principios de este año.

Newspapers in Spanish

Newspapers from Argentina