Imagine que está navegando por la red y, de pronto, halla una nueva en cuyo titular se asevera que el líder de Vox, Santiago Abascal, está en favor de efectuar un referendo de autodeterminación en Cataluña. Que, una vez superado el pasmo inicial, hace «click» y halla que, al lado del cuerpo del artículo, va adjunto un vídeo en el que aparece el miembro del Congreso de los Diputados reafirmándose en la relevancia de que los catalanes decidan su porvenir y, si lo desean, se transformen en un Estado autónomo. Semeja increíble, ¿verdad? Cosa de ciencia ficción.

Puesto que bien, el primordial inconveniente, alén de que el vídeo sea falso, que atendiendo a la trayectoria de Abascal, indudablemente, lo es; lo hallamos cuando nos percatamos de que no hace falta ser una as de la informática para poner al mandatario político de turno a decir cualquier cosa. Y es que la creación de deepfakes está cada vez al alcance de más usuarios.

«Los deepfakes son falsificaciones de material de vídeo o bien audio cuyo alto nivel técnico los hace creíbles. Usando este género de tecnología, es posible crear material audiovisual falso de personalidades o bien gente conocida con contenido absolutamente arbitrario. Se ha ido publicando software que facilita más su creación y verosimilitud. Hoy día, cualquier usuario puede empezar a crear este género de vídeos con relativa sencillez y resultados bastante aceptables», explica a ABC David Sancho, responsable del equipo de investigación de la compañía de ciberseguridad Trend Micro. El especialista agrega que «los autores de este género de software han ido refinando las capacidades y muchos de ellos lo han hecho open source (de libre acceso), de tal manera que cualquiera puede acceder a la herramienta de forma gratuita».

Un peligro político
Los deepfakes empezaron a llamar singularmente la atención en el año 2016. Fue entonces cuando la Universidad de Washington efectuó un experimento, nombrado como «Synthesizing Obama», en el que se cambiaba la voz del expresidente de U.S.A. Barack Obama para aseverar que el presente líder del país de Norteamérica, Donald Trump, «es un total y completo idiota».

Solo un año después, aparecieron en la red una serie de vídeos pornos en los que, merced al empleo de esta tecnología, se había alterado los semblantes de las actrices originales por los de ciertas figuras más triunfantes del cine y la T.V.. Desde Gal Gadot, que próximamente estrenará la segunda cinta de «Wonder Woman», hasta Maisie Williams, Arya Stark en «Juego de Tronos». «Es imposible procurar detener a quienes cortan y pegan mi imagen (o bien la de cualquier otra persona) a un cuerpo diferente. Resguardarte de internet y de su naturaleza degenerada es una causa perdida», explicaba en declaraciones a «The Washington Post» Scarlett Johansson, otra de las actrices perjudicadas.

Otro buen ejemplo de lo que es posible con este género de tecnología lo hallamos el mes pasado de mayo, cuando empezó a circular un vídeo en el que se había manipulado la voz de la presidente de la Cámara de Representantes de U.S.A., Nancy Pelosi. El propósito era aparentar que la política demócrata se hallaba en estado de embriaguez. Y el engaño caló. Aun fue compartido por Donald Trump por medio de Twitter.

La preocupación con lo que podría suponer el empleo de deepfakes, singularmente si tenemos presente las próximas elecciones a la presidencia de U.S.A., ha provocado que ciertas grandes plataformas de internet se hayan remangado para edificar un muro de contención. El mejor ejemplo, probablemente, es el de Fb.

La compañía de Mark Zuckerberg lleva años tratando de restituirse del escándalo de Cambridge Analytica. El último paso ha sido el de fortalecer sus políticas para identificar y suprimir los vídeos perturbados. El mes pasado de septiembre, la tecnológica lanzó un programa, llamado Deep Fake Detection Challenge, destinado a que usuarios de todo el planeta cooperen en la busca de contenido manipulado. Una política que, conforme anunció la red social, se ha visto reforzada hace algunos días.

Y si preocupa la limpieza de las próximas eleciones presidenciales, no lo hace menos la seguridad nacional. «¿Qué ocurre si alguien crea un vídeo del presidente Trump diciendo: «He lanzado armas nucleares contra Van a ir, Corea del N. o bien Rusia?» No tenemos horas o bien días para determinar si es real o bien no», explicaba hace unos meses en declaraciones a la cadena de Norteamérica «CBS» el maestro de ciencias de la computación de la Universidad de Berkeley (California) Hany Farid. El especialista, como Sancho, hizo hincapié en que se debe comprender que los deepfakes «no están a cargo de unos pocos, están a cargo de muchos».

Las compañías, asimismo en el punto de atención
El encargado de investigación de Trend Micro apunta a las compañías como otro de los objetivos principales de este género de contenido: «Un vídeo con declaraciones falsas de un empresario puede desplazar las acciones de su empresa, o bien de otras asociadas, cara arriba o bien cara abajo». Sancho pone como un ejemplo sus posibilidades como una parte del timo del CEO. Una estafa en la que los cibercriminales, valiéndose de ingeniería social, suplantan a un directivo de una compañía para conseguir algún género de beneficio contactando con sus empleados, en general económico.

«Ya existen casos en los que los ciberdelincuentes han usado las deepfakes de manera exitosa en este campo. En 2019 aparecieron noticias de ciberdelincuentes que habían usado una voz generada por IA en ingeniería social. La organización perjudicada fue una compañía de energía que fue víctima de un fraude de 243.000 dólares americanos en el que los estafadores usaron Inteligencia Artificial para imitar la voz del CEO de la compañía, tal como publicaba The Wall Street Journal», afirma el especialista de Trend Micro. Por su parte, destaca que los deepfakes ofrecen «muchas otras posibilidades» merced al elemento audiovisual «que da más verosimilitud a sus planes». Y es que este fraude, como todos los otros, se favorece de una tecnología que avanza a ritmo mareante. Un desarrollo que no solo mejora las condiciones de vida de la sociedad. Asimismo hace que las armas de los cibercriminales mejoren y resulten más accesibles.

Fuente: ABC.es

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *