Los deepfakes (falsificación profunda) son audio-videos
manipulados mediante algoritmos de inteligencia artificial que suplantan a personas
reales o imaginarias actuando en situaciones inexistentes donde dicen y hacen
lo que nunca han dicho ni hecho.
Utilizan métodos del aprendizaje profundo (deep learning):
modelos de reconocimiento de voz y facial, redes generativas adversarias (GAN)
y redes neuronales convolucionales (CNN) que almacenan y aprenden a partir del
procesamiento de grandes cantidades de datos para crear imágenes hiperrealistas.
Como toda tecnología no es en sí misma ni buena ni mala, todo depende del uso que
se haga. Sería interesante, por ejemplo, generar audio-videos de las
conferencias que Unamuno (1914) y Ortega y Gasset (1946) pronunciaron en el
Ateneo de Madrid; el bilbaíno sobre las escuelas laicas y el madrileño sobre la idea del teatro. O escenificar las mejores ocurrencias de
Dalí seleccionadas de su libro Diario de un genio. O a Cicerón pronunciando la primera
catilinaria en latín con subtítulos tras convocar al Senado en el Templo de Júpiter Estator. Las posibilidades son ilimitadas. Los adictos al
espiritismo podrían interactuar con las personas queridas que los han dejado
para siempre. Familiares, amigos y allegados aportarían a los desarrolladores su
voz, rostro y figura, idiosincrasia, ideología, creencias, objetivos, valores
(cuántos más datos mejor). Además se trata de un software capaz de
recopilar información y aprender por sí y de sí mismo (machine learning)
lo que permite al sistema mejorar la generación de nuevas e inesperadas asociaciones
de ideas. Podrían conversar largo y tendido con los cuerpos y las mentes del más
allá, una genuina experiencia de ultratumba. Es probable, incluso, que la IA
les permita conocerlos (y conocerse) mejor que cuando los trataron en vida…
Entre los usos perversos podemos enumerar el ciberacoso, la
estafa mediante falsificación de identidad, el fraude documental, la extorsión
sexual, el bulo político o el apoyo a narrativas extremas. Por
el momento disponemos de técnicas, algunas simples y otras complejas, que
nos permiten identificar las falsificaciones profundas. Aunque la amenaza persiste
por la rápida evolución de los algorítmicos de la IA para eludir las contramedidas
de detección. Esta creciente competencia de suplantación
se basa en la plasticidad o capacidad de modelado que tienen estos
programas informáticos para reproducir el funcionamiento del cerebro y
facilitar así que nuestros esquemas perceptivos y procesos cognitivos nos
traicionen.
Aunque los Deepfakes existen desde finales de 1990, despegaron en 2017, cuando un usuario de Reddit publicó material erótico falso con los rostros de actrices famosas. Los programas que sirven para desnudar al prójimo han creado un nuevo entorno virtual, los deepfakes pornográficos. Están condenados al fracaso en todas sus variantes. Mientras que otros usos perversos pueden engañar a los usuarios y hacer que muerdan el señuelo, en la porno fake todo el mundo sabe que en realidad solo hay fantasmas digitales. Está claro que no son Brad Pitt ni Ana de Armas. Tampoco el presidente del gobierno o la presidenta de una comunidad autónoma. Ni Eros y Psique después del beso. ¿Qué interés tiene mirar una imaginería falsaria a sabiendas de que es una ilusión generada por máquinas? Cuanto más próximo sea el avatar, más repulsión sentirán por la obscena farsa. Incluso los padres de menores acosadas sabrán que las imágenes y videos no son sus hijos sino meras presencias pervertidas. Por ahora es necesaria la vía penal pero llegará un momento en que no hará falta. Como ocurre con la pornografía de toda la vida, la que se aprende a través de las amistades peligrosas, en una revista mugrienta y, sobre todo, en los sitios web más acreditados del ramo. Incluso las fantasías sobre la vecina del quinto son más excitantes que los montajes hiperrealistas de los deepfakes.
No hay comentarios:
Publicar un comentario