miércoles, 19 de marzo de 2025

Falsificación profunda

 

Los deepfakes (falsificación profunda) son audio-videos manipulados mediante algoritmos de inteligencia artificial que suplantan a personas reales o imaginarias actuando en situaciones inexistentes donde dicen y hacen lo que nunca han dicho ni hecho.

Utilizan métodos del aprendizaje profundo (deep learning): modelos de reconocimiento de voz y facial, redes generativas adversarias (GAN) y redes neuronales convolucionales (CNN) que almacenan y aprenden a partir del procesamiento de grandes cantidades de datos para crear imágenes hiperrealistas. Como toda tecnología no es en sí misma ni buena ni mala, todo depende del uso que se haga. Sería interesante, por ejemplo, generar audio-videos de las conferencias que Unamuno (1914) y Ortega y Gasset (1946) pronunciaron en el Ateneo de Madrid; el bilbaíno sobre las escuelas laicas y el madrileño sobre la idea del teatro. O escenificar las mejores ocurrencias de Dalí seleccionadas de su libro Diario de un genio. O a Cicerón pronunciando la primera catilinaria en latín con subtítulos tras convocar al Senado en el Templo de Júpiter Estator. Las posibilidades son ilimitadas. Los adictos al espiritismo podrían interactuar con las personas queridas que los han dejado para siempre. Familiares, amigos y allegados aportarían a los desarrolladores su voz, rostro y figura, idiosincrasia, ideología, creencias, objetivos, valores (cuántos más datos mejor). Además se trata de un software capaz de recopilar información y aprender por sí y de sí mismo (machine learning) lo que permite al sistema mejorar la generación de nuevas e inesperadas asociaciones de ideas. Podrían conversar largo y tendido con los cuerpos y las mentes del más allá, una genuina experiencia de ultratumba. Es probable, incluso, que la IA les permita conocerlos (y conocerse) mejor que cuando los trataron en vida…

Entre los usos perversos podemos enumerar el ciberacoso, la estafa mediante falsificación de identidad, el fraude documental, la extorsión sexual, el bulo político o el apoyo a narrativas extremas. Por el momento disponemos de técnicas, algunas simples y otras complejas, que nos permiten identificar las falsificaciones profundas. Aunque la amenaza persiste por la rápida evolución de los algorítmicos de la IA para eludir las contramedidas de detección. Esta creciente competencia de suplantación se basa en la plasticidad o capacidad de modelado que tienen estos programas informáticos para reproducir el funcionamiento del cerebro y facilitar así que nuestros esquemas perceptivos y procesos cognitivos nos traicionen. 

Aunque los Deepfakes existen desde finales de 1990, despegaron en 2017, cuando un usuario de Reddit publicó material erótico falso con los rostros de actrices famosas. Los programas que sirven para desnudar al prójimo han creado un nuevo entorno virtual, los deepfakes pornográficos. Están condenados al fracaso en todas sus variantes. Mientras que otros usos perversos pueden engañar a los usuarios y hacer que muerdan el señuelo, en la porno fake todo el mundo sabe que en realidad solo hay fantasmas digitales. Está claro que no son Brad Pitt ni Ana de Armas. Tampoco el presidente del gobierno o la presidenta de una comunidad autónoma. Ni Eros y Psique después del beso. ¿Qué interés tiene mirar una imaginería falsaria a sabiendas de que es una ilusión generada por máquinas? Cuanto más próximo sea el avatar, más repulsión sentirán por la obscena farsa. Incluso los padres de menores acosadas sabrán que las imágenes y videos no son sus hijos sino meras presencias pervertidas. Por ahora es necesaria la vía penal pero llegará un momento en que no hará falta. Como ocurre con la pornografía de toda la vida, la que se aprende a través de las amistades peligrosas, en una revista mugrienta y, sobre todo, en los sitios web más acreditados del ramo. Incluso las fantasías sobre la vecina del quinto son más excitantes que los montajes hiperrealistas de los deepfakes.

No hay comentarios:

Publicar un comentario