Usaron deepfake para hacer nopor con mi cara y no puedo hacer nada

Un conocido llamó a Helen Mort y le dijo que había encontrado porno suyo. Le pasó las imágenes y vio que eran deepfakes. Algunos eran muy falsos (por eso supieron rápidamente que eran imágenes falsas), pero otros podían ser reales. Ella, escritora y poeta inglesa, es un personaje público. Tiene seguidores y, por lo tanto, muchas imágenes suyas en Internet. Era fácil pasarse por sus redes y encontrar algunas de buena calidad para realizar esos vídeos falsos. Y eso es “escalofriante”, recuerda.

Los deepfakes son clips generados mediante un software de inteligencia artificial donde los rostros de las actrices (principalmente) porno eran sustituidos por los rostros de otras personas. Vamos, una forma de generar porno falso de quien quieras. «Este es un crimen que en muchos casos ocurre de manera invisible. Mis imágenes habían estado allí durante años y yo no sabía nada de ellas, y todavía tengo pesadillas sobre algunas de ellas. Es una forma de abuso increíblemente grave», explica a la BBC.

“Con este tipo de cosas pasas por diferentes fases. Hubo un momento en el que solo estaba tratando de reírme por la naturaleza casi ridícula de algunas cosas. Pero, obviamente, el sentimiento subyacente era de conmoción y, de hecho, al principio me sentí bastante avergonzada, como si hubiera hecho algo mal. Fue algo bastante difícil de superar. Y luego, durante un tiempo, tenía tanta ansiedad que me daba miedo salir de casa”, recuerda.

¿Lo peor? La policía no puede hacer nada. Esta tecnología es tan nueva que actualmente no hay leyes que lo castiguen. Por ejemplo, sí que hay legislación que prohíbe distribuir imágenes y vídeos sexuales privados sin el consentimiento de alguien para causarle dolor o angustia. Pero solo se puede usar en el juicio si la imagen es tuya. Si es un deepfake… es un montaje con tu cara, pero no es un contenido tuyo. “En la situación de Helen, las fotos no sexuales se fusionaron con fotos sexuales, y esto no está cubierto por el delito. Además, como las fotos no se compartieron con Helen directamente, ni la intención parecía ser causarle angustia a Helen, el segundo elemento no se cumple, aunque, evidentemente, causó angustia”, asegura un abogado consultado por los que llevan su caso. ¿Conclusión? No puede hacer nada de nada hasta que se cambien las leyes.

Ahora, la poeta ha iniciado una campaña para que haya un cambio legislativo. De momento ya ha recibido 3.400 firmas, y espera que, compartiendo su experiencia, pueda crear conciencia y conseguir más apoyos que presionan al Gobierno británico para que actúe. Por eso mismo, y para ayudar a sus heridas a sanar, ha escrito un poema como respuesta al deepfake. «Soy escritora de profesión. Y pensé que lo único que me permitirá recuperar cualquier sentido de control sería decir algo al respecto usando mi forma de expresión. Ese es el único poder que tengo. La intención de esta persona, como decían en su publicación, era humillar. Dijeron que querían ver humillada a esta persona, y yo pensé, bien, en realidad no estoy humillada, y voy a hablar de esto porque no debo ser yo la que se sienta avergonzada», recuerda.

Pero Mort no es la primera en pasar por este infierno. Hay muchas famosas que han sufrido deepfakes con sus caras (Scarlett Johansson o Gal Gadot, entre otras). Y, de hecho, ya hay hasta empresas que se ofrecen para ello. La tecnología para hacerlo ya está ahí. Lo que no, la legislación que proteja a las víctimas de estos abusos tecnológicos.

Comentarios en Facebook

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies