Por Choe Sang-Hun/The New York Times
SEÚL — En el 2020, mientras las autoridades surcoreanas perseguían una red de chantaje que obligaba a mujeres jóvenes a hacer videos sexualmente explícitos para espectadores que pagaban, encontraron algo más en las redes sociales: imágenes pornográficas con rostros de otras personas sobrepuestas torpemente.
La Asamblea Nacional promulgó una ley contra la creación y distribución de pornografía deepfake como esa. Pero eso no impidió una ola criminal, utilizando tecnología de inteligencia artificial, que ahora ha llevado la cultura misógina en línea del País a nuevas profundidades.
Recientemente, los surcoreanos han quedado impactados al descubrir que un creciente número de hombres jóvenes y adolescentes han utilizado cientos de imágenes en las redes sociales de compañeras de clase, maestras y colegas militares (incluyendo a menores de edad) para crear imágenes y videoclips sexualmente explotadores con apps deepfake.
Han difundido el material a través de salas de chat en el servicio de mensajería codificada Telegram, algunas con hasta 220 mil miembros. Los deepfakes suelen combinar el rostro de la víctima con un cuerpo en una pose sexualmente explícita, tomada de la pornografía. La tecnología es tan sofisticada que a menudo es difícil saber si son falsos, dicen los investigadores.
Pero para muchas mujeres, estos deepfakes son sólo la expresión más reciente de una misoginia profundamente arraigada en su País.
“La sociedad coreana no trata a las mujeres como seres humanos”, dijo Lee Yu-jin, una estudiante cuya universidad se encuentra entre los cientos de escuelas secundarias, preparatorias y universidades donde estudiantes han sido víctimas.
Las víctimas a menudo no saben que lo son hasta que reciben un mensaje anónimo o una llamada de la policía. Más de la mitad de los deepfakes a nivel mundial son de sudcoreanas, y la mayoría victimizan a cantantes y actrices del País, revela “Estado de Deepfakes 2023”, un estudio realizado por la firma de ciberseguridad Security Hero, con sede en Estados Unidos.
La policía de Corea del Sur reportó 297 casos de delitos sexuales deepfake entre enero y julio, en comparación con 156 en todo el 2021, cuando se recopilaron esos datos por primera vez.
La cobertura noticiosa del aumento en los deepfakes este año ha llevado a muchas jóvenes a eliminar selfies y otras imágenes personales de sus cuentas de redes sociales, temiendo que se utilicen para deepfakes.
Bajo la ley promulgada en el 2020, las personas condenadas por realizar deepfakes sexualmente explícitos o abusivos con la intención de distribuirlos pueden enfrentar hasta cinco años de prisión. Quienes busquen obtener beneficios económicos de la distribución de esos contenidos pueden enfrentar hasta siete años de prisión. Pero no existe ninguna ley que prohíba comprar, almacenar o ver deepfakes.
El Gobierno ha prometido impulsar leyes más estrictas contra la compra o vista de deepfakes sexualmente explotadores. Este mes, la policía que investiga la reciente oleada de deepfakes dijo que había detenido a siete sospechosos varones, seis de ellos adolescentes.
“Es hora de elegir entre proteger las plataformas y proteger a nuestros niños y adolescentes”, dijo Lee Soo-jung, profesor de psicología forense en la Universidad de Kyonggi.
© 2024 The New York Times Company