La IA transforma la pornografía: Taylor Swift, Rosalía y Jacob Elordi fueron víctimas de deepfakes explícitos

La inteligencia artificial hace que el contenido para adultos sea cada vez más personalizable.
Taylor Swift, Rosalía y Jacob Elordi son algunas de las figuras públicas que vivieron escándalos este año por la difusión de imágenes explícitas de ellos, para muchos no había duda de que se trataba de los artistas.
Sin embargo, eran deepfakes, ante su popularidad y poder económico estas figuras pudieron demostrar que se trataba de contenido falso, pero otros afectados no cuentan con las herramientas para dar a conocer que son víctimas del mencionado delito y viven una real pesadilla.
Ante esto, políticos estadounidenses han solicitado herramientas regulatorias para controlar y limitar los deepfakes, al hacer énfasis en los contenidos explícitos.
En colegios de diversos países esto pasó a ser un problema, es el caso de Corea del Sur.
Por su parte, en España, exactamente en Almendralejo, un grupo de menores sufrió acoso tras la difusión de imágenes falsas en las que aparecían desnudas. Las fotos fueron generadas por una aplicación de inteligencia artificial llamada Nudify, precisa Infobae.
Cualquiera puede ser víctima de estos montajes digitales en los que se usan algoritmos de aprendizaje profundo, capaces de generar imágenes y videos falsos con un grado de realismo impresionante.
“Los usuarios ahora pueden marcar casillas en una lista de opciones tan larga como el menú de Cheesecake Factory para crear sus escenas ideales: categorías como masculino, femenino y trans; edades de 18 a 90 años; tamaño de los senos y del pene; detalles como líneas de bronceado y color de la ropa interior; fondos como supermercados, iglesias o la Torre Eiffel”, expresó Leo Herrera, escritor, artista y cineasta para MIT Technology Review.
Diversas redes sociales como X, han manifestado que no tolerarán este tipo de contenido, pero la lucha no ha sido tan efectiva ya que se sigue difundiendo.
Continúa leyendo…