¡Vulnerables!: si los medios no publican un deepfake, Meta posiblemente no lo elimine
Una Junta que supervisa a Meta asegura que las víctimas de imágenes íntimas falsificadas, deepfake, se encuentran vulnerables ante el manejo deficiente del mencionado conglomerado.
Por su parte, la empresa tecnológica indicó que se basa en “informes de los medios” para agregar imágenes a su base de datos permanente de contenido prohibido para sus plataformas, incluidas Instagram y Facebook.
Ante esto, la junta explicó que esto funciona cuando las víctimas son figuras públicas y los medios dan a conocer una determinada imagen falsa. Pero se preguntó qué pasa cuando la víctima no tiene el apoyo de los medios.
Esto ante el caso de una mujer en India, fue víctima de deepfake en las redes de Meta, pero como los medios no lo reseñaron, la imagen no fue agregada a su base de datos para eliminar todas las coincidencias.
Esta situación pone en vulnerabilidad a quienes puedan ser víctima de imágenes modificadas con inteligencia artificial.
“Esto es preocupante porque muchas víctimas de imágenes íntimas deepfake no están a la vista del público y se ven obligadas a aceptar la difusión de sus representaciones no consentidas o a buscar y denunciar cada caso”, se lee en XBIZ.
Continúa leyendo…
¡Otro estado más!: Pornhub cierra acceso en Nebraska por verificación de edad