La joven Johanna Villalobos denunció que una fotografía suya que se hizo viral en grupos de WhatsApp, en la que se la ve desnuda, su indignación se debe a que la imagen es falsa y fue creada con inteligencia artificial, así lo expresó la conocida periodista, influencer y creadora de contenidos de Costa Rica.
La locutora y creadora de contenido, Johanna Villalobos, expuso el lado oscuro de la de la tecnología: una imagen de ella desnuda, que se hizo viral en las últimas horas, es producto de una creación digital no autorizada.
“Alguien agarró una foto mía en la playa, que yo había subido a Instagram, le metieron inteligencia artificial… y me quitaron la ropa”, explico Villalobos en un video publicado en su cuenta de Twitter. Y agregó: “Es mi cara, pero no es mi cuerpo”.
“Usaron mi foto y con Inteligencia Artificial me quitaron la ropa”
El caso de Villalobos pone de manifiesto un tema que no es nuevo, pero que volvió a ser materia de debate y preocupación; el uso sin consentimiento de imágenes de celebridades para generar contenido falso para adultos.
Con el advenimiento de las herramientas de inteligencia artificial, esta tarea inmoral se ha vuelto mucho más rápida y sencilla. Y casi está al alcance de cualquiera con acceso a la red.
Este tipo de aplicaciones se ha desarrollado a tal punto de ser capaz de crear, no solamente, piezas inéditas, sino que los más básicos generadores de imágenes ya pueden componer imágenes hiperrealistas falsas.
Les dejó el contexto de esta porquería. pic.twitter.com/Vto8xPGvuj
— Johanna Villalobos 🐍 (@johavillam) May 23, 2023
Más allá de probar las herramientas de inteligencia artificial, llevarlas hasta lo imposible y sorprendernos con los resultados; su uso plantea de nuevo el dilema moral de si está bien compartir fotos falsas de personas reales.