Una publicación en Instagram destapó una nueva forma de ciberbullying en España: crearon fotos de jóvenes desnudas a través de Inteligencia Artificial.
Se trata de un grupo jóvenes que trucó fotos de niñas y adolescentes exponiéndolas en las redes sociales y que además, pedieron dinero para no difamarlas.
Ante esto, la madre de una de las involucradas conversó con 24 Horas: "Una de mis hijas, con un disgusto tremendo, 'mira lo que me han hecho', con una aplicación, han cogido una foto suya y la han puesto como si estuviera desnuda".
"Veo las fotos de ella desnunda y yo porque conozco el cuerpo de mi hija, pero si no lo conociera, desde luego, pensaría que esa imagen es completamente real, es súper realista", agregó la madre de la adolescente afectada.
Tras el aviso de esta nueva práctica de ciberbullying, se han sumado otras denuncias de niñas y adolescentes de la localidad de Badajoz, algunas de ellas incluso comentaron que sufren este tipo de ciberacoso desde julio.
En concreto, las imágenes fueron realizadas por un programa de Inteligencia Artificial utilizado en Ucrania y Rusia, que por 9 euros (cerca de $8.400 pesos chilenos) permite editar 25 imágenes.
El caso ha conmocionado a España y la vicepresidenta primera del gobierno español, Nadia Calviño, solicitó prioridad a la Unión Europea en un reglamento que regule el uso de la Inteligencia Artificial.
"La prioridad para la presidencia española es concluir la negociación del reglamento de Inteligencia Artificial. Un reglamento que, entre otros elementos va a establecer la obligación de incluir una marca de agua siempre que haya alguna imagen modificada por Inteligencia Artificial", sostuvo Nadia.
En España ya se habrían identificado a 7 personas involucradas en este caso, el cual abre el debate sobre los alcances que tienen las aplicaciones asociadas a la Inteligencia Artificial.