Publié : 30 juin 2019 à 19h12 par La rédaction

Une application qui permettait de déshabiller les femmes croisées dans la rue..... stoppée

MONA FM
Crédit : 5d18edee2d66b3.46413246.jpg

Une application a été arrêtée par ses propres créateurs face au tollé qu’elle a provoqué. Elle permettait de générer, à partir du cliché d'une femme, une photographie de nu grâce aux retouches de l'intelligence artificielle.

Cette application, qui n'existe qu'en version féminine, a suscité un véritable tollé alors qu'Internet et les réseaux sociaux véhiculent déjà d'innombrables images de nus ou pornographiques sans consentement.

"Nous n'aurions jamais imaginé que cela deviendrait viral et (que) nous ne serions pas en mesure de contrôler le trafic", ont reconnu les créateurs, qui se disent situés en Estonie. "Malgré les garde-fous (les images portent un marquage numérique), si 500.000 personnes l'utilisent, le risque d'abus est trop élevé. On ne veut pas gagner de l'argent comme ça", ont aussi dit les créateurs de "DeepNude".

Parmi les réactions scandalisées, celle de l'organisation Cyber Civil Rights Initiative, spécialisée dans la lutte contre la pornographie "non consensuelle". "C'est une invention affreusement destructrice et nous espérons que vous subirez bientôt les conséquences de vos actes", a-t-elle tweeté, s'inquiétant, malgré la fin de "DeepNude", que de nouvelles versions du concept soient disponibles sur Internet.
Sa présidente, Mary Anne Franks, professeure de droit, a salué la fin de l'application, tout en déplorant son concept-même. "Le but de cette appli était de satisfaire les fantasmes prédateurs et grotesques d'hommes