2023 l'a démontrée à grands coups de détournements vidéos "fake" manipulant à l'envi l'image et les voix des célébrités : ce que permet l'intelligence artificielle s'affine de plus en plus, captive... et inquiète. Car son usage n'est pas toujours motivé par la parodie ou l'hommage, à l'image du business autour de la mort qui devient de plus en plus populaire.
Besoin d'une preuve supplémentaire ? Une appli proposant de "déshabiller les filles" (c'est son postulat, rapporte Hitek) fait beaucoup parler d'elle. Elle se serait vue promue sur les réseaux sociaux, comme X, (feu Twitter). Cette app use de l'intelligence artificielle afin d'accoler des corps féminins dénudés à des visages d'individus préexistants. En somme : elle génère des montages pornographiques, du "deepfake" (manipulation de l'image par l'IA), pratique condamnable et dangereuse.
Dangereuse, car par-delà le caractère moral clairement aux abonnés absents de cette application, la production et la diffusion de telles images peut alimenter un fléau qui fait déjà fureur en France : le revenge porn. Soit le fait de divulguer des photos intimes, le plus souvent de son ex, dans un but d'intimidation et d'humiliation...
Le revenge porn est condamné par la loi depuis des années. En France, tout auteur est sanctionné de deux ans d'emprisonnement et de 60 000€ d'amende. Et pourtant... Une toute récente étude Lemon.fr & IFOP prenant en compte les témoignages de 990 personnes, représentatifs de la population française âgée de 15 à 34 ans, nous a appris que 4 hommes sur 10 seraient coupables de cette "vengeance pornographique".
4 sur 10, c'est énorme. L'enquête en question, intitulée "Les jeunes et leurs ex à l'heure des réseaux sociaux", affirme que ce phénomène serait le plus souvent masculin, témoignant d'une réelle "toxicité". Toxicité qui se retrouve clairement dans cette application qui, relate Hitek, ferait l'objet de publicités sur les réseaux sociaux : "certaines, publiées par des comptes abonnés payants, montrent que de l'argent est généré par ce moyen". Tant et si bien que TikTok et Instagram ont dû bannir certains mots clés pour empêcher toute "promotion".
Mais cela peut-il suffire ? Depuis septembre, de l'Espagne à la Belgique, les paroles autour du "deepfake" et du "fake porn" se sont multipliées, notamment parmi les ados. Les jeunes filles furent nombreuses à en témoigner : les victimes découvrent que de faux comptes à leur effigie ont été créés sur les réseaux, et que des montages humiliants circulent. C'est alarmant : une dizaine de plaintes ont été déposées en Espagne il y a trois mois de cela après la diffusion de faux nus d'adolescentes directement générés par l'intelligence artificielle.
Une forme indéniable de cyberviolence sexiste qui monte, qui monte - Le Monde parle carrément d'une "explosion" ! - et exige de réagir, et vite, avertit auprès du Progrès Laure Salmona, la cofondatrice de l'association Féministes contre le cyberharcèlement : "C'est un phénomène en expansion et c'est quelque chose avec lequel il va falloir composer à l'avenir. C'est de plus en plus facile d'en faire et de plus en plus facile d'en faire qui soient vraiment crédibles grâce aux nouvelles intelligences artificielles génératives".
Flippant.