La police procède à sa première arrestation au Japon pour de fausses images sexuelles d'IA
La police de Tokyo a procédé à la première arrestation au Japon pour utilisation de l'intelligence artificielle générative pour créer et vendre de fausses images sexuellement explicites de célébrités.
Le 16 octobre, la police métropolitaine a déclaré que Hiroya Yokoi, un employé de bureau de 31 ans originaire d'Akita, avait été arrêté parce qu'il était soupçonné d'avoir produit et affiché du matériel obscène, en particulier des milliers de fausses images de plus de 260 célébrités féminines.
La police a déclaré que Yokoi avait admis les allégations.
« La réaction des téléspectateurs a été énorme et le film est devenu si populaire que j'ai réalisé que je pouvais gagner beaucoup d'argent », a déclaré le suspect, cité par la police.
Selon la police, cette affaire est la première du genre au Japon.
Parmi les victimes figurent plus de 260 personnalités de la télévision, acteurs, idoles et présentateurs de journaux télévisés.
Selon la police, de janvier à juin de cette année, Yokoi a créé et publié des images explicites représentant trois célébrités féminines sur un site de communication en ligne, les rendant ainsi accessibles à tous.
Yokoi aurait déclaré aux enquêteurs qu'il avait commencé l'opération en octobre de l'année dernière afin de gagner de l'argent supplémentaire pour couvrir ses frais de subsistance et le remboursement de ses prêts étudiants, après avoir vu d'autres personnes gagner de l'argent de la même manière.
AI PORNO COMME CÔTÉ HUSTLE
La police soupçonne Yokoi d'avoir utilisé un compte promotionnel sur les réseaux sociaux pour diriger les utilisateurs vers un site d'abonnement où il a affiché environ 20 000 images deepfake. Les abonnés peuvent demander des images personnalisées moyennant des frais supplémentaires.
Au moins 50 personnes se sont inscrites et, au cours des 11 mois écoulés depuis octobre, le programme lui a rapporté environ 1,2 million de yens (8 000 dollars), selon des sources d'enquête.
Selon les sources, le suspect a créé les images comme un « travail secondaire ».
Il n’avait aucune formation professionnelle en IA générative ou en technologies de l’information et de la communication, s’étant formé lui-même à travers des articles et des vidéos en ligne.
Le logiciel gratuit qu’il a utilisé vante sa capacité à « générer des images de haute qualité en quelques secondes ».
Yokoi a entraîné l'IA avec des photos de célébrités et a utilisé des « invites » textuelles spécifiques pour générer la vaste bibliothèque d'images, ont indiqué les sources.
TENDANCES MONDIALES, LACUNES JURIDIQUES
Cette facilité d’utilisation a contribué à une augmentation mondiale des deepfakes sexuels.
Une étude menée par une société de sécurité américaine a identifié 95 820 vidéos deepfakes en ligne en 2023, soit une multiplication par 5,5 par rapport à il y a quatre ans, dont 98 % étaient de nature sexuelle.
En réaction, les États-Unis, la Grande-Bretagne et d’autres pays ont renforcé leurs réglementations.
La Corée du Sud a durci ses sanctions en septembre dernier, rendant punissables non seulement la création mais aussi la possession et la visualisation de deepfakes sexuels.
Mais le Japon ne dispose actuellement d’aucune loi spécifique pour réglementer les deepfakes sexuels, obligeant les autorités à opérer dans le cadre de la législation existante.
Les forces de l’ordre japonaises doivent surmonter l’obstacle majeur consistant à obtenir des preuves objectives prouvant qu’une image générée par l’IA « possède légalement » l’identité de la personne qu’elle représente.
L’ouverture d’une enquête en diffamation nécessite une plainte de la victime, qui ignore souvent l’existence des images deepfake. Au moment où ils réalisent qu’ils ont été injustement représentés, les images se sont déjà largement répandues.
« Les créateurs font peut-être cela avec désinvolture, mais les victimes subissent des dommages à leur réputation et peuvent subir des préjudices mentaux et financiers », a déclaré un enquêteur japonais. « Nous devons freiner les entreprises qui abusent de l’IA générative. »

