Apple a supprimé trois applications permettant de générer des photos de personnes nues sans leur consentement. Ces applications se présentaient comme des apps créatives sur l’App Store, sans mettre en avant la possibilité de créer du contenu pour adulte. Comme l’a révélé 404 Media, elles permettaient également de « déshabiller » les personnes d’une photo en se basant sur les IA génératives.
Ces applications se présentaient simplement comme des « générateurs artistiques » sur la boutique d’Apple ou sur leur site, dans la même veine qu’un DALL-E ou Midjourney. Cependant, les programmes mettaient clairement en avant la possibilité de « déshabiller n’importe qui » dans leurs réclames sur les sites pornographiques… ou dans des publications sponsorisées sur Instagram. Il n’était pas difficile de les identifier : certaines vantaient leurs fonctionnalités 18+ dès le lancement, tandis que des commentaires y faisaient directement référence sur la fiche App Store.
404 Media a sonné l’alarme en début de semaine et note qu’Apple a supprimé 3 applications quelques jours plus tard. Il aura fallu attendre que quelqu’un les signale, montrant bien que les équipes de vérification n’ont pas réussi à les détecter toutes seules. Un joli trou dans la raquette de Cupertino, qui ne cesse de répéter que son App Store est un endroit sûr à l’heure où l’UE la force à ouvrir iOS aux boutiques alternatives.
Si cela n’est pas précisé, on peut imaginer que la génération d’image se passait sur des serveurs externes. Les malandrins ont peut-être réussi à feinter la vérification initiale de la Pomme en désactivant certaines fonctions pour adulte avant de les activer après un certain temps. Au vu du flot d’applications par IA qui vont arriver dans les prochains mois, on peut espérer qu’Apple va redoubler d’attention sur les futures apps d’IA.
Source :