Apple supprime plusieurs apps qui permettaient de générer des photos de nu grâce à l’IA

Félix Cattafesta |

Apple a supprimé trois applications permettant de générer des photos de personnes nues sans leur consentement. Ces applications se présentaient comme des apps créatives sur l’App Store, sans mettre en avant la possibilité de créer du contenu pour adulte. Comme l’a révélé 404 Media, elles permettaient également de « déshabiller » les personnes d’une photo en se basant sur les IA génératives.

Une des publicités repérées par les journalistes.

Ces applications se présentaient simplement comme des « générateurs artistiques » sur la boutique d’Apple ou sur leur site, dans la même veine qu’un DALL-E ou Midjourney. Cependant, les programmes mettaient clairement en avant la possibilité de « déshabiller n’importe qui » dans leurs réclames sur les sites pornographiques… ou dans des publications sponsorisées sur Instagram. Il n’était pas difficile de les identifier : certaines vantaient leurs fonctionnalités 18+ dès le lancement, tandis que des commentaires y faisaient directement référence sur la fiche App Store.

404 Media a sonné l’alarme en début de semaine et note qu’Apple a supprimé 3 applications quelques jours plus tard. Il aura fallu attendre que quelqu’un les signale, montrant bien que les équipes de vérification n’ont pas réussi à les détecter toutes seules. Un joli trou dans la raquette de Cupertino, qui ne cesse de répéter que son App Store est un endroit sûr à l’heure où l’UE la force à ouvrir iOS aux boutiques alternatives.

Si cela n’est pas précisé, on peut imaginer que la génération d’image se passait sur des serveurs externes. Les malandrins ont peut-être réussi à feinter la vérification initiale de la Pomme en désactivant certaines fonctions pour adulte avant de les activer après un certain temps. Au vu du flot d’applications par IA qui vont arriver dans les prochains mois, on peut espérer qu’Apple va redoubler d’attention sur les futures apps d’IA.

avatar cherbourg | 

@bozzo

« Le corps de la femme a quelque chose de magique et de particulier. »
J’avoue avoir lu et relu cette phrase et ne toujours pas la comprendre. « Magique et particulier » ? 🤔

avatar gwen | 

@cecile_aelita

"Ça reste quand même inadmissible de matter une personne nue sans son consentement je trouve."

Il va falloir trouver le moyen de supprimer les rêves alors. 😄

avatar cecile_aelita | 

@gwen

Tant que ça reste du rêve, j’ai aucun soucis avec ça. Mais là pour le coup ça n’en n’est plus justement 😐

avatar Moebius13 | 

Pas grave, les intéressés iront retrouver ces apps d’un goût douteux sur les stores alternatifs…

Et si Apple a validé c’est sûrement parce que ces apps ne se sont pas présentées ainsi et que ça n’était pas leur fonction principale mais une fonction annexe.

Il n’empêche qu’ils ont eu vite fait de les dégager, je me demande si sur Android ce serait allé aussi vite ou si elles y seraient encore….

avatar hugome | 

Visiblement Apple n’a pas encore implémentée une IA efficace pour valider les apps sur son store !

avatar bozzo | 

Le nu féminin a toujours attiré les hommes. Et c’est assez logique, le corps de la femme détient un élément capital, majeur, incontournable, fondamental : la clé de la reproduction.
Nous n’en sommes que partiellement conscient, mais cela nous habite au plus profond de nous même.
Le problème de ces applications, c’est effectivement ce qu’en font certains, à l’image de ce que décrit Cécile un peu plus haut. C’est pas nouveau et il suffit d’avoir des photos nue de son ex quand elle n’était pas son ex… et certains s’en servent de façon éhontée. J’ai des photos (voire des vidéos) nues de la plupart de mes ex, et je suppose que nous sommes nombreux ici dans ce cas ! Sans évidemment les diffuser…
(On pourrait ouvrir une bourse d’échanges ? 😊 C’est du 2e degré bien entendu).
Ces applications comme toutes les applis d’IA génératives, permettent de multiplier considérablement le pouvoir de nuisance. La suppression de ces applis sur le store ne change pas beaucoup le problème : elles sont disponibles ailleurs.
Seule solution à mon avis, punir systématiquement les auteurs.

avatar cecile_aelita | 

@bozzo

« J’ai des photos (voire des vidéos) nues de la plupart de mes ex, et je suppose que nous sommes nombreux ici dans ce cas ! Sans évidemment les diffuser… »

La grosse nouveauté c’est que maintenant il n’est même plus nécessaire d’avoir la moindre photo nue pour faire du mal … une photo d’un profil linkdedin ou une photo d’équipe au travail, une banale photo de famille etc … 🫤

avatar bozzo | 

@cecile_aelita

Tout juste !
Je pense qu’il faut que les femmes victimes de ce type de comportement se regroupent et mettent en place un système de plaintes systématique.

avatar cecile_aelita | 

@bozzo

Si les procédures étaient plus simples aussi …

avatar gillesb14 | 

Le gros avantage de ces applications c’est que si une photo embarrassante sort on peut dire comme le président orange.: »c’est un fake »
Et même répliquer en en faisant une de la personne qui vous pourrit….
Donc le revenge porn va devenir impossible… car dénoncé comme un fake!
CQFD

avatar cecile_aelita | 

@gillesb14

Ouais on peut voir ça comme ça … après quand vous découvrez une photo de vous en porte jarretelles, string et sous tif à partir de votre photo de profil … ça fait moyen rire quand même 😐… surtout qu’on ne sait pas qui peut tomber dessus … même en disant que c’est un fake … j’ai pas forcément envie que les hommes de ma famille me voit dans ce genre de tenue (surtout que pour le coup… la photo était vraiment réaliste) 🙂.

avatar charlie105 | 

Ils devraient retirer Photoshop 🤷‍♂️

avatar Steekus | 

puritanisme made in Apple.
Quel "cul béni" ce Timy..

avatar daxr1der | 

Pas droit au nue par contre les jeux avec les armes nous avons le droit. Donc nous pouvons dire Non à l’amour oui à la mort ?

Pages

CONNEXION UTILISATEUR