Nude : l'app qui planque automatiquement vos photos NSFW avec CoreML

Mickaël Bazoge | | 00:00 |  41

Il est tard, les enfants sont couchés, c'est le bon moment pour tester Nude ! Cette application a une mission : conserver en lieu sûr, c'est à dire à l'abri des yeux indiscrets, toutes les photos et les vidéos un peu coquines que l'on peut prendre entre adultes consentants. L'app est un coffre-fort dans lequel on stocke des documents olé-olé provenant de la galerie photos de l'iPhone ou directement captés avec l'appareil photo.

Les images peuvent ensuite être supprimées de la pellicule : les curieux ne pourront pas les consulter, l'application étant protégée par un code de verrouillage à quatre chiffres, ou Touch ID. Fini les moments gênants où un ami tombe par mégarde sur ce cliché un peu chaud, au beau milieu de photos de vacances innocentes. Quand un brigand tente de pénétrer par infraction dans l'app, celle-ci prend en douce des photos du maraudeur.

Attention, un malapris a tenté de casser le code de l'app pour regarder des photos chaudes de SSD ! Cliquer pour agrandir

Mais la véritable innovation ici, c'est l'utilisation de CoreML, le framework d'apprentissage automatique mis au point par Apple dans iOS 11. Les auteurs de l'application ont gavé leur algorithme de 30 millions d'images (!) provenant de sites pornos. Ce dernier analyse automatiquement la bibliothèque photos de l'iPhone pour en extraire les documents canaillous. Tout cela se déroule bien sûr en local, et l'app donne toujours la possibilité de supprimer les photos de la pellicule du smartphone.

L'idée est épatante, amusante et somme toute utile. Sauf quand ça fonctionne mal : visiblement, Nude estime que des clichés bien innocents (vraiment !) d'un SSD sont NSFW. À la décharge de l'app, la galerie photos de l'iPhone de test ne contenait aucune image « adulte ». Les développeurs promettent d'améliorer leur moulinette. L'app ne présente aucune publicité, et son utilisation est gratuite pendant le premier mois. Il faudra ensuite s'y abonner, pour environ 1 € par mois.

Catégorie : 
Tags : 

Les derniers dossiers sur iGeneration

Ailleurs sur le Web


41 Commentaires Signaler un abus dans les commentaires

avatar je-deteste-android- 18/10/2017 - 00:05 via iGeneration pour iOS

Merci pour l'article 👀👀👀👀👀👀👀👁😁

avatar RedMak 18/10/2017 - 00:18

et pour améliorer l'AI, il faut envoyer les photos des utilisateurs dans le cloud pour entrainer les modèles ..

avatar C1rc3@0rc 18/10/2017 - 01:42

;)

Et le déchiffrement est payant ? Ca porte un nom ça il me semble;)

avatar iPop 18/10/2017 - 07:20 via iGeneration pour iOS

@RedMak

C'est écrit dans l'article que c'est fait en LOCAL 🙄

avatar marenostrum 18/10/2017 - 00:20

il en profite parce que Photos n'accepte pas apparement la recherche avec les mots Nude, ou Nu, Dénudé, etc. avec Maillot de bain ou Bain de soleil ou Détente il trouve par ex.

avatar powerjaja 18/10/2017 - 00:20 via iGeneration pour iOS

Arf ! 1€ par mois ! Ça va vite devenir insupportable ce nouveau modèle économique…

PS : Ça veut dire quoi NSFW ?

avatar marenostrum 18/10/2017 - 00:23

NSFW sigle. (Internet) Indication qu'un texte, une image, une vidéo, un son ou un lien contient des éléments jugés particulièrement inappropriés pour un écran ...

souligne le mot et Rechercher avec Google te donne dans la seconde le résultat.

avatar frankm 18/10/2017 - 11:32

J'aime bien le "inapproprié pour l'écran" ça devrait donc être supportable pour les enfants qui regardent l'écran en question

avatar TheRainb0w 18/10/2017 - 00:25 via iGeneration pour iOS

@powerjaja

NSFW = Not Safe For Work

En résumé à ne pas ouvrir au boulot quand un contenu est tagué avec ce libellé 😁

Pas mal comme demo mais l'IA à encore du mal. Outre les photos qui apparaissent la premier fois puis disparaissent ensuite des suggestions de l'import... J'ai surtout l'impression que cette IA a ete entraîné avec des photos erotiques et non dénudés.

avatar digitalscreen 18/10/2017 - 10:46 via iGeneration pour iOS

@powerjaja

completement ! et surtout qu est ce qui motive un abonnement pour cette appli ... car apple a dit que les abonnements devraient etre motiver par des services aitre que les lises a jours .. la y a meme pas de cloud ..

avatar fte 18/10/2017 - 10:49 via iGeneration pour iOS

@digitalscreen

Je ne critique en général pas l'orthographe et la grammaire. Pourtant je vais faire une exception ici, parce que très franchement, je n'ai rien compris. Ça pique les yeux.

avatar jerry75 18/10/2017 - 00:22 via iGeneration pour iOS

Moi j’utilise hardcover. Ça fait la même chose ( mais ça ne prend pas
De photos du malendrin ). Et ça ne prend pas automatiquement les photos non plus.
Mais ça marche au poil et c’est, si ma mémoire est bonne, gratuit ...

avatar xDave 18/10/2017 - 00:26 via iGeneration pour iOS

@jerry75

Ça marche à poil tu veux dire?

avatar Mac13 18/10/2017 - 07:14 via iGeneration pour iOS

@xDave
À poil des animaux ? Pauvres chats...😹

avatar frankm 18/10/2017 - 11:33

Un truc gratuit dans le quel tu mets du porno... hum !

avatar Bigdidou 18/10/2017 - 01:58 via iGeneration pour iOS (edité)

Je suis intéressé uniquement s’il y a une reconnaissance automatique des foufounes et des zigounettes.
Photo peut créer une stupéfiante catégorie « boule de poils » pour y mettre les photos de la chatte, ça devrait pas être bien compliqué de créer des catégories automatiques « poils de boules » pour les photos du…heu….du chat…
Pour les photos de vacances ça va, parce que j’ai aussi les visages, la plupart du temps, mais je pourrai enfin classer mes photos de soirées où,avec les seuls trucs qui dépassent du latex, c’est pas facile et la reconnaissance des visages complètement inutile.

C’est avec des apps comme ça qu’on se rend compte qu’android reste quand même loin derrière.

avatar Ielvin 18/10/2017 - 08:12 via iGeneration pour iOS

@Bigdidou

🤣🤣🤣
Merci :)

avatar Dv@be 18/10/2017 - 11:13 via iGeneration pour iOS

@Bigdidou

Toi ... je t’aime 😍

avatar sekhmet 18/10/2017 - 04:18 via iGeneration pour iOS

J’ai eu une détection de 2 citrouilles d’halloween et de ma fille de 7 ans a son cours de danse , vraiment au point 😂

avatar Crkm 18/10/2017 - 05:51

“À la décharge de l'app, la galerie photos de l'iPhone de test ne contenait aucune image « adulte ».“

Roh allons Mickael, on est entre nous, pas la peine de se cacher 😉

avatar ednet92 18/10/2017 - 07:26 via iGeneration pour iOS

C’est clair hors de question de mon côté de prendre des applications avec abonnement
Mensuel !!
Si c’est modèle économique prends dans trois ans mangera du riz tous les jours!
C’est drôle mais c’est le retour du crédit revolving par la fenêtre!!
Bien vu le pricing !!

avatar fte 18/10/2017 - 07:40 via iGeneration pour iOS

Certains devs se sont bien amusés.

avatar DG33 18/10/2017 - 07:49 via iGeneration pour iOS (edité)

Et lorsque la reconnaissance fonctionnera bien pour 1€/mois supplémentaire : le tri automatique (faciale, blonde, massage, 🏳️‍🌈, groupe, SM, mature, etc)
Puis lorsqu'il y aura suffisamment de contenu activation du peer to peer, du streaming, de la notation, de la mise en relation et chacun fera son p0rn maison et portable.
On vous le dit : 64Go c'est insuffisant...
😃

avatar daffyduuck 18/10/2017 - 08:02 via iGeneration pour iOS

J’ai ajouté deux photos NSFW à ma photothèque de 4000 photos.
- Il a trouvé les deux photos. Il a fait le job.
- trouvé une autre de ma femme enceinte, qui ne « montre » rien, mais n’a en effet pas pour vocation d’être vue par quelqu’un qui consulterait mes photos.
- trouvé 5 photos pour lesquelles je ne peux pas lui reprocher d’y voir « du mal » (je préfère qu’il fasse trop que pas assez)
- trouvé 3 photos où je ne comprend pas la logique.

Le bémol pour moi est le manque de possibilité de valider ou non telle ou telle photo. On peut tout supprimer de la photothèque, ou rien.

Puis cette fonction ne sert qu’une fois : si on garde l’app, ce n’est ni plus ni moins qu’une app « coffre fort » comme il en existe d’autres moins chères (voire gratuites dans des versions light)

avatar Horfilas 18/10/2017 - 08:47 via iGeneration pour iOS

Sinon vous faites ça manuellement avec une application comme Documents, qui peut-être verrouillée par un mot de passe...
Payer un abonnement pour planquer ses photos NSFW, c’est complètement con.
Les jeunes des années 80-90 avec leurs magazines et leur VHS étaient bien plus débrouillards dans l’art de la planque.

avatar frankm 18/10/2017 - 11:36

Tout à fait

avatar David Finder 18/10/2017 - 09:00

La vraie question est : jusqu'à quand Apple va laisser cette app sur le store ?

avatar frankm 18/10/2017 - 11:36

Aucune chance si les captures d'écran montrent une grosse sodomie

avatar outmen 18/10/2017 - 09:19 via iGeneration pour iOS

Sachant qu’il y a un mécanisme intégré à iOS (photos masquées) mais qui ne fonctionne pas. Les photos disparaissent de la pellicule mais sont amplement visibles partout ailleurs. Vivement qu’iOS mette un mot de passe sur le dossier masqué. Ce serait top.

avatar Yoskiz 18/10/2017 - 09:20 via iGeneration pour iOS

Concernant les abonnements mensuels... et annuels : il y en a marre de ce nouveau modèle, on ne va pas pouvoir payer 15 abonnements à ceci à cela, pour la météo, pour enlever le pub à droite, à gauche... ça ne va pas pouvoir continuer comme ça.

Moi personnellement je vais faire le tri des abonnements, c’est certain et il y a aura de la casse forcément. 🙅🏼‍♂️

avatar frankm 18/10/2017 - 11:38 (edité)

Idem, je me passerai de beaucoup d'applications dans ce cas (à l'exception d'une, mais je ne dis pas laquelle dès fois que ça leur donne des idées)

avatar pcb1974 18/10/2017 - 09:31 via iGeneration pour iOS

Les photos planquées sont elles envoyables directement depuis les applis utiles pour ce genre de photos (genre tinder)? Parce que si on doit reenregistrer la photo dans la pellicule pour pouvoir l’envoyer, aucun intérêt...

avatar yoyo3d 18/10/2017 - 09:56 via iGeneration pour iOS

Le problème de la plupart de ces apps c est qu il n y a pas de synchronisation automatique entre les différents appareils iOS.

avatar iDanny 18/10/2017 - 10:23 via iGeneration pour iOS

Ça me fait penser aux reportages sur les unités de gendarmerie qui font la chasse aux pédophiles, où on voit des gendarmes qui passent la journée devant leur écran à mater des sites de p0rn 😬

avatar SidFik 18/10/2017 - 10:35 via iGeneration pour iOS

Ca c'est de l'innovation !

Prenez en de la graine

avatar macbear 18/10/2017 - 12:15

Il masque les vidéos aussi ? (genre sextape...😈)

avatar albanico 18/10/2017 - 13:22

@RedMak

A mon avis, ils ont assez de matos sur internet pour entrainer leur ML, pas besoin d'upload supplémentaire.

avatar tchit 18/10/2017 - 13:38 via iGeneration pour iOS

Est-ce que la sécurité est suffisante pour stocker des vraies données sensibles ?

avatar Mickaël Bazoge macG 18/10/2017 - 15:42 via iGeneration pour iOS

@tchit

Le code a 4 chiffres ça me parait un peu léger. Mais au bout de 3 tentatives ratées il faut attendre 30 secondes, donc contre le brute force c’est toujours ça de pris. J’ai été étonné du bon fonctionnement du système anti voleur aussi.

avatar Grug 18/10/2017 - 17:20 via iGeneration pour iOS

Un abonnement pour planquer ses images de tripotage de disque dur. Malgré la perversité de cette pratique, ça m'apparait une fois de plus comme un peu exagéré.

avatar marsnet 18/10/2017 - 20:00 via iGeneration pour iOS

Merci pour ces images de SSD, elles ne dépareront pas dans ma collection très privée .