Apple abandonne l'idée de scanner les photos pour détecter des images pédopornographiques

Mickaël Bazoge |

C'est au détour d'une déclaration chez Wired qu'Apple enterre discrètement une mesure annoncée en plein cœur de l'été 2021 pour lutter contre la pédophilie, et qui n'est pas passée inaperçue. Le constructeur abandonne son idée de détecter les images pédopornographiques contenues dans les bibliothèques de photos sur ses appareils.

Le système imaginé par Apple pour la détection des photos CSAM.

Cette détection CSAM (pour Child Sexual Abuse Material) devait se réaliser à la fois en local puis sur les serveurs d'Apple, mais le constructeur a tellement mal géré la communication autour de ce projet que rapidement, il l'a mis sur pause. Avant de la lâcher complètement, donc.

Un des pêchés d'Apple dans cette histoire, c'est de s'être lancé la fleur au fusil en omettant de se concerter avec les spécialistes et les scientifiques qui travaillent sur les technologies de détection de ces images. Ce qui a soulevé de sérieuses craintes quant à la sécurité et à la confidentialité des données des utilisateurs.

« Nous avons décidé de ne pas aller de l'avant avec notre outil de détection CSAM que nous avions proposé pour iCloud Photos. Les enfants peuvent être protégés sans que les entreprises ne passent au peigne fin les données personnelles », explique le constructeur. « Nous continuerons à travailler avec les gouvernements, les organisations de protection de l'enfance et d'autres entreprises pour aider à protéger les enfants, à préserver leur droit à la vie privée et à faire d'internet un endroit plus sûr pour tous ».

Une mesure du « paquet » annoncé en août 2021 a été mis en place sans provoquer de controverse : le floutage des images dénudées dans Messages pour les jeunes utilisateurs. Cette fonction, réalisée entièrement en local, est disponible en France depuis iOS 16.

L'abandon de cette fonction va certainement de pair avec l'annonce de la sauvegarde chiffrée de bout en bout des photos dans iCloud.

iOS 16.2 pourra chiffrer de bout en bout les photos et les sauvegardes dans iCloud

iOS 16.2 pourra chiffrer de bout en bout les photos et les sauvegardes dans iCloud

avatar bidibout | 

Je comprend mieux pourquoi les photos elles aussi vont avoir droit au chiffrement de bout en bout.

avatar Mickaël Bazoge | 
Oui effectivement.
avatar Sgt. Pepper | 

C’est bien dommage , encore une très belle solution technique plombée par la comm’ d’Apple , champion du pied dans le tapis 😅

La lutte contre la pedo criminalité continuera autrement.

avatar Dimemas | 

Le problème vois tu, c’est que ce n’est pas son rôle de faire ça. Apple ne doit pas se substituer à la justice !
Ou alors dans ce cas, il faudrait qu’Apple scanne tous les sms et mails envoyés pour déceler les terroristes (deja qu’ils n’ont pas voulu aider le FBI), les racistes, les homophobes etc…

La liste peut être vite longue !
Bonjour la plateforme liberticide ! Remarquez on parlait du double discours avec les chinois ^^

avatar Paquito06 | 

@Dimemas

“Le problème vois tu, c’est que ce n’est pas son rôle de faire ça. Apple ne doit pas se substituer à la justice !”

Mais personne n’a dit le contraire, pas meme apple. Seulement quelques uluberlus complotistes. La justice a son role, apple le sien. Quand la justice a besoin de preuve, elle vient chercher qui? Apple. Apple souhaitait seulement en amont proteger des utilisateurs en scannant et floutant, avec une mise en garde, pas rendre des decisions de justice, faut quand meme etre un poil tordu pour penser le contraire 😅

avatar r e m y | 

Pas du tout! Le floutage des photos reçues, c'est une fonctionnalité qui a été mise en place.

Ce dont on parle ici et dont Apple abandonne l'idee, c'est de scanner les photos sur l'iPhone puis sur la bibliothèque iCloud pour y détecter des photos susceptibles d'être de nature pedopornographiques et au-delà d'un certain nombre de photos identifiées, signaler les propriétaires des comptes iCloud en question aux autorités de police ainsi qu'à l'association NCMEC.

avatar Paquito06 | 

@r e m y

“Pas du tout! Le floutage des photos reçues, c'est une fonctionnalité qui a été mise en place.
Ce dont on parle ici et dont Apple abandonne l'idee, c'est de scanner les photos sur l'iPhone puis sur la bibliothèque iCloud pour y détecter des photos susceptibles d'être de nature pedopornographiques et au-delà d'un certain nombre de photos identifiées, signaler les propriétaires des comptes iCloud en question aux autorités de police ainsi qu'à l'association CSAM. “

Il n’a jamais ete question de scanner sur iPhone, mais sur iCloud, non?
Il n’a jamais ete question qu’apple contact la police non plus, mais rapporte cela a l’association CSAM comme tu dis, qui elle prendrait le relai et eventuellement donnerait suite aupres des autorites (police), afin que ca debouche sur une enquete et potentiellement une action en justice. Right?
Alors quand on entend qu’apple se prend pour un juge ou la police, c’est erroné (diffamatoire).

avatar r e m y | 

Le scan était bien prévu sur l'iPhone puis les vérifications faites une fois les photos en question déversées dans la bibliothèque iCloud. C'est du moins comme ça qu'iGen l'avait expliqué à l'époque
https://www.igen.fr/ios/2021/08/photos-messages-apple-devoile-de-nouveaux-mecanismes-pour-lutter-contre-la-pedopornographie-124329
"On comprend donc que si le traitement de la correspondance entre la base de données et les photos de l'utilisateur se réalise à même l'appareil, il faut tout de même que les images soient téléversées dans le nuage d'iCloud afin qu'Apple puisse prévenir les autorités"

Dire qu'Apple se prenait pour la justice ou la police est sans doute exagéré. Disons qu'ils voulaient se positionner en auxiliaires de police en mettant sous surveillance permanente les 2 milliards d'utilisateurs d'iPhone.

avatar Paquito06 | 

@r e m y

“Dire qu'Apple se prenait pour la justice ou la police est sans doute exagéré. Disons qu'ils voulaient se positionner en auxiliaires de police en mettant sous surveillance permanente les 2 milliards d'utilisateurs d'iPhone.”

Est ce qu’apple a seulement besoin de ca? … J’ai dans wallet mon ID, mes cartes bancaires, plein de pass, apple sait ce que je consomme avec apple one premier, les sites visités, les applications installees, ma position gps, mes deplacements, etc. Une surveillance permanente des utilisateurs a travers des photos pedo, pour?

avatar r e m y | 

Pourquoi ils avaient ce projet, je n'en sais fichtre rien! Pose la question à Tim Cook!
Mais c'était quand même bien le principe... analyser en permanence sur tous les iPhones les photos stockées en les comparant, après hash, à la base de données CSAM.

avatar Paquito06 | 

@r e m y

“Pourquoi ils avaient ce projet, je n'en sais fichtre rien! Pose la question à Tim Cook!”

Ah si, on sait pourquoi. Lutter contre la pedo pornographie.

“Mais c'était quand même bien le principe... analyser en permanence sur tous les iPhones les photos stockées en les comparant, après hash, à la base de données CSAM.”

Oui. Et si apple le fait deja depuis 10 ans sans communiquer la dessus, on en sait quoi? Or, elle a clairement (certes, maladroitement pour la majorite du grand public), communiqué a ce sujet et sur son travail. Comme si apple avait besoin de scanner les photos pour son business.

avatar fte | 

@Paquito06

"Il n’a jamais ete question qu’apple contact la police non plus, mais rapporte cela a l’association CSAM comme tu dis,"

Il n’y a pas que moi qui trouve qu’une surveillance massive menée par une entreprise privée et délation à une association sans passage par la case judiciaire ou police est une horreur absolue ? Rassurez-moi, il n’y a pas que moi ?!

avatar anton96 | 

@fte

Non non, rassurez-vous, vous n’êtes vraiment pas seul.

avatar fte | 

@anton96

"Non non, rassurez-vous, vous n’êtes vraiment pas seul."

J’espère très sincèrement. 😰

avatar Paquito06 | 

@fte

“"Il n’a jamais ete question qu’apple contact la police non plus, mais rapporte cela a l’association CSAM comme tu dis,"
Il n’y a pas que moi qui trouve qu’une surveillance massive menée par une entreprise privée et délation à une association sans passage par la case judiciaire ou police est une horreur absolue ? Rassurez-moi, il n’y a pas que moi ?!”

Tu as deja entendu parler de non assistance a personne en danger? De complicité? Porter plainte ca t’evoque qq chose? Où est la case judiciaire ici? Elle se trouve tjrs a la fin. Si ta fille recoit des bites sur son iPhone t’as besoin d’un juge pour bouger le petit doigt? Bah dis donc, t’as les idees larges.

avatar fte | 

@Paquito06

"Bah dis donc, t’as les idees larges."

Pas tant que ça non. L’idée que des entreprises privées étrangères fassent le boulot des instances publiques assermentés de mon pays sur un principe de tous suspects passe très mal. Peut-être suis-je très étroit d’idées en fait.

avatar Jobu Tupaki | 

@fte

Oublie ça il n’est pas capable de comprendre

avatar fte | 

@Jobu Tupaki

"il n’est pas capable de comprendre"

Je ne me permet pas de juger l’intelligence des gens sur quelques commentaires. Je préfère penser que tout le monde est intelligent quitte à me tromper que de prendre les gens pour des imbéciles et me tromper également.

avatar Jobu Tupaki | 

@fte

Je ne te parle pas d’intelligence, je te parle d’un gars qui vit en Amérique avec comme lifestyle que les firmes américaines se substituent au service public.

avatar fte | 

@Jobu Tupaki

La capacité de comprendre est lié au lieu d’habitation ?

Genre si je déménage aux US demain, je ne pourrai plus comprendre ?

Reformulons.

Je préfère penser que les gens peuvent comprendre et me tromper que les prendre pour des imbéciles et me tromper aussi.

🤷

avatar Jobu Tupaki | 

@fte

La preuve que non, il ne comprend pas.

avatar fte | 

@Jobu Tupaki

"La preuve que non, il ne comprend pas."

Avoir un avis différent ne signifie pas qu’il ne comprend pas mon avis.

Mais puisque j’ai un avis différent du sien, dois-je comprendre que je ne peux pas comprendre son avis selon toi ? Bref, es-tu en train d’insulter mon intelligence ?

avatar Jobu Tupaki | 

@fte

😂😇

avatar Paquito06 | 

@fte

“"Bah dis donc, t’as les idees larges."
Pas tant que ça non. L’idée que des entreprises privées étrangères fassent le boulot des instances publiques assermentés de mon pays sur un principe de tous suspects passe très mal. Peut-être suis-je très étroit d’idées en fait.”

Sauf que ce n’est pas le cas.
D’ailleurs apple va maintenant proposer le scan de l’iphone pour flouter les images. Mais c’est bien plus limitée comme fonctionnalité.

avatar Dimemas | 

@ paquito : non mais on nage en plein délire là !
donc c'est à une boite privée de "porter assistance" aux enfants !

comme je le disais plus haut, il faut alors le faire pour tout le monde.
et toi tu fais quoi de tes journées pour raconter des trucs pareils ?
tu as déja aidé des personnes en détresse ? parce que tu parle comme une personne qui vit dans un monde de bisounours

Peut-être qu'avant de laisser une entreprise privée faire TON travail de parent parce que OUI ça passe par l'éducation, et donc voir si ton enfant subit des violences, reçoit n'importe quoi, fait n'importe, c'est TA responsabilité.

a un moment donné, il faut arrêté de se reposer sur les autres et croire que notre rôle peut être délégué à des entreprises privées qui vont finir par faire de l'ingérence et du voyeurisme (pour ensuite nous dire que la vie privée et la confidentialité est un point majeur chez Apple)

avatar fte | 

@Dimemas

"des entreprises privées qui vont finir par faire de l'ingérence et du voyeurisme (pour ensuite nous dire que la vie privée et la confidentialité est un point majeur chez Apple)"

Qui vont finir ?

Dans le cas d’Apple, l’ingérence est là en pleine force depuis les débuts d’iOS et de l’AppStore.

Dans le cas de Google, la surveillance / voyeurisme a toujours été là avec une violente montée en puissance avec l’arrivée d’Android.

avatar Paquito06 | 

@Dimemas

“@ paquito : non mais on nage en plein délire là !
donc c'est à une boite privée de "porter assistance" aux enfants !
comme je le disais plus haut, il faut alors le faire pour tout le monde.
et toi tu fais quoi de tes journées pour raconter des trucs pareils ?
tu as déja aidé des personnes en détresse ? parce que tu parle comme une personne qui vit dans un monde de bisounours
Peut-être qu'avant de laisser une entreprise privée faire TON travail de parent parce que OUI ça passe par l'éducation, et donc voir si ton enfant subit des violences, reçoit n'importe quoi, fait n'importe, c'est TA responsabilité.
a un moment donné, il faut arrêté de se reposer sur les autres et croire que notre rôle peut être délégué à des entreprises privées qui vont finir par faire de l'ingérence et du voyeurisme (pour ensuite nous dire que la vie privée et la confidentialité est un point majeur chez Apple)”

Ok laissons ca a la police et la justice. Rien n’a changé depuis que la pedo pornographie existe. C’est bien d’etre conservateur et borné avec une vision moyennageuse. Et viens pas te plaindre le jour où ca t’arrive bien sur :)

avatar Dimemas | 

c'est bête de ne pas voir le monde évoluer...
Dommage pour toi.

avatar Paquito06 | 

@Dimemas

“c'est bête de ne pas voir le monde évoluer...
Dommage pour toi.”

Venant d’un conservateur c’est fort en chocolat 😅

avatar fte | 

@Paquito06

"C’est bien d’etre conservateur et borné avec une vision moyennageuse. Et viens pas te plaindre le jour où ca t’arrive bien sur :)"

Oooh, ça dérape. Refuser la surveillance de masse c’est être borné et moyenâgeux.

Tu dois adorer ce qui se passe en Chine alors. Adores-tu ?

Je t’ai connu plus respectueux des avis divergents. Il me semble en tout cas.

avatar Paquito06 | 

@fte

“Tu dois adorer ce qui se passe en Chine alors. Adores-tu ?”

Comparer apple a ce qui se passe en Chine, c’est risible.

“Je t’ai connu plus respectueux des avis divergents. Il me semble en tout cas.”

Je suis ouvert. Mais qu’on m’explique en quoi la lutte contre la pedo pornographie par l’identification d’un hash d’une photo quand on a iCloud n’est pas une bonne chose? Jusqu’a present, on me traite de debile et on crie a la dictature, on compare avec la Chine, au flicage. Il n’en est rien.

avatar fte | 

@Paquito06

"Comparer apple a ce qui se passe en Chine, c’est risible."

Je ne compare pas Apple à la Chine. Je compare ton pas de problème avec la surveillance de masse avec la surveillance de masse chinoise.

La même chose chez nous, tu n’y verrais aucun problème ?

C’était ma question.

Tu ne vois vraiment aucun problème à la surveillance de masse ? Publique ou privée.

avatar Paquito06 | 

@fte

“"Comparer apple a ce qui se passe en Chine, c’est risible."
Je ne compare pas Apple à la Chine. Je compare ton pas de problème avec la surveillance de masse avec la surveillance de masse chinoise.
La même chose chez nous, tu n’y verrais aucun problème ?
C’était ma question.
Tu ne vois vraiment aucun problème à la surveillance de masse ? Publique ou privée.”

Comme je le disais plus haut, la surveillance de masse existe deja, est deja possible. Je ne dis pas qu’elle est utilisee a tort et a travers en Occident. Ca ne se passe pas comme en Chine car il n’y a pas une utilisation de celle ci de la meme maniere, aussi flagrante et maladroite (les pays en dev ont du mal a utiliser la technologie proprement, ils ne prennent pas de gants). Alors ceux qui gueulent pour le flicage, la dictature, d’une entreprise privee US, ca releve presque plus de l’anti americanisme primaire que d’une reflexion poussee. Apple a deja toutes nos donnees mais on ne veut pas de flicage? J’ai l’impression d’etre au primaire. Si flicage il y a, il ne va pas etre rendu public, forcement. Et le flicage pour quoi faire? J’aimerais bien qu’on m’explique, encore une fois. Pourquoi s’offusque t on si apple scan des hash? Elle peut deja le faire depuis des annees a bon ou mauvais escient, on attendait qu’elle communique dessus pour emerger et raler? Si on n’a pas confiance alors on n’est pas client.

avatar fte | 

@Paquito06

"Comme je le disais plus haut, la surveillance de masse existe deja, est deja possible."

Qu’elle existe ne signifie pas qu’elle est bonne.

Qu’elle soit possible ne signifie pas qu’il faille y recourir.

En fait, qu’elle existe et qu’elle soit possible sont d’excellentes raisons pour la réguler, la cadrer, très prudemment et très sérieusement.

En Suisse, on peut déclarer un salaire à sa caisse de retraite et un autre salaire aux impôts. Même s’il s’agit de la caisse de retraite de l’état, les impôts n’ont pas de droit d’accès à cette information. Si lors d’un redressement fiscal il est montré que les impôts ont obtenu l’information par la caisse de retraite, le redressement est invalidé. Ça s’est produit…

Non, tout n’est pas possible comme tu le soulignes. Aux US peut-être, ici, non. Le secret bancaire a été grandement réduit pour les non-résidents, mais il reste très fort pour les résidents. Les lois sur la protection des données privées sont tres limitantes en Suisse, plus strictes que le RGDP…

Et c’est tres bien ainsi. Pourvu que ça dure.

avatar fte | 

@Paquito06

"Mais qu’on m’explique en quoi"

Je l’ai fait.

- entreprise privée étrangère
- association non assermentée
- surveillance de masse
- tout le monde suspect en amont
- pas de demande d’autorisation - ce qui est illégal dans mon pays -
- utilisation de mon matériel privé, parfois à mon domicile, pour surveiller mes données privées
- entreprise non mandatée par l’état pour conduire une mission de surveillance sur le territoire national sans encadrement judiciaire ou policier national, au for juridique extra-territorial, possiblement assimilable à des écoutes téléphoniques - illégal sans décision judiciaire -
- what could go wrong? So many things…

Il n’y a rien de juste dans cette initiative. L’intention initiale, brute, est louable, mais tout est faux, horriblement faux, dans la méthode.

Non, la fin ne justifie pas les moyens.

avatar fte | 

@Paquito06

"on me traite de debile"

Je n’ai pas fait ça, et si c’est l’impression que tu as eue, j’en suis navré. Ce n’a jamais été mon intention.

avatar r e m y | 

Non assistance à personne en danger...🤦‍♂️

Dénoncer un crime ou délit dont on est témoin est une obligation. Par contre installer des caméras de surveillance dans un logement que vous louez pour potentiellement être témoin de faits délictueux commis par le locataire et pouvoir le dénoncer, est illégal (même aux États Unis).
Vous saisissez la ... nuance?

avatar Paquito06 | 

@r e m y

“Non assistance à personne en danger...🤦‍♂️
Dénoncer un crime ou délit dont on est témoin est une obligation. Par contre installer des caméras de surveillance dans un logement que vous louez pour potentiellement être témoin de faits délictueux commis par le locataire et pouvoir le dénoncer, est illégal (même aux États Unis).
Vous saisissez la ... nuance?”

Sauf que la comparaison est foireuse. On installe rien chez toi, on peut eventuellement scanner des photos qui sont dans iCloud. A la base t’as pas iCloud t’es meme pas concerné. C’est pas une nuance c’est une dimension là.

avatar r e m y | 

L'algorithme qui fait le scan et compare à la base de données CSAM était prévu sur l'iPhone. Ce n'est que la vérification qui ne devait être faite qu'une fois les photos remontées sur la photothèque iCloud.
Apple avait bien prévu d'installer un algorithme de surveillance sur tous les iPhones de ses clients pour essayer d'y détecter des faits délictueux et pouvoir les dénoncer.
Ce n'était pas juste "au cas où on soit témoin d'un délit ou d'un crime on le dénoncera".

avatar Jobu Tupaki | 

@Paquito06

Que Siri bénisse l’Amérique

avatar r e m y | 

"Vous avez demandé des blinis, voici ce que j'ai trouvé sur Internet"

avatar Jobu Tupaki | 

@r e m y

😂

avatar occam | 

@fte

> "Rassurez-moi, il n’y a pas que moi ?!"

Vous connaissez l’histoire de Chingachgook et Leatherstocking ?

Chingachgook et Leatherstocking sont en train de pagayer dans leur canoë. Tout à coup, devant eux, une flottille de Hurons. Ils regardent derrière eux : une autre flottille de Hurons. Sur la rive droite du lac : une armée d’Iroquois sur pied de guerre. Sur la rive gauche : un tas de guerriers Mohawk. Leatherstocking dit à Chingachgook : « Mon frère, il paraît que nous sommes entourés d’Indiens qui veulent notre peau. »
Le Mohican réplique : « Qu’entends-tu exactement par nous, visage pâle ? »

avatar Dimemas | 

@ fte : oulaaaaaa non ! c'est bien pour ça que j'ai écrit mon post.

en gros, on finirait sur une plateforme encore plus google à terme, je n'ai pas envie qu'on scanne mes photos non pas que j'ai de quoi être inquiéter, mais j'ai des photos de travail et je ne fais pas confiance aux algorithmes pour reconnaitre ce genre de données...

manquerait plus que je passe pour dahmer !

avatar Dimemas | 

Remy t'as parfaitement bien répondu ;)

avatar Paquito06 | 

@Dimemas

“Remy t'as parfaitement bien répondu ;)”

Oui, seulement si chez toi c’est iCloud.

avatar r e m y | 

Non on parle des algorithmes de surveillance intégrés à iOS et donc sur les iPhones des utilisateurs.

avatar Paquito06 | 

@r e m y

“Non on parle des algorithmes de surveillance intégrés à iOS et donc sur les iPhones des utilisateurs. “

Apple a deja une ribambelle d’analytics sur les iPhones de ses utilisateurs. Le scan de photo, ca leur sert a quoi si ce n’est pas pour la bonne cause?

avatar Dimemas | 

et après tu dis que les autres n'ont pas compris ...

avatar fte | 

@Paquito06

"Oui, seulement si chez toi c’est iCloud."

Mes données c’est chez moi, ou que se trouvent mes données.

Pages

CONNEXION UTILISATEUR