Lutte contre la pédopornographie : Apple tente d'éteindre l'incendie avec une FAQ 🆕

Mickaël Bazoge |

Le moins qu'on puisse dire, c'est qu'Apple n'a pas su convaincre du bien fondé de ses nouvelles mesures pour lutter contre les abus sexuels des enfants. Dévoilés jeudi dernier, ces mécanismes ont provoqué une levée de boucliers de chercheurs en sécurité et d'organisations de défense de la vie privée.

Devant la bronca (prévisible) suscitée par cette affaire, Apple a prévu de communiquer tous azimuts et cela s'incarne dès aujourd'hui avec une foire aux questions que le constructeur aurait été bien avisé de publier dès l'annonce de ces mesures.

Le système de floutage des images dans Messages

En préambule, Apple éclaircit une première incompréhension : le système de floutage des photos sexuellement explicites dans Messages et celui qui détecte les photos pédopornographiques dans la bibliothèque iCloud sont différents et n'utilisent pas la même technologie.

Dans Messages, une image sexuellement explicite sera floutée et l'enfant recevra des explications.

Dans Messages, après activation de la fonction depuis les réglages du partage familial, les photos reçues ou envoyées sur l'appareil iOS d'un enfant enregistré au sein d'un partage familial sont analysées en local et floutées en cas de présence d'éléments explicites. Les parents peuvent être prévenus par notification du partage de la photo, mais uniquement pour les enfants de moins de 12 ans (c'est une option à activer) ; il n'y aura pas de notification pour les enfants de 13 à 17 ans.

Cette fonction de floutage se réalise en local et « Apple n'accède jamais aux communications » dans Messages. Le chiffrement des communications dans la messagerie est toujours réalisé de bout en bout, rien ne change ici.

Le système de détection des photos dans la bibliothèque iCloud

Le système de détection des photos d'abus sexuels d'enfants (CSAM pour Child Sexual Abuse Material) n'a rien à voir avec celui de Messages. Apple souligne en préambule que ce mécanisme ne concerne que les photos téléversées dans la bibliothèque iCloud Photos. « Le système ne fonctionne pas pour les utilisateurs ayant désactivé la bibliothèque iCloud », martèle le constructeur.

Apple rappelle le principe global de détection CSAM. En local, il compare les photos de l'utilisateur à la base de données du National Center for Missing and Exploited Children (NCMEC), une association à but non lucratif, seule organisation habilitée à posséder de tels documents (leur possession est interdite dans de nombreux pays). Attention, Apple ne va pas télécharger sur des millions d'iPhone les photos de cette base de données, uniquement leurs hashes, c'est à dire des suites de chiffres.

« En utilisant de nouvelles fonctions cryptographiques, Apple est capable d'utiliser ces hashes pour savoir si les comptes iCloud Photos stockent des collections de photos qui correspondent aux images CSAM, et uniquement les images CSAM », précise le constructeur. Ce dernier ne saura rien des autres données stockées sur l'appareil.

Si Apple a pris la route d'une détection qui se déroule d'abord en local puis sur ses serveurs, c'est pour éviter les « risques sur la confidentialité » que font peser les autres systèmes utilisés par d'autres entreprises qui examinent les photos de leurs utilisateurs uniquement dans le nuage. « La détection CSAM dans iCloud Photos offre des bénéfices significatifs pour la vie privée, en empêchant Apple d'en apprendre davantage sur les photos des utilisateurs, à moins que celles-ci ne correspondent à des images CSAM ».

Apple cherche également à apaiser les craintes très fortes sur la sécurité de ses appareils et la confidentialité des utilisateurs. Le constructeur assure que son système ne peut servir à détecter autre chose que des images CSAM, et il faudra croire l'entreprise sur parole : « Apple refusera les demandes » des gouvernements qui voudront ajouter des images non-CSAM à la liste de hashes.

« Nous avons reçu des demandes de gouvernements pour bâtir et déployer des changements [dans la sécurité d'iOS] qui dégradent la vie privée des utilisateurs », déroule la FAQ. « Nous avons catégoriquement refusé ces demandes. Nous continuerons à les refuser à l'avenir. Soyons clairs, cette technologie se limite à la détection d'images CSAM stockées dans iCloud et nous n'accèderons à aucune demande d'un gouvernement pour l'étendre ».

Les promesses n'engageant que ceux qui y croient, Apple devra donner des gages sur ce point car ce qui se passe en Chine n'est guère encourageant.

Censure, sécurité des données : les compromissions d

Censure, sécurité des données : les compromissions d'Apple en Chine

Le système a été conçu de telle sorte que les hashes d'images « non CSAM » ne puissent être injectés dans la base de données : tous les iPhone et iPad recevront les mêmes hashes, donc les attaques ciblant des individus seront impossibles. Enfin, Apple précise qu'en cas de signalement, c'est un humain qui prend la relève et vérifie si la photo en question est bien litigieuse. La probabilité que le système signale de manière incorrecte un compte iCloud est « inférieure à un sur mille milliards par an ».

Mise à jour 20h30 — Dans une nouvelle séance de questions/réponses avec la presse US, Apple a indiqué que les fonctions de protection de l'enfance (pour Messages et la détection de photos pédopornographiques) pourraient être proposées à des éditeurs tiers. Par exemple, la fonction de floutage des photos sexuellement explicite pourrait être disponible dans WhatsApp, Instagram ou encore Snapchat. La détection des photos CSAM fonctionnerait avec d'autres nuages que celui d'iCloud.

Au vu de la réception pour le moins glaciale réservée par la concurrence à ces mesures (chez le patron de WhatsApp, par exemple), il n'est pas certain que l'on retrouvera de si tôt ces mécanismes ailleurs que chez Apple.

avatar nhtud948 | 

M. Apple cantonne toi à faire du bon hardware + software, punto…

avatar Sindanarie | 

@nhtud948

Ouaip 👍🏼

avatar Kriskool | 

Étant donné que 90% des clients Apple stockent leurs photos sur iCloud …………………

avatar Logam | 

@Kriskool

Tu as une source pour ce chiffre qui me semble complètement farfelu ?

avatar raoolito | 

@Logam

Je pense qu’il voulait parler de photos stream ce qui permet effectivement d’envoyer sur icloud les 1000 dernières photos
chez nous on l’utilise pour que justement ses photos soit directement réintégré dans la librairie photo qu’on a sur l’ordinateur

avatar Sillage | 

@raoolito

Ce qui est dommage, le passage or iCloud réduit la qualité des photos. Enfin, je crois.
Je suis contre la perte de qualité.

Cependant, je n’utilise pas iCloud pour mes photos. (Histoire d’alimenter la statistique).

avatar MacGruber | 

@Sillage

Effectivement, ça dégrade.

avatar Kensei68 | 

@MacGruber

Même lorsque l'option "télécharger l'original" est cochée ?
Si oui, dans quelle mesure ?

avatar Tibimac | 

@MacGruber

Non, iCloud stocke toujours la photo originale. En revanche, et selon vos réglages, les appareils stockent eux soit l'originale soit des versions optimisées pour l'appareil afin d'éviter d'encombrer le stockage du device.
Du coup selon vos réglages ils se peut que TOUT vos appareils récupèrent des versions optimisées (donc "dégradées") mais les originaux sont toujours sur iCloud (icloud.com).

avatar LoossSS | 

Et du coup la source pour le 90% sorti du chapeau ? 😅

avatar raoolito | 

@LoossSS

c'est une option activée par defaut non?
bon apres... c'est 89,567% mais je garde mes sources secretes :)

avatar fwally | 

@Kriskool

Exact, j’allais l’écrire, les photos prises avec iPhone, iPad, ou importées d’un appareil photo sur un de ces appareils-iOs seront sur iCloud, donc cette restriction n’en est pas une…

avatar pilipe | 

Peu importe leur explication, cela ne changera rien. Ils doivent retirer leur truc de merde.

avatar Olivier_D | 

@pilipe

« Ils doivent » ou tu voudrais qu’ils l’enlèvent ?

avatar Godverdomme | 

Donc tu acceptes que l'on scanne tes email pour te prévenir que le prince du Nigeria qui te versera un million d'euros est une arnaque, ça c'est important, mais tu n'acceptes pas que l'on scanne tes photos pour identifier un adulte qui touche un enfant nu? Car ça ce n'est pas important c'est cela?

Très bizarre...

avatar Artefact3000 | 

@Godverdomme

Oh, le beau discours démagogique.

Apple ouvre une porte dérobée sur son système, ce qui n’était jamais arrivé avant. C’est ça, le problème.

avatar hdam1959 | 

@DareMac

Je ne vois pas bien de quelle porte vous voulez parler.

avatar Artefact3000 | 

@hdam1959

Éduquez-vous.

avatar armandgz123 | 

@hdam1959

Sérieusement ???

avatar Sindanarie | 

@hdam1959

C’est plus une porte, c’est le mur complet avec la porte

avatar Tomtomrider | 

@Godverdomme

Ben dans un cas on te prévient d’un danger et dans l’autre cas on te présume coupable par défaut. Ça me semble quand même pas la même chose.

avatar Logam | 

Que se passe-t-il si le CSAM, sur ordre du gouvernement américain par exemple, insère dans sa base des photos n’ayant rien à voir avec le sujet mais dont le but est de détecter leur présence sur un iPhone ? Cela montre bien la fragilité d’un tel système et la possibilité de le détourner au profit d’une agence gouvernementale.

avatar Olivier_D | 

@Logam

J’imagine que le risque est semblable à « que se passe-t-il si Apple, sur ordre du gouvernement américain par exemple, créer une backdoor afin de donner la possibilité à la NSA / CIA d’inspecter les téléphones de la population. »

avatar Logam | 

@Olivier_D

Dans un cas faut mettre en place un backdoor et dans l’autre faut juste insérer une photo dans une base de données non gérée par Apple mais par une entité gouvernementale. Pour moi la facilité d’exécution et le risque de se faire choper ne sont pas du tout les mêmes.

avatar Olivier_D | 

@Logam

Je te rejoins sur ça. Cela dit, on a bien vu le résultat avec Pegasus. Des années que c’était en place, et personne n’a rien vu venir.

avatar RolandJDXI | 

Edouard Snowden savait et il a prévenu mais personne n'a voulu y croire.

avatar raoolito | 

@Logam

Dans ce cas la photo placer frauduleusement par le gouvernement américain va se retrouver à matcher dans un nombre incroyable de documentation de photos en tout genre qui sont de toute façon scanné tous les jours sur Internet par des millions de bots du gouvernement
Traduction vous êtes un grain de sable et vous pensez que la plage s’arrête au troisième grain de sable apres vous :)

avatar Lu Canneberges | 

@raoolito

Comme c’est un humain d’Apple qui va d’abord vérifier les alertes (et seulement s’il y en a plusieurs d’affilée d’ailleurs !), si il y a une photo qui n’est pas du tout liée à la pédocriminalité mais relève de la politique ou d’autres mœurs, Apple s’en rendra très vite compte tôt ou tard !

avatar raoolito | 

@Lu Canneberges

J’ai oublié ce détail aussi !

avatar Vaenoxis | 

@Lu Canneberges
Pas le job des plus joyeux dis donc 😔..

avatar Lu Canneberges | 

@Olivier_D

Comme c’est un humain d’Apple qui va d’abord vérifier les alertes (et seulement s’il y en a plusieurs d’affilée d’ailleurs !), si il y a une photo qui n’est pas du tout liée à la pédocriminalité mais relève de la politique ou d’autres mœurs, Apple s’en rendra très vite compte tôt ou tard !

avatar Olivier_D | 

@Lu Canneberges

C’est également vrai. Ensuite, quel impact est-ce que cela aurait ? Peut-on imaginer un Apple se tenir contre le gouvernement et l’accuser publiquement de rajouter volontairement des hash CSAM dans un but politique ?

avatar Tibimac | 

@Olivier_D

Je pense que oui. Ils se sont déjà positionné mordicus contre le gouvernement US et certaines de leurs demandes. Au pire Apple filtreras des hashs entre la base de donnée et ce qui entre dans le système. Mais si ça se sait alors c'est les autres qui crieront qu'Apple bidouille le truc comme ça l'arrange blablabla

avatar Arnaud33 | 

Nous n’accepterons aucune demande d’un gouvernement mais on commence quand même à mettre au point un truc parce que le FBI n’est pas content … c’est ça qu’il faut comprendre

avatar marenostrum | 

parce que ça n'a rien à voir avec le gouvernement mais plutôt aves des rumeurs partagé depuis quelques mois sur les réseaux que les gens de l'élite (ceux qui sont derrière le gouvernent) et où les dirigeants de Apple font aussi partie, sont des gens de cette nature là.

ça veut dire qu'on va prendre des mesures volontaires, pour enlever tout soupçon ou rendre les rumeurs caduques.

avatar r e m y | 

Dans la conférence de presse d'hier, ( https://www.reuters.com/world/middle-east/apple-not-pass-icloud-photo-uploads-law-enforcement-if-they-do-not-contain-child-2021-08-06/ ) Apple a expliqué qu'ils allaient s'adapter aux législations des Pays dans lesquels ils opèrent ("In a media briefing on Friday, Apple said it would make plans to expand the service based on the laws of each country where it operates.")

Chez Orban par exemple, les nouvelles lois anti-LGBT sont officiellement destinées à protéger les enfants et la "propagande LGBT" est considérée comme portant atteinte aux enfants et donc assimilée à de la pedocriminalite.

Et au-delà, on peut déjà imaginer les demandes insistantes, voire imposées par la loi, d'étendre le système à la lutte contre le terrorisme! C'est tellement tentant de surveiller plus d'1 milliard d'individus (chose qu'aucun service officiel n'a jamais été autorisé à faire nulle part dans le monde!). Pegasus aussi était officiellement destiné à lutter contre le terrorisme. On voit les dérives auxquelles ca a rapidement conduit.

avatar MarcMame | 

@r e m y

"Apple a expliqué qu'ils allaient s'adapter aux législations des Pays dans lesquels ils opèrent"

C’était déjà inquiétant avant. Ça l’est encore plus aujourd’hui.

avatar _QJ_ | 

Le premier système de floutage des images dans Messages semble très bien. En revanche le second ouvre en effet la boite de pandore pour la surveillance de masse de fichiers privés. Et là je dis non.

avatar jul69 | 

@_QJ_

Effectivement la plus grande interrogation réside dans le fait d’ajouter des hashes dans le système. Système non géré par Apple… c’est la que le bât blesse

avatar Olivier_D | 

@jul69

J’imagine que pour palier à ça, un organisme tiers et indépendant, d’un autre pays, devrait veiller à ce qu’aucun abus ne soit fait.

avatar jul69 | 

Si Apple estime rendre le monde meilleur sans impacter la vie privée de ses utilisateurs sauf s’il s’agit de pedophile pourquoi pas ?

avatar Lu Canneberges | 

C’est vrai que cette FAQ aurait été bienvenue dès la première minute, elle éclaircie beaucoup de points importants !

Et si croire une entreprise « sur parole » est difficile, il faut se rappeler le précédent avec le FBI qui montre qu’Apple est capable de s’opposer y compris au gouvernement des États-Unis quand les demandes vont trop loin ! Donc tant qu’Apple gardera cette posture il me semble qu’on peut lui faire confiance.

Ça c’est très rassurant : « Le système a été conçu de telle sorte que les hashes d'images « non CSAM » ne puissent être injectés dans la base de données : tous les iPhone et iPad recevront les mêmes hashes, donc les attaques ciblant des individus seront impossibles. »

avatar raoolito | 

@Lu Canneberges

Accessoirement on peut aussi rappeler que ça ne fonctionnera qu’aux États-Unis parce que cette base de données n’existe que aux États-Unis

avatar Olivier_D | 

@raoolito

Et donc ? On peut facilement se douter que les prédateurs français se servant du réseau de l’oignon consomment bien plus de contenu américain, vu qu’ils sont de toute manière bien plus nombreux que le reste du monde sur ce réseau. Donc on pourrait très bien retrouver du CSAM de la base dans un téléphone d’un étranger.

avatar raoolito | 

@Olivier_D

Le truc c’est que l’utilisation même de cette base est probablement litigieux dans pas mal de pays je pense qu’il est tout à fait envisageable que ce soit comme pour plan ou d’autres applications comme News ou dès que l’on sort du pays ici les États-Unis la fonction se désactive d’elle-même

avatar Olivier_D | 

@raoolito

Oui c’est effectivement possible. Il serait intéressant d’avoir la réaction des différents pays à ce sujet.

avatar fendtc | 

@Lu Canneberges

La question est je pense dans l‘autre sens : avant de pousser une photo sur un serveur Apple AUX USA, il faudra une analyse de la photo.(pour ne pas accuser Apple d‘aider les réseaux pedopornographique???)
Donc TOUS les iPhones feront „prochainement“ la même analyse…
La seule question est donc : Apple enrichira t elle ces Hash avec ceux d’autres bases sur demande de certains gouvernements?

avatar louisb | 

Ça ne passera pas, c’est trop tard.

avatar Olivier_D | 

@louisb

J’en serais pas si sûr. Je penses pas qu’Apple en ai quelque chose à faire de l’avis des consommateurs. C’est pas ce qui empêchera la plus grosse part des acheteurs de se procurer le prochain iPhone.

avatar louisb | 

@Olivier_D

Je ne crois pas, leur longévité extrême à la place de n°1 des marques les plus coools du monde tient à peu de chose, et c’est elle qui fait vendre par palettes les iPhones.. je pense que ce genre de polémiques ils l’observent comme le lait sur le feu et ça peut être retiré rapidos. De plus ils communiquent tellement avec leur campagne Privacy that’s iPhone que perdre cette carte serait dur dur..

Pages

CONNEXION UTILISATEUR