Photos, Messages : Apple dévoile de nouveaux mécanismes pour lutter contre la pédopornographie

Mickaël Bazoge |

Après les rumeurs, on s'attendait à une annonce en bonne et due forme et c'est chose faite ce soir : Apple va bel et bien intégrer dans l'iPhone une technologie de détection d'images pédopornographiques qui va scanner les images à même l'appareil… Mais c'est un peu plus compliqué que cela, et ce n'est pas le seul mécanisme de sécurité dédié à la protection de l'enfance que le constructeur présente sur ce nouveau site.

Il y a en fait trois mesures qui vont être mises en place plus tard cette année, qui vont se limiter aux États-Unis pour le moment. Apple fournit un livre blanc technique sur l'ensemble de ces mesures.

L'application Messages va bénéficier de nouveaux outils qui vont prévenir l'enfant utilisateur que tel contenu partagé est potentiellement sensible (on peut penser à des photos sexuellement explicites envoyées par des prédateurs). À la réception de telles images, elles seront floutées et l'enfant recevra une alerte sur la nature litigieuse du message.

Si l'utilisateur mineur décide tout de même de visualiser l'image, les parents pourront recevoir une notification. Idem lorsque le mineur décide de partager une photo intime. Les notifications parentales sont optionnelles pour les enfants de moins de 13 ans, et pas disponibles pour les enfants âgés entre 13 et 17 ans. Messages s'appuie sur un traitement d'apprentissage automatique réalisé à même l'appareil pour analyser l'image et déterminer s'il s'agit d'un contenu sexuellement explicite. Bien sûr, Apple n'a pas accès aux messages.

Cette fonction sera disponible dans iOS 15, iPadOS 15 et macOS Monterey, pour les comptes Apple configurés en partage familial.

Un Genius à la maison : comment bien gérer le partage familial

Un Genius à la maison : comment bien gérer le partage familial


La technologie de détection d'images pédophiles (CSAM pour Child Sexual Abuse Material) fera son apparition dans iOS et iPadOS. Elle permettra à l'appareil d'examiner les images stockées dans la bibliothèque photos, et en cas de détection de cas d'abus sexuels sur des enfants, Apple sera en mesure d'alerter le National Center for Missing and Exploited Children (NCMEC), une organisation qui travaille avec les forces de l'ordre américaines.

Cette technologie baptisée NeuralHash (et non pas NeuralMatch comme les indiscrétions l'ont annoncé tout à l'heure) analyse l'image et la convertit en une suite de chiffres. Les images en question peuvent être recadrées ou éditées, cela n'affectera pas le NeuralHash.

L'image originale à gauche est quasiment identique à celle de l'image du centre : elles ont le même NeuralHash. En revanche, l'image de droite présente un contenu différent, donc le numéro est différent.

Avant qu'une image ne soit téléversée dans la bibliothèque iCloud, la méthode fait correspondre ces numéros avec ceux d'une base de données du NCMEC et d'autres groupes de défense des enfants. Apple transformera cette base de données en un ensemble de hashes qui sera stocké de manière sécurisée sur les appareils.

En cas de correspondance, l'appareil génère un jeton cryptographique et un « dérivé visuel » qui sont téléversés dans la bibliothèque iCloud Photos, en même temps que l'image. Une fois qu'un seuil (non révélé) de correspondances est dépassé, Apple s'empare des jetons et examine manuellement chaque rapport pour constater la correspondance, ou pas. Le compte iCloud est ensuite désactivé, et un rapport est envoyé au NCMEC qui prendra les mesures qui s'imposent.

Apple garantit un niveau « extrêmement élevé » de vigilance afin que les comptes ne soient pas signalés de manière incorrecte. Il va falloir faire confiance au constructeur sur ce coup là. Il donne plusieurs avantages à son système : cela lui permet d'identifier des images pédophiles stockées dans des bibliothèque iCloud Photos, tout en protégeant la vie privée de l'utilisateur.

Apple n'apprend l'existence des photos des utilisateurs que lorsqu'une collection de photos correspondantes à la base de données est présente dans un compte iCloud. Et même dans ce cas, Apple n'a accès qu'à ces images, pas aux autres qui ne correspondent pas.

Le constructeur ajoute que la base de données est invisible aux yeux de l'utilisateur, le système se veut « très précis » avec un taux très faible d'erreur, et plus respectueux de la confidentialité que le scan des photos sur les serveurs, bien que le constructeur ait admis utiliser ce type de technologie l'an dernier :

La lutte contre la pédophilie se mène aussi sur iCloud

La lutte contre la pédophilie se mène aussi sur iCloud

On comprend donc que si le traitement de la correspondance entre la base de données et les photos de l'utilisateur se réalise à même l'appareil, il faut tout de même que les images soient téléversées dans le nuage d'iCloud afin qu'Apple puisse prévenir les autorités. La Pomme a confirmé que si iCloud Photos était désactivé sur l'appareil, il ne sera pas possible de détecter des images qui correspondent à la base de données CSAM.

À des degrés divers, d'autres entreprises scannent les images de leurs utilisateurs comme Twitter, Microsoft, Facebook et Google.


Dernier volet de cet ensemble de mesures de protection, Siri et les fonctions de recherche d'iOS/iPadOS 15, de watchOS 8 et de macOS Monterey vont proposer des liens pour rapporter des cas d'exploitation sexuelle de mineurs, au cas où l'utilisateur le demanderait.


avatar en chanson | 

Apple garantie votre vie privée dit la pub, après Pegasus on ça lorgner vos photos 👍👍

avatar DG33 | 

@en chanson

Si selon toi dans leur vie privée les enfants peuvent être la cible de pervers…
Si selon toi dans ta vie privée tu peux t’adonner à la photo pédo-pornographique…
Ma foi…

avatar gwen | 

On m’aurait affiché un tel message quand j’étais gamin, j’aurais tout fait pour aller voir la photo en question :-)

Après, si les pedophiles délaissent les iPhone pour d’autre marques de téléphone, c’est pas mal. Les parents sauront quoi offrir à leur gamin quand le besoin d’un objet communicant se fera ressentir.

avatar captainBDO | 

Ce qui serait encore mieux c'est de prendre une photo de l'utilisateur du smartphone lorsque les photos sont détectées

avatar klouk1 | 

Ouf, Grivois n’est pas concerné…

avatar IRONMAN65 | 

Snowden est tres remonté

avatar Calorifix | 

La Chine, la Russie et tous les régimes répressifs aiment ça ! Ils ont tous déjà des listes d'images "pédopornographies" à fournir à Apple.

avatar Malvik2 | 

Donc en gros on va laisser une IA analyser nos albums photos numériques, se faire balancer par celle ci si elle a un doute, et un humain matera la ch…de notre copine et décidera si elle est majeure ou non…?!
Non mais franchement on va où la?!
On ne peut pas tout autoriser au nom de la lutte contre le terrorisme ou la pédophilie, demain un gouvernement autoritaire façon chinois détectera des messages de dissidents ?!

avatar BananaYatta | 

@Malvik2

Respirez fort, buvez un grand verre d’eau et relisez l’article. Ça devrait aller mieux après.

avatar ech1965 | 

@BananaYatta: @Malvik2 a tout a fait bien résumé le processus. c'est extrêmement flippant comme fonctionalité.

avatar Q | 

« Ce qui se passe sur votre iPhone reste sur votre iPhone »
😂😂😂😂

avatar AFLC7 | 

Donc tous les pédo criminels qui ont un iPhone vont désactiver iCloud photos pour ne pas être inquiétés. C’est efficace cette détection, on dirait du Castex…

avatar xfce | 

@AFLC7

Ou plus simplement se réfugier sur des plateformes qui ne joueront pas à ce jeu :)
Telegram ? Ce n’est qu’une question de temps avant qu’une puissance étrangère (hors USA) ne finance une appli de messagerie.

avatar Darlito | 

Donc cela n’est activé seulement pour les comptes enfants ? Si c’est le cas, alors y’a quand même beaucoup qui ont un compte adulte qui n’est pas raccordé au compte du parent…

avatar kitetrip | 

En gros Apple et ses logiciels regardent bien le contenu de votre vie.
Si vous êtes prêts à avoir moins de liberté pour plus de sécurité, vous n'aurez ni l'un ni l'autre et finirez par perdre les deux

avatar BLM | 

Ce n’est pas à Apple de décider ce qui est déviant.

avatar debione | 

J'ai l'impression en lisant cette new que le proverbe "l'enfer est pavé de bonnes intentions" est parfaitement en adéquation avec cette nouveauté.
Inutile de dire que de base, on ne peut qu'etre d'accord, chasser du pedo. Après dans les dérives, c'est autre chose, ne serait-ce que l'acceptation qu'une entreprise privée étrangère vienne fliquer les photos de vos enfants, l'abandon de l'éducation (pourquoi en parler? Apple nous a dit que notre enfant était protégé) ... la liste peut encore être longue...
J'aime bien l'idée, mais je n'aime pas son application et ce qu'elle implique.

avatar bylli7 | 

L’enfer est pavé de bonnes intentions. En espérant que la RGPD (RGDP en VF) fasse son travail en Europe

avatar xfce | 

@bylli7

RGPD = Règlement Général sur la Protection des Données non ?
GDPR pour les anglophones.

avatar bylli7 | 

@xfce

C’est tout à fait juste, merci pour la correction

avatar pariscanal | 

Plutôt terrifiant, forcément une porte ouverte sur d’autres types de surveillance a l’ avenir.

avatar Grizzzly | 

Ma seule certitude en terme d’effet d’une telle mesure, c’est que c’est une belle opération de communication pour Apple.

Pour le reste, y’a de quoi être dubitatif.

avatar xfce | 

Cette histoire de « hash » est une vaste blague ; l’anonymat n’existe pas et Apple le sait très bien puisqu’il sera possible de remonter jusqu’a la personne suspectée.

avatar TiTwo102 | 

https://m.youtube.com/watch?v=pJejd5adSHU

Cette publicité Apple, pourtant récente, a très, très, très mal vieilli.

En septembre ils vont annoncer que iOS va maintenant se nommer pegasusOS.

avatar TiTwo102 | 

BFMTV priorité au direct ! Annonce gouvernementale :

« Cher compatriotes, à partir du 1 septembre, un policier passera chaque jour chez vous, que vous soyez suspect ou non. Ils contrôlera votre courrier pour s’assurer que vous ne communiquez pas avec des mineurs. Il fouillera également l’ensemble de votre maison pour s’assurer que vous ne détenez rien d’illégal.
Merci de ne pas opposer de résistance. Si vous n’avez rien a vous reprocher vous n’avez rien à craindre. »

Cette mesure est tout simplement honteuse et scandaleuse.
On passe d’un système ou il faut des soupçons pour contrôler quelqu’un, a un système ou on contrôle tout le monde sans le moindre soupçon.

L’excuse d’activation d’iCloud est totalement bidon. Les résultats ne sont envoyés que si iCloud est activé, certes, mais les analyses se font sur le tel et les résultats sont prêts. Demain, une petite mise à jour et iCloud ne sera plus nécessaire.

Et le pire, c’est que cette mesure ultra liberticide passera crème. Par contre, si demain Apple supprime TikTok de l’AppStore, c’est la catastrophe planétaire. Ça en dit long sur la capacité de réflexion de notre société. Malheureusement.

J’espère que ça ne sortira jamais des états-unis.

La sécurité d’un groupe de personnes ne justifie en aucun cas la suppression de vie privée de la totalité de la population.

avatar DrStax | 

Hors sujet : MacGe, une idée d’option premium serait de ne pas afficher les commentaires de ceux qui n’ont pas lu l’article avant de commenter, ça raccourcira pas mal la liste de commentaire 😂

avatar ech1965 | 

Pourquoi ? moi j'aime bien les commentaires ( y compris de ceux qui n'ont pas lu l'article) ça contient bien plus ( de tout) que l'article ( et en plus c'est visible même sans cloud igen)

avatar inumerix | 

Chaque jour qui apporte son lot de catastrophes.
C’est un cauchemar.

avatar ZeykorX | 

Le système a l’air vraiment bien sophistiqué je suis convaincu que ça sera au top.

avatar Ceric18 | 

Une très grosse déception pour moi. C'est une porte ouverte à toutes les dérives, maintenant qu'il est ok de considérer que des données privées ne sont plus privées. Où est passé leur excellence en matière de protection de la vie privée?
Un jour, Apple estimera que l'homosexualité est immorale, et doit être combattue de la même manière. Et on regrettera de n'avoir pas réagi plus tôt.

avatar Bigdidou | 

@Ceric18

“Un jour, Apple estimera que l'homosexualité est immorale,”

Oui, alors là, c’est pas pour tout de suite, quand même ;)

Et de mon point de vue, c’est pas vraiment le sujet.

C’est plus une question du modèle de société que nous voulons ou pas : désirons nous vivre dans des GAFAMocraties au dessus des états de droit, s’arrogeant les droit de police, de nous dire ce qui est bon ou pas pour nous, réglementant nos habitudes de vie ?

avatar ab75 | 

L’enfer est toujours pavé de bonnes intentions. Si le but est louable (la protection des enfants ne se discute pas) , il ne faut pas oublier que cela fonctionne correctement dans un vrai système démocratique. Imaginons un instant les iPhones afghans avec les Talibans au pouvoir…. Et une dérive sur les seules photos de nus…
La fin ne justifie pas les moyens lorsque ces moyens s’attaquent à la vie privée comme cela est le cas avec le on-device scanning. C’est hallucinant! Nous sommes entrés après la société de consommation, après la société de l’information dans la société de la surveillance.
Ce n’était pas forcément mieux avant mais en l’absence des téléphones portables nous n’avions pas cette surveillance individuelle voire cette possibilité de contrôle de la population via les outils numériques. Que cela n’en déplaise aux geeks!

avatar ab75 | 

Suis je déjà un suspect avec les photos de mes garçons nus en train de jouer et de faire des châteaux de sable sur la plage ??

Pages

CONNEXION UTILISATEUR