Apple l'assure, les gouvernements ne pourront pas abuser du nouveau mécanisme de lutte contre la pédopornographie

Mickaël Bazoge |

Apple poursuit son tour des médias (anglophones) pour faire accepter ses mesures de lutte contre la pédopornographie. Erik Neuenschwander, le patron des technologies de confidentialité, est à la manœuvre dans une interview chez TechCrunch. Il tente d'apaiser les craintes de tous ceux qui redoutent que le système de détection des photos CSAM (Child Sexual Abuse Material) puisse être exploité par des gouvernements peu soucieux des libertés publiques.

Les nouveaux systèmes d

Les nouveaux systèmes d'Apple pour lutter contre la pédopornographie inquiètent

Le dirigeant rappelle tout d'abord que seuls les États-Unis sont concernés à l'heure actuelle. Selon lui, les lois américaines ne permettent pas au gouvernement d'imposer à Apple de détecter des images sur les appareils des utilisateurs de ses produits, autres que des images pédopornographiques. Les avocats pourraient bien s'emparer de cette question légale le jour où le FBI aura besoin d'un coup de main du constructeur pour repérer des terroristes par exemple.

Apple a indiqué en fin de semaine dernière que son système de détection des images CSAM pourrait se déployer en dehors des États-Unis, en fonction des législations locales. Problème : on a vu que le constructeur n'avait aucun mal à plier dans tous les sens ses beaux discours devant la réalité des faits, comme en Chine.

Erik Neuenschwander explique que le système intègre un certain nombre de protections qui n'en font pas le meilleur outil pour « identifier des individus qui possèdent des images particulièrement répréhensibles ». Cet automne, iOS va comparer des suites de chiffres hachés d'images pédopornographiques provenant d'une base de données du National Center for Missing and Exploited Children (NCMEC), avec les photos à téléverser vers iCloud Photos (elles aussi ont été hachées avec l'algorithme NeuralHash). Cette base de données sera intégrée à même le système d'exploitation.

Il est impossible pour Apple de cibler des utilisateurs individuels, puisque iOS est un système d'exploitation global : tout le monde reçoit le même paquet. Le système du constructeur exige aussi qu'un certain nombre de correspondances soient enregistrées avant de lancer une procédure d'examen par un humain. « Essayer de rechercher une seule image à partir de l'appareil d'une personne ou d'un ensemble d'appareils ne fonctionnera pas, car le système ne permet pas à Apple de prendre connaissance des photos individuelles stockées dans ces appareils ».

L'examen manuel est le dernier garde-fou mis en avant par Neuenschwander, il intervient lorsque le mécanisme a détecté qu'un seuil d'images CSAM est dépassé (Apple ne précise pas le nombre1). Si un gouvernement voulait abuser du système en intégrant à sa base de données des hashes de photos qui n'ont rien à voir avec des images pédopornographiques, il lui faudra passer au-dessus de pas mal d'obstacles, souligne-t-il.

Et il y a toujours la possibilité de désactiver iCloud Photos sur l'appareil. Dans ce cas, le processus NeuralHash ne se lancera pas, il ne générera aucun « bon de sécurité » qui pourrait allumer une alerte orange chez Apple (et pour cause, dans ce cas les photos ne sont pas téléversées sur les serveurs du constructeur).

L

L'été où l'iPhone est devenu une passoire de sécurité qui vous flique


  1. Pourquoi plusieurs correspondances plutôt qu'une seule ? « Nous voulons nous assurer que les rapports que nous faisons au NCMEC sont exploitables », explique Neuenschwander. « Une des notions de tous les systèmes est qu'il existe une certaine incertitude pour savoir si cette image correspond ou pas. Le seuil nous permet d'atteindre cet objectif, nous nous attendons à un taux de faux rapports pour l'examen d'un compte de un pour mille milliards par an »  ↩︎

avatar YetOneOtherGit | 

@morpheusz63

"Rien n'est figer, et rien n'est graver dans le marbre."

Si ce n’est tes interprétations complotistes sur tous les sujets dont tu ne sais interpréter la complexité qui dépasse totalement tes capacités qu’avec les facilité intellectuelle de la doxa complotiste à laquelle tu t’abreuve et dont la phraséologie idiote dégouline de chacun de tes propos 🤢

Terrible de voir comment ces code de lecture facile du monde ont atteint les esprit tant ils sont séduisant pour qui veut se croire penser sans faire l’effort de comprendre la complexité du monde 😞

avatar Sindanarie | 

@morpheusz63

"Rien n'est figer, et rien n'est graver dans le marbre"

Rien n’est figé
Rien n’est gravé

🙄

Avant d’exposer tes idées, veille à écrire correctement… pour ta crédibilité déjà !

Et n’accuse pas la suggestion et la correction automatique, c’est trop facile 😈

avatar ElFitz | 

@Sindanárië

"Quand le sage désigne la lune, Sindanárië regarde le doigt."

En plus d'être ici méprisant, s'attaquer à la forme plutôt qu'au fond est fallacieux. Un sophisme. C'est petit. Et bien dommage.

avatar Sindanarie | 

@ElFitz

Au lieu de couiner et d’aligner des mots que tu recopies bêtement, retourne faire tes cahiers de vacances

avatar fred5150 | 

le chocolat dans le papier aluminium 🤣🤣🤣

avatar benji99 | 

Cette histoire va pourrir la vie d’Apple pendant un bon bout de temps. Les gens ne retiennent pas les détails techniques mais par contre ils vont juste retenir que Apple peut activer un scan des photos en local. Apple aura beau répéter qu’il ne fait que vérifier une signature et que la liste des hashes est maîtrisée etc malheureusement le mal est fait et le sujet tourne en boucle dans toutes les news techniques et même généralistes. Personne ne croit aux arguments d’Apple vu que tout le monde sait que l’argent et les parts de marché font plier les + grandes marques. On l’a bien vu les concessions de Apple en Chine, à Hong-Kong etc. Du coup la pub « Apple privacy » que l’on voit placardé dans Paris fait rigoler finalement. C’est dommage d’avoir utiliser une cause légitime (lutte contre la pedocriminalité) pour justifier cette soi disant avancée technologique.

avatar mat16963 | 

@benji99

Quand je vois encore le nombre de personnes qui ne comprennent pas que les empreintes Touch ID ou Face ID sont juste une représentation mathématique enregistrée dans la secure enclave mais croient qu’elles sont envoyées en clair sur les serveurs d’Apple, il y a encore du boulot en effet.

avatar cybercooll | 

@mat16963

L’autre jour je suis arrivé devant la porte d’entrée de Carrefour, et tu sais quoi, elle s’est ouverte automatiquement à mon arrivée 😨😨. C’est la preuve que mon visage a fuité des serveurs Apple pour arriver chez Carrefour, la baie vitrée m’a reconnu et s’est ouverte comme par magie des que mon visage était assez près pour être reconnu! Les données sont donc bien envoyées en clair. Je ferai le test avec un masque la prochaine fois, mais je pense tenir un scoop, je vais prévenir BFM TV et demander l’asile politique à la Biélorussie, avant que le FBI ne défonce ma porte et ne me suicide proprement.
J’ai voulu aller au ciné et il y a une fille à l’entrée qui a voulu scanner mon téléphone! Je me suis barré en courant, je suis sur qu’elle allait pomper toutes mes données perso.
Encore un peu ils vont sortir des robots pour nous surveiller H24. Ils sont malins, ils vous feront croire qu’il s’agit d’un chien, méfiez vous!

avatar Paquito06 | 

@benji99

"Les gens ne retiennent pas les détails techniques mais par contre ils vont juste retenir que Apple peut activer un scan des photos en local. Apple aura beau répéter qu’il ne fait que vérifier une signature et que la liste des hashes est maîtrisée etc malheureusement le mal est fait et le sujet tourne en boucle dans toutes les news techniques et même généralistes."

Pour monsieur et madame tout le monde encore, ca se comprend. Pour certains commentaires sur MacGé (specialisé), ca craint en effet. Et pourtant, les memes fileront leurs cartes de credit dans Wallet, leur ID quand ca sera possible, tous leurs credentials dans Safari ou Chrome, mais bon, faudrait pas comparer un hash de photo si on a iCloud, 🤣

avatar headoverheel | 

@Paquito06

Ils l’ont annoncé quelque part qu’il n’y aura jamais de version 2 ?

avatar Paquito06 | 

@headoverheel

"Ils l’ont annoncé quelque part qu’il n’y aura jamais de version 2 ?"

Nullement.

avatar headoverheel | 

@Paquito06

C’est pour ça que certains ne se focalisent sur ce que fait le système maintenant alors que l’on a aucune idée de ce qu’il fera dans 10 ans.

avatar YetOneOtherGit | 

@benji99

"Cette histoire va pourrir la vie d’Apple pendant un bon bout de temps."

Crois tu ?

J’ai de très gros doutes et il est même probable que cela renforce l’image de marque de l’entreprise en dehors d’un microcosme.

Wait&See 😎

avatar cybercooll | 

@YetOneOtherGit

Je suis d’accord avec toi. Les parents seront en confiance si leur enfant a un iPhone. Et comme les enfants ont des tél de plus en plus tôt, ça finira par être très rentable. Ils perdront qq personnes au début peut-être mais je suis même pas sûr, ce sera compensé par ceux qui migreront dans l’autre sens en pensant que leurs enfants seront mieux protégés avec un iPhone…

avatar armandgz123 | 

@cybercooll

« Plus en sécurité » mdr, vive le marketing

avatar cybercooll | 

@armandgz123

J’ai pas dit que c’était vrai. J’ai dit que que c’était le message que le marketing voulait faire passer.

avatar armandgz123 | 

@cybercooll

Oui c’est vrai. Et je pense que tu as en partie raison, même si j’ai pas les statistiques devant moi bien sûr

avatar fousfous | 

Perso si je suis un dictateur j'envoie un mail à Tim Cook pour dire d'intégrer des photos d'opposants sinon plus de ventes dans le pays.
En chine on pourrait surveiller les images de Winnie l'ourson.

avatar cybercooll | 

@fousfous

T’as beaucoup de photos d’hommes politiques dans ta photothèque?
Si oui, c’est inquiétant 😋

avatar gwen | 

@cybercooll

Justement cela permettra de reconnaître le cercle très restreint des amis du dissident.

avatar cybercooll | 

@gwen

Encore faut il qu’ils aient tous la même photo. C’est basé sur un hash, pas sur un personnage à reconnaître en détection de visage.

avatar gwen | 

@cybercooll

Donc potentiellement ça ne sert à rien.

avatar cybercooll | 

@gwen

Si ça sert à connaître les gens qui possèdent des photos qui sont identifiées comme interdites. Rien de plus. Il n’y a aucune reconnaissance. C’est inutilisable autrement qu’avec une copie identique à l’image indexée (ou du moins très proche, a voir selon l’algo si une photo retouchée marche). Le cadre d’utilisation est super limité. C’est une mesure psychologique pour dire aux pedos on veut pas de vous sur nos machines, ca va identifier très peu de gens a mon avis et ils sont probablement tous très cons (avoir une photo connue qui circule suffisamment pour être dans la base + la mettre sur son iPhone sur iCloud…)
Les gars qui font ca téléchargent probablement leurs photos en masse sur des torrents ou des newsgroup (ca existe encore?) sur un fixe.

avatar ElFitz | 

@cybercooll

Les photos d'opposants ne sont pas les meilleurs exemples, bien d'accord. Mais dans certains pays, d'autres contenus seraient tout à fait pertinent. La Chine pourrait commencer par des hashes de memes de Winnie l'Ourson. Ou, dans le Xinjiang, des passages du Coran connus pour circuler parmi les Ouïgours, ou encore des photos connues du Dalaï Lama. Ils le font déjà: https://www.vox.com/future-perfect/2019/7/3/20681258/china-uighur-surveillance-app-tourist-phone

avatar cybercooll | 

@ElFitz

J’ai pas tout lu mais la ca fonctionne à l’envers
C’est pour éviter de faire entrer des infos dans une zone. Le but de cette reconnaissance est d’identifier des gens peu nombreux repartis de partout. Pas d’identifier des gens que tu connais déjà. Je ne vois pas l’intérêt de la Chine dans ce système, ils font déjà 100 fois pire, qu’est ce que ça pourrait leur apprendre qu’ils ne savent pas déjà?
Les pays qui font de la surveillance n’ont pas attendu qu’Apple utilise un système qui existe déjà depuis 10 ans pour s’emparer de ce système (probablement totalement inefficace et psychologique en plus)

avatar cybercooll | 

@fousfous

Perso je suis un dissident je demande à Apple d’ajouter la photo d’un dictateur.
Ça a plus de chances de marcher dans ce sens avec un hash 😏

avatar fousfous | 

@cybercooll

Oui mais quel intérêt? C'est pas toi qui contrôle le pays!

avatar cybercooll | 

@fousfous

On est d’accord ça n’a aucun intérêt. CQFD
Dans un sens ça ne marche pas techniquement, dans l’autre sens ça n’a aucun intérêt. Donc il y a de fortes chances que ça reste limite au problème d’origine (pedo pornographie)

Le gros risque de ce système, c’est que les pedo vont avoir besoin de nouvelles photos qui ne sont pas dans la bdd, ou d’utiliser des film au lieu de photos. Ça risque de créer une demande.

avatar fousfous | 

@cybercooll

Pourquoi ça ne peux pas marcher dans l'autre sens? Il suffit juste de flagguer des images qui s'échangent entre opposants (et ça marche aussi contre les homosexuels par exemple).

avatar cybercooll | 

@fousfous

Mais qui va passer des milliards d’heures pour recenser toutes les photo homo ou d’opposants qui existent pour populer la base de hash? Il faut que la photo soit connue pour être reconnue.

avatar cybercooll | 

@fousfous

La pedo pornographie fonctionne de façon assez spécifique, beaucoup plus facile à identifier
Il y a peu de photos mais qui circulent beaucoup. En 2020 Facebook a annoncé que 90% des photos identifiées étaient de vieilles photos qui avaient été légèrement retouchées. Et 6 vidéos représentent 50% du trafic.

avatar PlasticB | 

Je conseille, en parallèle de la couverture faite par iGen, de regarder la vidéo de René Richie sur le sujet.
Géniale et instructive

avatar BLM | 

@PlasticB
Vous avez le lien de la vidéo « instructive » de Ritchie ?

avatar PlasticB | 
avatar pat3 | 

@PlasticB

Lien, stp ?

avatar PlasticB | 
avatar pat3 | 

@PlasticB

Merci, je n’avais pas encore vu ta réponse dans un message précédent.

avatar PlasticB | 

@pat3

Pas de soucis 😊

avatar David Finder | 

@PlasticB

Merci pour cette vidéo très instructive !
Ça met les choses à plat, et c’est très très bien expliqué.

avatar PlasticB | 
avatar BLM | 

Le problème n'est pas un « abus gouvernemental ».
Il est que :
– Apple n'a pas à farfouiller dans mes fichiers (c'est une des raisons pour lesquelles je n'utilise pas les solutions Google),
–Apple n'a pas à définir ce qui est légal ou pas.

Que sur commission rogatoire (injonction d'un pouvoir étatique judiciaire quelconque), Apple communique les informations qu'elle détient, OK.
Mais Apple n'est qu'une boîte commerciale, en aucun cas elle ne doit définir des critères en s'arrogeant le pouvoir de décider ce qui est légitime ou pas.

avatar UraniumB | 

@BLM

Sauf que ce type d’initiative est forcément mis en place pour répondre, aussi malheureux soit la cause, à un besoin. Il est intéressant de comprendre (Merci MacG) comment tout ce système fonctionne, et de voir que ce n’est pas un « scan » pur et dur de nos photos. C’est désespérant de voir comment les gens s’offusquent et parlent sur certains RS de changer de marque… J’ai juste envie de leur souhaiter bon courage si ils pensent trouver herbe plus verte ailleurs en terme de confidentialité puisqu’il en est question. Dans le fond, cela ne me dérange pas qu’une méthode soit déployée pour lutter contre la pedocriminalité, du moment qu’elle ne fasse pas autre chose que cela. Encore une fois, si Apple fait cela c’est pour une raison autre que celle de nous espionner. Jusqu’à présent, cette histoire est pas mal (mais pas toujours ça se comprend) un plat bien consistant pour certains haineux affamés qui n’ont pas eu à manger depuis bien longtemps.

avatar cybercooll | 

@BLM

Apple ne définit rien. Détenir ces photos n’est pas légal et est puni de 3 ans d’emprisonnement et 45k€ d’amende en france.
Article 227-23 du Code Pénal

Et cherche par exemple « voiture » dans ta photothèque, tu verras tout ce que ton tel a indexé (chez moi: enfant, sport, formule 1, décapotable!!). Il m’a aussi détecté les cravates…

avatar r e m y | 

Oui et alors? Ce n'est pas parce que les outils existent pour indexer des images selon les critères qu'on leur donne, et que détenir certaines photos est interdit par la loi, qu'Apple est autorisé à contrôler TOUS les détenteurs d'iPhones et iPad (près de 2 milliards en circulation) pour vérifier qu,ils respectent bien tous scrupuleusement la loi !

Apple n'est pas auxiliaire de police, et même la police n'est pas autorisée à perquisitionner les lieux et affaires privées sans raison.

avatar marenostrum | 

si tu le mets dans les nuages ça change la donne en fait. tu peux le partager cette photo, donc l'utiliser, bref devenir coupable par la loi.
c'est comme si pendant un contrôle te trouvent un grand couteau de cuisine dans la poche. tu deviens suspect le moins qu'on puisse dire. ils vont pas te condamner, c'est un juge qui décide après. mais ils vont t'examiner à la loupe après.

en tout cas, je pense que les stats (depuis que les technologies permettent l'analyse des images) leurs montrent que des photos du genre se trouvent en masse dans les smartphones des gens, et qu'il est le temps de ne plus rester neutre. je vois pas d'autres explications.

avatar r e m y | 

Tout ce qui est mis dans un cloud n'est pas forcément destiné à être partagé (j'ai tous mes documents privés et professionnels dans des clouds, et pourtant rien n'est public)

Quant au contrôle qui me trouverait avec un couteau, ça n'a rien à voir!
Là c'est le fabricant du jean que je porte, qui a installé un système dans les poches de tous ses pantalons pour signaler à la police tous ceux de ses clients qui mettent un couteau dans leur poche.

Si on va par là, demain les constructeurs de voitures pourraient mettre des détecteurs dans les coffres de toutes les voitures vendues pour dénoncer à la police toute personne qui transporterait de la drogue ou des armes.
On pourrait avoir les constructeurs de maison installant des caméras pour surveiller les propriétaires des maisons et dénoncer ceux qui installeraient des ateliers clandestins dans leur sous-sol.

avatar marenostrum | 

y a pas que la police qui contrôle les gens, ça peut être fait par des civiles, comme dans les supermarchés ou n'importe quel passant a le droit de te signaler. en plus c'était qu'un exemple pour montrer avoir un couteau dans ta cuisine c'est pas pareil que avec toi dans la rue. pour une photo pareil.

tout se fait pour protéger les enfants, et pas arrêter les débiles ou les pervers. c'est comme la nudité, en public seul n'est pas tolérée, pas chez toi.

avatar r e m y | 

La photothèque iCloud ce n'est pas la rue! C'est un stockage privé dont le contenu est chiffré et dont Apple précise bien que seul le titulaire du compte iCloud y a accès.

En vérifiant ce que tu y mets, Apple entre chez toi. Ce n'est pas parce que tu ne fais que louer cet espace, qu'Apple a le droit d'y fouiller. Même la police n'a pas le droit de le faire si elle n'a pas des soupçons et arrive à convaincre un juge que ces soupçons sont suffisamment sérieux pour qu'il délivre un mandat de perquisition.

avatar cybercooll | 

@r e m y

Apple ne fouille pas dans tes données iCloud. Elles sont analysées avant icloud. Ils se contentent de rapporter les photos détectées quand ça dépasse un certain seuil pour un utilisateur. Tout comme Facebook, Twitter, Google, tiktok.
C’est incroyable qu’apple ait tant de retard sur les autres d’ailleurs.
Les autres utilisent probablement l’ami cloud de Microsoft, ce qui est pire vu que ta photo est envoyée chez eux (ils disent ne pas les conserver)

avatar r e m y | 

Elles sont analysées sur l'iPhone qui est tout autant privé que la photothèque iCloud.

Pages

CONNEXION UTILISATEUR