Ouvrir le menu principal

iGeneration

Recherche

Apple l'assure, les gouvernements ne pourront pas abuser du nouveau mécanisme de lutte contre la pédopornographie

Mickaël Bazoge

mardi 10 août 2021 à 18:30 • 170

iOS

Apple poursuit son tour des médias (anglophones) pour faire accepter ses mesures de lutte contre la pédopornographie. Erik Neuenschwander, le patron des technologies de confidentialité, est à la manœuvre dans une interview chez TechCrunch. Il tente d'apaiser les craintes de tous ceux qui redoutent que le système de détection des photos CSAM (Child Sexual Abuse Material) puisse être exploité par des gouvernements peu soucieux des libertés publiques.

Les nouveaux systèmes d

Les nouveaux systèmes d'Apple pour lutter contre la pédopornographie inquiètent

Le dirigeant rappelle tout d'abord que seuls les États-Unis sont concernés à l'heure actuelle. Selon lui, les lois américaines ne permettent pas au gouvernement d'imposer à Apple de détecter des images sur les appareils des utilisateurs de ses produits, autres que des images pédopornographiques. Les avocats pourraient bien s'emparer de cette question légale le jour où le FBI aura besoin d'un coup de main du constructeur pour repérer des terroristes par exemple.

Apple a indiqué en fin de semaine dernière que son système de détection des images CSAM pourrait se déployer en dehors des États-Unis, en fonction des législations locales. Problème : on a vu que le constructeur n'avait aucun mal à plier dans tous les sens ses beaux discours devant la réalité des faits, comme en Chine.

Erik Neuenschwander explique que le système intègre un certain nombre de protections qui n'en font pas le meilleur outil pour « identifier des individus qui possèdent des images particulièrement répréhensibles ». Cet automne, iOS va comparer des suites de chiffres hachés d'images pédopornographiques provenant d'une base de données du National Center for Missing and Exploited Children (NCMEC), avec les photos à téléverser vers iCloud Photos (elles aussi ont été hachées avec l'algorithme NeuralHash). Cette base de données sera intégrée à même le système d'exploitation.

Il est impossible pour Apple de cibler des utilisateurs individuels, puisque iOS est un système d'exploitation global : tout le monde reçoit le même paquet. Le système du constructeur exige aussi qu'un certain nombre de correspondances soient enregistrées avant de lancer une procédure d'examen par un humain. « Essayer de rechercher une seule image à partir de l'appareil d'une personne ou d'un ensemble d'appareils ne fonctionnera pas, car le système ne permet pas à Apple de prendre connaissance des photos individuelles stockées dans ces appareils ».

L'examen manuel est le dernier garde-fou mis en avant par Neuenschwander, il intervient lorsque le mécanisme a détecté qu'un seuil d'images CSAM est dépassé (Apple ne précise pas le nombre1). Si un gouvernement voulait abuser du système en intégrant à sa base de données des hashes de photos qui n'ont rien à voir avec des images pédopornographiques, il lui faudra passer au-dessus de pas mal d'obstacles, souligne-t-il.

Et il y a toujours la possibilité de désactiver iCloud Photos sur l'appareil. Dans ce cas, le processus NeuralHash ne se lancera pas, il ne générera aucun « bon de sécurité » qui pourrait allumer une alerte orange chez Apple (et pour cause, dans ce cas les photos ne sont pas téléversées sur les serveurs du constructeur).

L

L'été où l'iPhone est devenu une passoire de sécurité qui vous flique


  1. Pourquoi plusieurs correspondances plutôt qu'une seule ? « Nous voulons nous assurer que les rapports que nous faisons au NCMEC sont exploitables », explique Neuenschwander. « Une des notions de tous les systèmes est qu'il existe une certaine incertitude pour savoir si cette image correspond ou pas. Le seuil nous permet d'atteindre cet objectif, nous nous attendons à un taux de faux rapports pour l'examen d'un compte de un pour mille milliards par an »  ↩︎

Soutenez MacGeneration sur Tipeee

Précommandez le livre et rejoignez la fête

Un livre pour raconter 50 ans d'Apple, une journée à Lyon pour les célébrer ensemble.

Participez sur Ulule

"Signaler comme indésirable" : que fait vraiment Apple de vos rapports de spam ?

08:03

• 7


L'Apple Pencil Pro en promotion à 122 € au lieu de 150 € et la version USB-C à 77 €

28/02/2026 à 11:15

• 8


Test des BILRESA d’IKEA : des télécommandes correctes… à condition d’éviter Matter

28/02/2026 à 10:00

• 32


Apple Experience : à quoi faut-il s’attendre cette semaine ? iPhone 17e, MacBook (Pro) et iPad au programme

28/02/2026 à 07:45

• 27


À quoi ressemblera le futur iPad Air M4 ? 🆕

28/02/2026 à 00:30

• 18


iPhone 17e : date de sortie, puce A19, design… tout ce qu’on sait déjà du futur iPhone “entrée de gamme” 🆕

28/02/2026 à 00:16

• 25


Contrôle de l’âge sur l’App Store UK : Apple indique un bug de la beta d’iOS 26.4

27/02/2026 à 22:20

• 20


HBO Max renforce la lutte contre les comptes partagés, et annonce l’extension du compte additionnel à l’international

27/02/2026 à 20:30

• 16


Blocall : un bloqueur d’appels indésirables pour iPhone et Android plein de fonctions

27/02/2026 à 17:09

• 27


Blender met en pause son app iPad et mise d’abord sur les tablettes Android

27/02/2026 à 16:05

• 16


iOS 26.4 : le partage de tranche d’âge apparaît dans des apps Apple

27/02/2026 à 15:18

• 5


Huawei GT Runner 2 : un nouveau système d’antenne qui change la donne pour le GPS ?

27/02/2026 à 11:30

• 11


RAMpocalypse : pourquoi il est (peut-être) urgent d’acheter un Mac aujourd’hui

27/02/2026 à 11:30

• 49


En 2026, Samsung boude toujours les aimants sur ses téléphones Galaxy

27/02/2026 à 10:38

• 25


L’itinérance gratuite pourrait s’étendre à 6 pays des Balkans occidentaux

27/02/2026 à 10:03

• 11


Hue commercialise un ruban décoratif « Essential » : 100 € pour 5 mètres

27/02/2026 à 08:14

• 9