Apple l'assure, les gouvernements ne pourront pas abuser du nouveau mécanisme de lutte contre la pédopornographie

Mickaël Bazoge |

Apple poursuit son tour des médias (anglophones) pour faire accepter ses mesures de lutte contre la pédopornographie. Erik Neuenschwander, le patron des technologies de confidentialité, est à la manœuvre dans une interview chez TechCrunch. Il tente d'apaiser les craintes de tous ceux qui redoutent que le système de détection des photos CSAM (Child Sexual Abuse Material) puisse être exploité par des gouvernements peu soucieux des libertés publiques.

Les nouveaux systèmes d

Les nouveaux systèmes d'Apple pour lutter contre la pédopornographie inquiètent

Le dirigeant rappelle tout d'abord que seuls les États-Unis sont concernés à l'heure actuelle. Selon lui, les lois américaines ne permettent pas au gouvernement d'imposer à Apple de détecter des images sur les appareils des utilisateurs de ses produits, autres que des images pédopornographiques. Les avocats pourraient bien s'emparer de cette question légale le jour où le FBI aura besoin d'un coup de main du constructeur pour repérer des terroristes par exemple.

Apple a indiqué en fin de semaine dernière que son système de détection des images CSAM pourrait se déployer en dehors des États-Unis, en fonction des législations locales. Problème : on a vu que le constructeur n'avait aucun mal à plier dans tous les sens ses beaux discours devant la réalité des faits, comme en Chine.

Erik Neuenschwander explique que le système intègre un certain nombre de protections qui n'en font pas le meilleur outil pour « identifier des individus qui possèdent des images particulièrement répréhensibles ». Cet automne, iOS va comparer des suites de chiffres hachés d'images pédopornographiques provenant d'une base de données du National Center for Missing and Exploited Children (NCMEC), avec les photos à téléverser vers iCloud Photos (elles aussi ont été hachées avec l'algorithme NeuralHash). Cette base de données sera intégrée à même le système d'exploitation.

Il est impossible pour Apple de cibler des utilisateurs individuels, puisque iOS est un système d'exploitation global : tout le monde reçoit le même paquet. Le système du constructeur exige aussi qu'un certain nombre de correspondances soient enregistrées avant de lancer une procédure d'examen par un humain. « Essayer de rechercher une seule image à partir de l'appareil d'une personne ou d'un ensemble d'appareils ne fonctionnera pas, car le système ne permet pas à Apple de prendre connaissance des photos individuelles stockées dans ces appareils ».

L'examen manuel est le dernier garde-fou mis en avant par Neuenschwander, il intervient lorsque le mécanisme a détecté qu'un seuil d'images CSAM est dépassé (Apple ne précise pas le nombre1). Si un gouvernement voulait abuser du système en intégrant à sa base de données des hashes de photos qui n'ont rien à voir avec des images pédopornographiques, il lui faudra passer au-dessus de pas mal d'obstacles, souligne-t-il.

Et il y a toujours la possibilité de désactiver iCloud Photos sur l'appareil. Dans ce cas, le processus NeuralHash ne se lancera pas, il ne générera aucun « bon de sécurité » qui pourrait allumer une alerte orange chez Apple (et pour cause, dans ce cas les photos ne sont pas téléversées sur les serveurs du constructeur).

L

L'été où l'iPhone est devenu une passoire de sécurité qui vous flique


  1. Pourquoi plusieurs correspondances plutôt qu'une seule ? « Nous voulons nous assurer que les rapports que nous faisons au NCMEC sont exploitables », explique Neuenschwander. « Une des notions de tous les systèmes est qu'il existe une certaine incertitude pour savoir si cette image correspond ou pas. Le seuil nous permet d'atteindre cet objectif, nous nous attendons à un taux de faux rapports pour l'examen d'un compte de un pour mille milliards par an »  ↩︎


avatar Paquito06 | 

@andr3

"Il n’y aura plus grand monde alors 😉"

De la qualité au detriment de la quantite, j’ai toujours ete pour 😉

avatar adixya | 

AH BON OUF, SI APPLE LE DIT, ALORS !!

avatar iPop | 

Je ne sais pas pourquoi mais là je sens comme un air de déjà vu. (Voir Macron et ses promesses).

avatar philiipe | 

.

avatar philiipe | 

La pédopornographie: c’est choquant ! (Qui oserait dirait le contraire ?)
D’autres combats mériteraient aussi d’être menés :
- la traite humaine
- le terrorisme
- la vente de stupéfiants ou d’armes

Ce qui est gênant c’est que cela risque d’être détourné en cas de lois d’exception en réponse à des événements (ex: 11 septembre 2001) :
- Utilisation des tags des photos pour identifier quelqu’un qui aurait visité par le passé tel ou tel pays devenus sensibles (imaginez qu’on t’interdisent l’entrée aux IS pour cela ou qu’on te mette sous surveillance)
- Identification des visages sur tes photos, même ceux de badauds (tu as participé à un voyage organisé, mais voilà : ton voisin de table est un criminel, et te voilà identifié comme un « proche potentiel »)
….
Sans compter sur les pirates qui s’en donneront à cœur joie à des chantages et autres extorsions s’ils découvrent les failles pour détourner le système.

Alors oui. On peut flipper de la décision d’Apple. Même quand elle est motivée (au départ) par un cause juste.

avatar marenostrum | 

quelqu'un disait (chaine Thinkerview, youtube) que beaucoup d'activités mafieuses sont toléré exprès par les gouvernements, pour en avoir un budget en dehors des chiffres officiels, bref non déclaré. ça sert l'état d'entreprendre des opérations stratégiques (services de renseignements, etc) sans en avoir besoin d'une permission quelconque (du parlement, sénat, etc) qui prend du temps et parfois ça passe pas. ça parait probable.

avatar IceWizard | 

@philiipe

«  Utilisation des tags des photos pour identifier quelqu’un qui aurait visité par le passé tel ou tel pays devenus sensibles (imaginez qu’on t’interdisent l’entrée aux IS pour cela ou qu’on te mette sous surveillance) »

Il paraît même que bientôt les douaniers devront mettre des tampons sur les passeports. Terrifiant non ?

avatar Paquito06 | 

@philiipe

"La pédopornographie: c’est choquant ! (Qui oserait dirait le contraire ?)
D’autres combats mériteraient aussi d’être menés :
- la traite humaine
- le terrorisme
- la vente de stupéfiants ou d’armes
…"

Hey, tu savais que la France etait 3eme dans ce domaine?
https://en.wikipedia.org/wiki/Arms_industry
😮‍💨

avatar Levrai | 

Tim Cook sera le futur Avenger successeur de Tony Stark, on peut lui faire confiance pour garder les informations confidentielles... 🙄
Ça protège un tueur qui fait un massacre à San Bernardino https://www.lefigaro.fr/secteur/high-tech/2016/02/25/32001-20160225ARTFIG00255-ce-qu-il-faut-savoir-sur-le-conflit-entre-apple-et-le-fbi.php mais aujourd'hui ça le dérange pas d"espionner sa clientèle à leur insu pour une cause certe noble mais qui n'est pas de son ressort...🤮

avatar IceWizard | 

@Levrai

« mais aujourd'hui ça le dérange pas d"espionner sa clientèle à leur insu »

Ouais, en plus il l’explique à la planète entière ! Quel Noob ce Cook !

avatar Chachawood | 

Je ne comprends pas cette folie médiatique autour de l'annonce d'Apple.

Il s'agit là de scanner les données transitant sur iCloud. Ca me parait normal que Apple dise "Ok, on est fournisseur de cloud, mais on ne mets pas n'importe quoi dessus". On ne parle pas de scanner vos clés USB qui sont planqué au fond de vos tiroirs là.

Un cloud public (sous entendu fourni comme un service) c'est un peu comme un avion, rien d'étonnant à se faire passer au rayon X les baguages avant d'embarquer. Si les gens veulent de la vie 100% privée, ils s'achètent un avion à eux, ou en l'occurence, ils se font un cloud privé.

avatar r e m y | 

Désolé mais la photothèque iCloud n'est pas un cloud public! C'est un espace de stockage privé que vous louez à Apple pour y stocker des documents privés, qui sont d'ailleurs chiffrés pour que vous seul y ait accès.

Quand vous louez un local de stockage chez Shurgard par exemple, le loueur n'a pas à aller fouiller le box que vous lui louez pour vérifier que vous n'y entreposez pas des armes ou de la drogue.

avatar marenostrum | 

dans les locaux ils te laissent pas stocker n'importe quoi non plus, même dans ta maison, si tu as une arme sans permission ou de la drogue c'est interdit.
le Cloud est pareil, je vois pas ce que ça change. le règlement dépend de Apple et peut-être aussi des lois du pays. on peut pas faire n'importe quoi. la protection des données personnelle pour tout ce que la loi interdit est nulle.

la seule question qu'on peut se poser ou qui a intérêt, est pourquoi cette initiative vient de Apple et pas de l'état ?

avatar r e m y | 

Bien sûr qu'on n'a pas le droit de stocker n'importe quoi, mais le propriétaire du local de stockage n'a pas le droit de venir vérifier lui-même ce que tu stockes.
De la même façon, s'il est interdit d'avoir chez soi une arme sans autorisation, ce n'est pas pour autant que le constructeur de la maison peut installer des caméras pour vérifier que tu ne le fais pas.
Le cloud de type iCloud, c'est pareil. C'est un stockage privé dans lequel le propriétaire des serveurs n'a pas à venir fouiller si ça ne lui est pas expressément demandé par une autorité de police ou de justice.

avatar marenostrum | 

le cloud appartient à Apple. même un local de stockage il peut avoir des cameras de surveillance et le gérant peut voir si on stocke ou pas des choses illégales.

il faut lire en fait la réglementation de iCloud. normalement tout est réglementé. même pour le mot de passe d'une sauvegarde iCloud, Apple peut le donner sur demande de la justice. ici y a eu des articles sur ce sujet.

avatar r e m y | 

Et non... c'est interdit.
Les cameras de surveillance ne peuvent filmer que les parties communes des locaux, et jamais l'intérieur des box qui sont des espaces privés.

Et pour iCloud (comme pour tous les autres clouds), oui le propriétaire (Apple, Amazon, ...) peut donner accès à la police ou la justice à LEUR demande, mais il n'a pas à aller y fouiller lui-même et à fortiori de façon systématique.

avatar marenostrum | 

ça veut dire qu'on peut stoker alors dynamite ou des matières inflammables dans un box ordinaire ? ça m'étonnerait que le gérant n'ait pas le droit ou les moyens de vérifier. en cas d'incendie par ex qui est le fautif ?

avatar r e m y | 

Le fautif serait celui qui a entreposé des matières dangereuses sous réserve que ces matières soient la cause de l'incendie ou de son aggravation. Mais c'est l'enquête ultérieure confiée à la police qui devra le déterminer.

avatar webHAL1 | 

@Chachawood :

Sauf que le scannage ne se fait pas au niveau d'iCloud, mais bien en local sur l'iPhone. Cela ouvre la porte à des risques immenses, que ça soit au niveau d'abus par des gouvernements ou de piratage.

avatar marenostrum | 

tout ça se fait déjà. la connaissance des objets date depuis quelques iOS, sur la beta le système reconnait même le texte. quand on passe la photo sur iCloud (qui appartient à Apple et pas à nous), Apple le compare avec une base de données.

Pages

CONNEXION UTILISATEUR