Craig Federighi reconnait qu'Apple a très mal communiqué sur les mesures de lutte contre la pédopornographie

Mickaël Bazoge |

Le moins qu'on puisse dire, c'est qu'Apple a complètement loupé la communication autour de ses mesures pour la protection des enfants. Des chercheurs en sécurité aux employés, de la concurrence aux observateurs avisés, beaucoup de monde s'accorde à dire que le constructeur s'est tiré une balle dans le pied. Certes, la Pomme a promis de s'expliquer, mais jusqu'à présent ces efforts n'ont pas vraiment réussi à balayer les doutes.

Bref, il fallait monter d'un cran et c'est nul autre que Craig Federighi qui monte au créneau dans une nouvelle interview au Wall Street Journal. « Au niveau de la compréhension des choses, c'est clair que beaucoup de messages se sont assez mal mélangés », admet le vice-président à l'ingénierie logicielle. « Nous souhaitons que ce soit un peu plus clair pour tout le monde, parce que nous pensons que ce que nous faisons est très positif ».

En annonçant plusieurs mesures n'ayant techniquement rien à voir entre elles, à savoir le floutage d'images sexuellement explicites dans Messages lorsque l'utilisateur est un enfant, et le scan de la bibliothèque de photos iCloud pour les images pédopornographiques, Apple a entretenu la confusion. Les photos innocentes des bambins en train de prendre leur bain allaient-elles être signalées à Apple comme étant pédopornographiques ?

« Avec le recul, l'annonce de ces deux fonctions en même temps allait effectivement créer de la confusion », convient Federighi. « Les gens ont connecté [ces deux fonctions] entre elles et ont eu très peur : que se passe-t-il avec mes messages ? La réponse est… rien. Rien ne se passe avec vos messages ».

Mais passé ce mea-culpa, pas question de revenir sur les mesures. Craig Federighi assure encore une fois que l'analyse de détection des photos pédopornographiques dites CSAM (Child Sexual Abuse Material) ne pourra pas être exploitée par des gouvernements autoritaires pour débusquer des opposants politiques. Apple dément cette possibilité car le système a été développé de telle sorte qu'un usage hors CSAM est impossible dans la pratique.

Apple l

Apple l'assure, les gouvernements ne pourront pas abuser du nouveau mécanisme de lutte contre la pédopornographie

« Nous, qui nous considérons comme des leaders de la confidentialité, nous pensons que ce que nous faisons ici est à la pointe du progrès », ajoute-t-il. Le mécanisme repose sur une correspondance entre une base de données d'identifiants numériques d'images pédopornographiques et les photos de l'utilisateur.

Plus précisément, il s'agit de comparer des suites de chiffres : les images présentes dans l'iPhone sont converties par l'appareil en des numéros hachées par un processus cryptographique (baptisé NeuralHash). Ce processus de comparaison est réalisé sur l'appareil en local, avant que les images soient téléversées dans la bibliothèque iCloud Photos de l'utilisateur.

En cas de correspondance avec la base de données, la photo uploadée s'accompagne d'un « bon de sécurité » ainsi que d'un « dérivé visuel ». À partir d'un certain nombre de correspondances, Apple peut déchiffrer le contenu du bon de sécurité, une opération qui est ensuite visée par un opérateur humain. Craig Federighi révèle que ce nombre de correspondances a été fixé à « quelque chose comme » 30 images pédopornographiques connues.

Ce n'est que lorsque ce seuil est atteint qu'Apple sait « quelque chose de votre compte et même à ce stade, on ne connait que ces images, pas les autres images ». Il poursuit : « Ça n'a rien à voir avec les images de votre enfant dans son bain. Ni même avec des images pornographiques qui seraient en votre possession. Ce système se contente d'examiner les correspondances entre les signatures numériques de vos photos avec des images pédopornographiques connues ».

Pourquoi ne pas s'être contenté de scanner les photos uniquement sur les serveurs, comme le reste de la concurrence depuis des années et comme Apple le faisait déjà elle-même ? Le processus réalisé sur l'iPhone permet aux chercheurs en sécurité de regarder ce qui se passe dans iOS, explique-t-il en substance. « Donc, si des changements étaient apportés pour étendre la portée [du système de détection] d'une manière que nous nous étions engagés à ne pas faire, il y a un moyen de le vérifier, ils peuvent repérer ce qui se passe ».

Apple jusque-là en retard dans la lutte contre la pédopornographie

Apple jusque-là en retard dans la lutte contre la pédopornographie

Sur ce plan, Federighi en dit trop ou pas assez. En dehors de l'iPhone SRD fourni à des chercheurs en sécurité triés sur le volet, il n'existe aucun moyen officiel de lever le capot d'iOS pour en vérifier le code. Peut-être qu'Apple a en projet d'ouvrir un peu sa boîte noire afin que des spécialistes puissent vérifier la réalité de son fonctionnement ? Il existe aussi des manières officieuses de jeter un œil dans le code, comme les rumeurs s'en sont fait une spécialité.

Le vice-président ajoute que la base de données des photos pédopornographiques ne provient pas uniquement du National Center for Missing and Exploited Children (NCMEC) il y a au moins deux organismes dans des « juridictions distinctes » et qu'un auditeur indépendant sera en mesure de vérifier si cette base de données ne contient que des images fournies par ces groupes. Une manière de s'assurer que le fichier ne contient pas d'autres photos n'ayant rien à voir avec le sujet.

avatar cybercooll | 

@fousfous

Bon courage 🤣

avatar Ajioss | 

@cybercooll

Facebook ? Ou des groupes communautaires sur le web ? De toute évidence la collectes de ces données se ferait dans la clandestinité car illégal dans les pays démocratique. Un peu moins clandestin et plus assumé dans les autres régimes. Au hasard la Chine ou tout le monde est fiché, tracker avec la vidéo surveillance et évaluer avec le social score.

avatar cybercooll | 

@Ajioss

Combien de milliards de photos à indexer? Tu peux y passer ta vie pour rien. Ce ne sont pas mes mêmes photos qui circulent, elles sont beaucoup plus renouvelées, on en produit des milliers tous les jours. La base de données grossirait à l’infini sans jamais revoir 2 fois la même photo. Il te faut qqch de mondialement interdit pour que ce soit efficace. Sinon, hormis embaucher 1 million de personnes pour constituer ta base tu t’en sortiras jamais. C’est bon pour le chômage par contre.

avatar fousfous | 

@cybercooll

C'est si compliqué que ça de scanner les photos de certains sites homo?
Et au pire il suffit de ne faire ça que pour les stars du domaine.

avatar Paquito06 | 

@fousfous

"C'est si compliqué que ça de scanner les photos de certains sites homo?
Et au pire il suffit de ne faire ça que pour les stars du domaine."

Stars, genre:

https://en.wikipedia.org/wiki/My_God,_Help_Me_to_Survive_This_Deadly_Love

? 😌

avatar fousfous | 

@Paquito06

Il suffira juste que le pays dise: soit vous acceptez, soit vous vendez pas.
Et là ce sera vite vue. A moins d'arrêter les ventes dans un paquet de pays ça ne va pas concerner que les pedophiles ce système.

avatar Paquito06 | 

@fousfous

"Il suffira juste que le pays dise: soit vous acceptez, soit vous vendez pas.
Et là ce sera vite vue. A moins d'arrêter les ventes dans un paquet de pays ça ne va pas concerner que les pedophiles ce système."

Il suffit, il suffit. Donc le probleme n’est pas Apple mais le pays dans lequel tu resides car tu ne fais pas confiance au gouvernement en place. Que ca soit Apple ou un autre, c’est pas le probleme du coup.

avatar fousfous | 

@Paquito06

Le problème c'est qu'Apple de donner la possibilité de surveiller tout ses utilisateurs alors qu'avant ce n'était tout simplement pas possible...

avatar Paquito06 | 

@fousfous

"Le problème c'est qu'Apple de donner la possibilité de surveiller tout ses utilisateurs alors qu'avant ce n'était tout simplement pas possible..."

Mais les possibilites techniques de surveillance ont toujours existé, c’est pas nouveau depuis une semaine. Ca ne veut pas dire qu’on va filer la combinaison a tout le monde. Donc rien ne change.

avatar webHAL1 | 

@Paquito06 :
« Mais les possibilites techniques de surveillance ont toujours existé, c’est pas nouveau depuis une semaine. »

Dans iOS 15 Apple va mettre en place une technique de surveillance EN LOCAL, qui n'existait pas jusqu'à présent, et qui pose un sérieux risque pour la vie privée.

avatar Paquito06 | 

@webHAL1

"Dans iOS 15 Apple va mettre en place une technique de surveillance EN LOCAL, qui n'existait pas jusqu'à présent, et qui pose un sérieux risque pour la vie privée."

Sauf quand on sait comment fonctionne la technique. Je suis sous iOS 14.7.1, et je peux deja faire le meme taff en manuel en utilisant la fonction recherche dans Photos. Qu’est-ce qu’Apple va faire de plus avec iOS 15? Crypter et recuperer le hash d’une photo, si et seulement si televersement sur iCloud il y a.

avatar webHAL1 | 

@Paquito06 :

Ce que toi tu peux faire et décide de faire avec ton appareil n'a strictement rien à voir avec ce que le fabricant de ce même appareil se permet de faire sans te laisser le choix.

avatar Paquito06 | 

@webHAL1

"Ce que toi tu peux faire et décide de faire avec ton appareil n'a strictement rien à voir avec ce que le fabricant de ce même appareil se permet de faire sans te laisser le choix."

C’est juste. Apple laisse le choix cependant en decidant ou non d’utiliser iCloud.

avatar webHAL1 | 

@Paquito06 :

Ah bon ? Le mécanisme ne sera pas présent sur les iPhone des personnes n'utilisant pas iCloud ?

avatar Paquito06 | 

@webHAL1

"Ah bon ? Le mécanisme ne sera pas présent sur les iPhone des personnes n'utilisant pas iCloud ?"

Bien sûr qu’il le sera, personne ne dit le contraire. Il sera d’ailleurs tres utile dans ce cas précis 😅

avatar webHAL1 | 

@Paquito06 :

Donc Apple n'offre donc aucun choix, sauf celui de ne pas installer iOS 15, qui sera obligatoire au bout d'un moment.

avatar Paquito06 | 

@webHAL1

"Donc Apple n'offre donc aucun choix, sauf celui de ne pas installer iOS 15, qui sera obligatoire au bout d'un moment."

Plutot de ne pas utiliser iCloud pour eviter le transfert de hashes (le resultat du scan, donc).
Sans quoi, scanner en local pour scanner, ca donnera rien.
Et rien n’est obligatoire ici, personne n’oblige personne. C’est de mon propre chef que je suis client Apple, que j’accepte leurs CGU, etc.

avatar webHAL1 | 

@Paquito06 :

Le mécanisme sera présent sur tous les iPhone, une porte dérobée prête à être exploitée par les gouvernements peu scrupuleux et, bien évidemment, tous les pirates.
Dire "Sans quoi, scanner en local pour scanner, ca donnera rien", ne change absolument pas cet état de fait.

Je trouve très amusant d'imaginer que de nombreux spécialistes en sécurité à travers le monde tirent la sonnette d'alarme concernant l'approche choisie par Apple simplement parce qu'ils ne comprennent rien...

avatar Paquito06 | 

@webHAL1

"Le mécanisme sera présent sur tous les iPhone, une porte dérobée prête à être exploitée par les gouvernements peu scrupuleux et, bien évidemment, tous les pirates."

Je leur souhaite bon courage alors. Pour le moment y a que du blabla.

avatar Krysten2001 | 

@webHAL1

Si seulement vous connaissiez le sujet 😌 Mais comme d’habitude non.

avatar ElFitz | 

@Paquito06

> Donc le probleme n’est pas Apple mais le pays dans lequel tu resides car tu ne fais pas confiance au gouvernement en place.

Ce qui revient à dire que le problème n’est pas l’outil mais ceux qui s’en servent ou pourraient s’en servir.

Ce raisonnement est tout aussi valable pour les camps de rééducation, les logiciels de surveillance produits par des sociétés occidentales et mis à disposition de régimes autoritaires, les armes à feu vendues à des dictateurs ou l’arme atomique.

Non, ce n’est pas de leur faute si c’est mal utilisé. Mais s’ils arrêtaient de développer et produire tout ça, il y en aurait tout de même nettement moins.

avatar Paquito06 | 

@ElFitz

"> Donc le probleme n’est pas Apple mais le pays dans lequel tu resides car tu ne fais pas confiance au gouvernement en place.
Ce qui revient à dire que le problème n’est pas l’outil mais ceux qui s’en servent ou pourraient s’en servir.
Ce raisonnement est tout aussi valable pour les camps de rééducation, les logiciels de surveillance produits par des sociétés occidentales et mis à disposition de régimes autoritaires, les armes à feu vendues à des dictateurs ou l’arme atomique.
Non, ce n’est pas de leur faute si c’est mal utilisé. Mais s’ils arrêtaient de développer et produire tout ça, il y en aurait tout de même nettement moins."

Ton employeur monitore bien ta boite mail, ton ordi, ton activite. Il pourrait ainsi mal s’en servir. Ton banquier monitore bien tes depenses et tes entrees, il pourrait aussi mal s’en servir. Apple monitore les photos que tu heberges sur ses serveurs, elle pourrait aussi mal s’en servir. Je suis d’accord. Tant que l’utilisation qui en est faite te convient.
Et Apple est tout aussi privé qu’une banque ou ton patron, donc le fait qu’un entreprise privee monitore n’est pas non plus un argument recevable. Dans tous les cas, le probleme encore une fois c’est bien le regime en place comme tu dis. Apple, une banque ou un patron aux US, ca me fait pas sourciller, Apple, une banque ou un patron dans un regime totalitaire/dictature, c’est peut etre pas la meme limonade. Mais la France ou les US ne sont pas encore des regimes totalitaires a ce que je sache.

avatar ElFitz | 

@Paquito

> Ton employeur monitore bien ta boite mail, ton ordi […]

Pas de bol, je n’en ai pas

> Ton banquier monitore bien tes depenses et tes entrees, il pourrait aussi mal s’en servir.

Et ils coopèrent promptement, remontant tout ce qui est considéré comme suspect par les autorités aux autorités. Ou paient une belle amende quand ils se font attraper. Je ne me fais aucune illusion quant à ma banque et ne lui accorde aucune confiance.

Apple, en revanche, prétend faire un produit qu’ils conçoivent comme le recueil d’une multitude sans cesse grandissante des aspects des vies de leurs utilisateurs.

Si demain tous les carnets surveillaient ce que tu écris dessus, avec la capacité de le rapporter à qui que ce soit, le trouveriez-vous acceptable ?

Un iPhone, c’est un cahier. Et un album photo. Et un appareil gps. Et un lecteur de musique. Et un micro. Et des caméras. Et un téléphone. Et un télégraphe du XXIème siècle. Et encore bien plus de choses que je ne pourrai imaginer. Que nous invitons au quotidien dans tous les aspects de nos vies.

Donc oui, ça me pose problème.

Concernant notre gouvernement, il…

- n’est pas fichu de nettoyer ses fichiers de police pour en retirer les simples suspects innocentés et les victimes (cf https://www.nextinpact.com/article/6824/80545-fichiers-police-cnil-tique-encore-sur-bugs-stic),

- explique que les journalistes voulant faire leur métier et ne pas se faire se taper dessus doivent se déclarer à la Préfecture (https://www.nextinpact.com/article/43606/fichier-journalistes-a-prefecture-police-alertee-cnil-va-demander-precisions),

- s’amuse à ficher sur la base d’opinions politique, philosophiques et religieuses (https://www.nextinpact.com/article/44931/linterieur-muscle-possibilites-fichage-politique)

- et passe son temps à se faire taper sur les doigts (https://www.nextinpact.com/article/17163/93198-fichier-taj-cnil-epingle-l-interieur-et-justice)

Autoritaire ? Non. Digne de confiance ? Non plus.

avatar Paquito06 | 

@ElFitz

"Apple, en revanche, prétend faire un produit qu’ils conçoivent comme le recueil d’une multitude sans cesse grandissante des aspects des vies de leurs utilisateurs."

Dans ce cas, on peut demander aux utilisateurs qui n’ont pas confiance en cette nouvelle fonctionnalité de nous apporter la preuve du contraire, apres on en reparle 😮‍💨

avatar IceWizard | 

@Paquito06

« Au pssage, les pedocriminels representent bien une minorite qu’on opprime ici 😅 »

Les pauvres. Abrégeons leurs souffrances !

avatar sababomcg | 

« les images à teneur homosexuels » C’est quoi un teneur homosexuel ? 🤭

avatar Paquito06 | 

@sababomcg

Je sais pas t’as vu ca où?

avatar marenostrum | 

il leurs faudra pour ça, faire leurs appareils et dominer le marché. l'Arabie l'ont dans la poche. elle peut pas nuire.

avatar en chanson | 

@fousfous

Pourquoi l'Arabie saoudite ? Toute l'Afrique la majorité des pays d'Asie bref la quasi humanité

avatar fousfous | 

@en chanson

C'était juste le premier exemple qui me venait en tête mais en effet un bon paquet de pays vivent encore dans le passé.

avatar en chanson | 

@fousfous

Et la de pénalisation en France be date que de 1982....et avec la pression de gays très intelligents. Le marriage pour tous a montré le vrai visage de notre cher pays très tolérant 😳

avatar redchou | 

@en chanson

Mouai, le débat était plus sur la forme que le fond, le mot « mariage » ayant une connotation religieuse pour beaucoup.
Personne, ou je ne les ai pas vu, n’a proposé d’interdire l’homosexualité pendant ce débat…

avatar IceWizard | 

@redchou

« Personne, ou je ne les ai pas vu, n’a proposé d’interdire l’homosexualité pendant ce débat… »

Dit-il à un type ayant fait mention à plusieurs reprises, de son soutien inconditionnel aux lois d’Arabie Saoudite assimilant l’homosexualité avec un crime punissable d’exécution capitale !

avatar redchou | 

@IceWizard

Ou ça?

avatar IceWizard | 

@redchou

« Ou ça? »

Depuis environ un an, en chanson subit une radicalisation assez étonnante, du moins pour un forum Apple. L’Arabie saoudite semble avoir prise une grande importance pour lui.

Il a commencé par se féliciter des lois punissant l’homosexualité par la peine de mort, sous prétexte que « l’Occident avait colonisé l’Arabie saoudite « (??? comprenne qui pourra).

Le thème de l’Occident colonisateur revient maintenant souvent dans ces propos (à noter que l’Arabie saoudite n’a jamais été colonisé. C’était une province de l’Empire turc, devenu fugitivement un protectorat anglais à la mort de l’Empire, avant d’accéder à l’indépendance).

A l’annonce de la condamnation des harceleurs du Net dans l’affaire Mila, il a piqué sa petite crise de colère expliquant qu’elle avait insulté le Coran.

Lors de l’affaire Pegasus, il s’est lancé dans une prêche antisémite et anti-Israël.

Sans parler de quelques commentaires sur le droit de caricature de Charlie Hebdo.

On avait sur le forum des militants d’extrême-gauches, d’extrême-droite, des complotistes, des admirateurs de Trump, des trolls chinois et divers agités du bocal. Mais le militantisme pro Arabie saoudite c’est nouveau ..

avatar YetOneOtherGit | 

@IceWizard

"Depuis environ un an, en chanson subit une radicalisation"

Il à toujours aimer exhiber publiquement de petites déjections dont il est très fier, une pure régression au stade anal 🤢🤮

avatar redchou | 

@IceWizard

Ok, je n’ai jamais fait attention à ces messages dans les commentaires.
La France reste un pays tolérant, n’en déplaise au aficionados de l’Arabie Saoudite.

@YetOneOtherGit

Est-ce qu’on est pas ici dans le cas d’un troll qui se serait radicalisé d’une certaine façon?

avatar YetOneOtherGit | 

@redchou

"Est-ce qu’on est pas ici dans le cas d’un troll qui se serait radicalisé d’une certaine façon?"

Va savoir ce qui motive ce besoin de déposer ici de temps à autre de petites déjections dont il est si fier ? 😵‍💫

avatar en chanson | 

Leader de la confidentialité 🤔😳😂😂😂Pegasus!

avatar Ajioss | 

Comme j’ai eu l’occasion de l’écrire lors du sondage igen sur le sujet je pense qu’Apple entant que société technologique doit rester neutre. C’est quoi la suite ?Demain Apple pourrait implémenter un algorithme sur le même modèle pour comparer les signatures numériques de quoi d’autres ? Les trafiquants de drogue ? Les terroristes ?
Apple fourni du matériels et des services au même titre que BIC fourni des stylos et des briquets. Bic ne doit pas se sentir responsable/ coupable si un pyromane utilise ses briquets …

avatar hervemac | 

@Ajioss
C’est exactement ça en soit. La pedocriminalité n’est qu’un prétexte, qui dit que justement ça va pas non plus scanner tout ce qui pourrait être interdit dans un état comme la drogue, prostitution ect…

avatar cybercooll | 

@hervemac

Parce qu’il est impossible de faire une bdd de photos de drogue ou de prostituees…

avatar ElFitz | 

Non, en effet. Mais on peut en faire une des photos de Tiananmen, de memes de Winnie l’Ourson, ou du Dalaï-lama.

On peut en faire une de toutes les photos connues d’événements historiques que certains gouvernements préféreraient oubliés.

Mais non, je ne crois pas qu’Apple ait lancé ça dans le but de plus l’ouvrir à un usage détourné par des régimes autoritaires. Il n’empêche que certains finiront par l’exiger.

avatar vince29 | 

Au Mexique ce serait très facile, tu mets les photos de décapitation et tu regardes sur quel iphone elles sont apparues en premier.

avatar debione | 

@ Ajioss:

Bic ont en fait été infiniment plus malin, ils ont modifié leurs briquets pour que les enfants ne puissent pas les utiliser... Apple devrait faire de même, faire en sorte qu'un iPhone ne soit pas utilisable en dessous d'un certain âge (12 ans pour coller avec la responsabilité pénale étendue me semble un bon compromis)

avatar Ajioss | 

@debione

Les pyromanes ne sont pas tous mineurs il me semble . Des mesures ont été prise par BIC contre les pyromanes ?

Et sinon dans les smartphone ça existe déjà ce dont tu parles . Oui , ça s’appelle le contrôle parental, une fonctionnalité dispo dans iOS.

avatar raoolito | 

@debione

Pour la pedocriminalité votre proposition ne fait pas sens

avatar raoolito | 

@Ajioss

« Demain Apple pourrait implémenter un algorithme sur le même modèle pour comparer les signatures numériques de quoi d’autres ? Les trafiquants de drogue ? Les terroristes ? »

Et pourquoi pas? Le vrai soucis c pas ce process d’apple, c’est entre votre vision du monde et la mienne. Je veux un monde sans pedophile, sans terroriste, sans trafiquant de drogue, etc… Et je ne comprendrais pas qu’ils profitent a fond de sécurité qui ont ete mises sur mon iphone pour faire leur sale besogne

avatar Ajioss | 

@raoolito

C’est à la justice de faire ce boulot pas à une entreprise côté en bourse .

avatar r e m y | 

C'est exactement ça le fond du débat... la société dans laquelle on souhaite vivre.

Ce que propose Apple c'est un monde dans lequel nos iPhones, AppleWatch, AirPods... seront dotés de capteurs et d'algorithmes susceptibles de vérifier en permanence qu'aucun utilisateur n'enfreint aucune loi pour pouvoir, le cas échéant, le signaler aux forces de l'ordre comme délinquant.

Vous pouvez considérer que c'est un bon moyen de vivre dans une société sécurisée, mais personnellement je ne veux pas de cette société de surveillance généralisée.

Pages

CONNEXION UTILISATEUR