Craig Federighi reconnait qu'Apple a très mal communiqué sur les mesures de lutte contre la pédopornographie

Mickaël Bazoge |

Le moins qu'on puisse dire, c'est qu'Apple a complètement loupé la communication autour de ses mesures pour la protection des enfants. Des chercheurs en sécurité aux employés, de la concurrence aux observateurs avisés, beaucoup de monde s'accorde à dire que le constructeur s'est tiré une balle dans le pied. Certes, la Pomme a promis de s'expliquer, mais jusqu'à présent ces efforts n'ont pas vraiment réussi à balayer les doutes.

Bref, il fallait monter d'un cran et c'est nul autre que Craig Federighi qui monte au créneau dans une nouvelle interview au Wall Street Journal. « Au niveau de la compréhension des choses, c'est clair que beaucoup de messages se sont assez mal mélangés », admet le vice-président à l'ingénierie logicielle. « Nous souhaitons que ce soit un peu plus clair pour tout le monde, parce que nous pensons que ce que nous faisons est très positif ».

En annonçant plusieurs mesures n'ayant techniquement rien à voir entre elles, à savoir le floutage d'images sexuellement explicites dans Messages lorsque l'utilisateur est un enfant, et le scan de la bibliothèque de photos iCloud pour les images pédopornographiques, Apple a entretenu la confusion. Les photos innocentes des bambins en train de prendre leur bain allaient-elles être signalées à Apple comme étant pédopornographiques ?

« Avec le recul, l'annonce de ces deux fonctions en même temps allait effectivement créer de la confusion », convient Federighi. « Les gens ont connecté [ces deux fonctions] entre elles et ont eu très peur : que se passe-t-il avec mes messages ? La réponse est… rien. Rien ne se passe avec vos messages ».

Mais passé ce mea-culpa, pas question de revenir sur les mesures. Craig Federighi assure encore une fois que l'analyse de détection des photos pédopornographiques dites CSAM (Child Sexual Abuse Material) ne pourra pas être exploitée par des gouvernements autoritaires pour débusquer des opposants politiques. Apple dément cette possibilité car le système a été développé de telle sorte qu'un usage hors CSAM est impossible dans la pratique.

Apple l

Apple l'assure, les gouvernements ne pourront pas abuser du nouveau mécanisme de lutte contre la pédopornographie

« Nous, qui nous considérons comme des leaders de la confidentialité, nous pensons que ce que nous faisons ici est à la pointe du progrès », ajoute-t-il. Le mécanisme repose sur une correspondance entre une base de données d'identifiants numériques d'images pédopornographiques et les photos de l'utilisateur.

Plus précisément, il s'agit de comparer des suites de chiffres : les images présentes dans l'iPhone sont converties par l'appareil en des numéros hachées par un processus cryptographique (baptisé NeuralHash). Ce processus de comparaison est réalisé sur l'appareil en local, avant que les images soient téléversées dans la bibliothèque iCloud Photos de l'utilisateur.

En cas de correspondance avec la base de données, la photo uploadée s'accompagne d'un « bon de sécurité » ainsi que d'un « dérivé visuel ». À partir d'un certain nombre de correspondances, Apple peut déchiffrer le contenu du bon de sécurité, une opération qui est ensuite visée par un opérateur humain. Craig Federighi révèle que ce nombre de correspondances a été fixé à « quelque chose comme » 30 images pédopornographiques connues.

Ce n'est que lorsque ce seuil est atteint qu'Apple sait « quelque chose de votre compte et même à ce stade, on ne connait que ces images, pas les autres images ». Il poursuit : « Ça n'a rien à voir avec les images de votre enfant dans son bain. Ni même avec des images pornographiques qui seraient en votre possession. Ce système se contente d'examiner les correspondances entre les signatures numériques de vos photos avec des images pédopornographiques connues ».

Pourquoi ne pas s'être contenté de scanner les photos uniquement sur les serveurs, comme le reste de la concurrence depuis des années et comme Apple le faisait déjà elle-même ? Le processus réalisé sur l'iPhone permet aux chercheurs en sécurité de regarder ce qui se passe dans iOS, explique-t-il en substance. « Donc, si des changements étaient apportés pour étendre la portée [du système de détection] d'une manière que nous nous étions engagés à ne pas faire, il y a un moyen de le vérifier, ils peuvent repérer ce qui se passe ».

Apple jusque-là en retard dans la lutte contre la pédopornographie

Apple jusque-là en retard dans la lutte contre la pédopornographie

Sur ce plan, Federighi en dit trop ou pas assez. En dehors de l'iPhone SRD fourni à des chercheurs en sécurité triés sur le volet, il n'existe aucun moyen officiel de lever le capot d'iOS pour en vérifier le code. Peut-être qu'Apple a en projet d'ouvrir un peu sa boîte noire afin que des spécialistes puissent vérifier la réalité de son fonctionnement ? Il existe aussi des manières officieuses de jeter un œil dans le code, comme les rumeurs s'en sont fait une spécialité.

Le vice-président ajoute que la base de données des photos pédopornographiques ne provient pas uniquement du National Center for Missing and Exploited Children (NCMEC) il y a au moins deux organismes dans des « juridictions distinctes » et qu'un auditeur indépendant sera en mesure de vérifier si cette base de données ne contient que des images fournies par ces groupes. Une manière de s'assurer que le fichier ne contient pas d'autres photos n'ayant rien à voir avec le sujet.

avatar Gabzer | 

Ecriturage*

avatar mat16963 | 

Plus qu’à attendre la fin de l’écrituration de l’article du coup… 😂😂

avatar raoolito | 

@mat16963

c’est quand meme enorme de laisser une faute pareil :(

on dit « en cours d’écritation » pas « d’écrituration » pffff

avatar iTouchKiller | 

@raoolito

L'erreur est humaine

avatar IceWizard | 

@raoolito

« on dit « en cours d’écritation » »

Faut pas prendre le mors aux dents, aussi rapidement !

avatar KevinMalone | 

Je suis quand même allé vérifier qu'écrituration n'existait pas... Un peu trop dupe, le garçon.

avatar PierreBacotConsulting | 

Ecriturement, pardi !

avatar bhelden | 

Craig je t’❤️🥵

avatar xfce | 

@bhelden

Restez humble.

avatar bhelden | 

@xfce

Mais je l’aime…

avatar stefhan | 

Écrituritationnation.
Du verbe écrituritationnationner.
Courant littéraire : Écrituritationnationisme.
Tiré du latin Écrituritationum.

avatar hptroll | 

@stefhan

Il n’y a pas d’accents, en latin. Voyons!

avatar Kriskool | 

Le mal est fait. Pour ceux qui pensaient qu’Apple ne mettrait jamais un poil de nez dans leurs données, la confiance est rompue. Ce n’est pas à Apple de faire la police. C’est à la police et à la justice d’enquêter.

avatar YetOneOtherGit | 

@Kriskool

"Le mal est fait."

Sur quelle proportion des cibles ?

Un microcosme tout au plus, rien de bien grave pour l’image de marque.

Il faut arrêter de confondre le microcosme et le marché 😉

avatar lmouillart | 

C'est tout de même assez dévastateur en matière d'image :
Apple peut s'autoriser à aller scanner du contenu illégal sur ses appareils (enfin ceux de ses clients).
Apple va notifier les autorités en cas de détection de contenu illégale.
Apple considère tous ses clients comme des suspects
Apple ne considère pas les clients des concurrents comme des suspects.

avatar YetOneOtherGit | 

@lmouillart

"C'est tout de même assez dévastateur en matière d'image :"

Au prés de qui ?

Quelle part des cibles ?

Quel impact réel sur l’image de marque ?

On voit toujours ces choses là avec le biais de notre appartenance à un microcosme.

M’est avis que cela aura l’effet d’un pet de lapin sur le business d’Apple et un effet bien moindre qu’une campagne orchestrée par les associations de lutte contre la pédophilie dénonçant l’inaction d’Apple 😎

La peur du pedophile est bien plus efficace que celle de l’atteinte à la vie privée pour lutter contre ce qui fait peur aux masses 😉

avatar cybercooll | 

@Kriskool

0,0001% des clients ont perdu confiance. Parmi eux, 3% iront ailleurs (puis reviendront en voyant que c’est pas mieux ailleurs)
Entre temps, combien vont venir grâce à ces mesures? Probablement beaucoup plus.
Sondage réalisé sur Twitter auprès de mes 16 followers.

avatar IceWizard | 

@cybercooll

« Sondage réalisé sur Twitter auprès de mes 16 followers. »

Attention à avoir un échantillon représentatif pour ton sondage. S’il y a un clown et un barbier parmi tes followers c’est bon !

avatar cybercooll | 

@IceWizard

Impossible de savoir, je ne collecte pas de données personnelles

avatar en chanson | 

@cybercooll

"Sondage réalisé sur Twitter auprès de mes 16 followers."

Non significatif et n’oublie pas Pegasus, dans l’esprit des gens la com sur la vie privée n’a plus de sens

Bref merci Apple de nous désigner tous présumes coupables! Quelle belle société!

avatar hugome | 

@cybercooll

Je vois pas la raison pour laquelle cette mesure ferait venir des clients.
Le fait que Federighi lui-même ait besoin de faire un article dans le Wall Street Journal en plein mois d’août montre bien la gravité du sujet.
Et ils auront beau dire ce qu’ils voudront sur des clés de crypto etc, le ver est dans le fruit , Apple fouille dans vos données pour vous dénoncer aux flics.

avatar Krysten2001 | 

@Kriskool

Je ne vois pas en quoi la confiance est rompue alors que c’est respectueux de la vie privée donc Apple est dans son rôle.

avatar Kriskool | 

@Krysten2001

Si ça vous amuse de voir qu Apple peut fouiller dans vos données personnelles librement c’est votre affaire. Imaginez demain qu’Apple soir obligée de le faire sur ordre d’un gouvernement autoritaire vous déchanterez vite .. les promesses n’engagent que ceux qui les croient ! Vie privée pour Apple n’est qu’un argument marketing..

avatar Krysten2001 | 

@Kriskool

La vie privée pour Apple n’est pas qu’un bête truc marketing. Elle l’a prouvée mainte et mainte fois.

Tout se fait en local,…

avatar David Finder | 

@Krysten2001

Exactement !
Et Craig qui vient faire le point en plein mois d’août, c’est pour clarifier les choses ! Et ils ont bien fait de le faire !
Là c’est clair, concis et précis.
C’est en local, on connaît le nombre de photos qui doivent matcher avant intervention humaine, etc.
C’est on ne peut plus clair.

Je n’ai pas perdu confiance en Apple quant à la sécurité de mes données personnelles pour le coup. Cette mesure est très bien.
Et s’ils perdent des clients pervers, tant mieux.

En attendant, l’action est bien remontée depuis l’intervention de Craig. Cela n’a peut-être rien à voir (elle avait quand même bien baissé après le cafouillage…), donc je pense que la clarification s’imposait, et qu’elle a fonctionné.

Pour moi tout est enfin clair.

N’oubliez pas les autres sociétés qui font la même chose sans jamais l’avoir dit (Dropbox, Google, etc…) et de manière bien plus insidieuse.
Là, avec Apple, on sait que ça respecte quand même la vie privée de l’utilisateur.

Quant au fait que l’on soit « tous coupables » auprès d’Apple, il faut bien chercher pour trouver… c’est peut-être dur à entendre pour certains (j’avais du mal avant cette mise au point), mais je ne vois plus les choses ainsi. Il n’y a malheureusement pas d’autre moyen pour choper les malades qui d’échangent ce genre de photos et cherchent à piéger des gamins…

avatar r e m y | 

Et à quoi ça sert de le faire en local sur les iPhones, alors qu'Apple le fait déjà sur ses serveurs sur la totalité de la photothèque iCloud et sur les images en pieces jointes des e-mails transitant par ses serveurs (ce qu'ils ont plusieurs fois confirmé)?

avatar webHAL1 | 

@David Finder :
« N’oubliez pas les autres sociétés qui font la même chose sans jamais l’avoir dit (Dropbox, Google, etc…) et de manière bien plus insidieuse. ​»

Non, les autres sociétés ne font justement pas la même chose, elle n'ont pas mis en place une porte dérobée en local, sur l'ensemble des iPhone tournant avec iOS 15 (qui deviendra rapidement obligatoire), qui est présente que l'utilisateur se serve ou non d'iCloud et qui est prête à être exploitée aussi bien par des gouvernements peu scrupuleux que par des pirates informatiques.

Ce qu'Apple a décidé de faire est beaucoup plus insidieux et dangereux que ce que les autres sociétés, qui surveillent le contenu déposé sur leurs serveurs (ce qu'elles sont tenues de faire de par la loi américaine, et qu'Apple fait également déjà), n'ont jamais fait.

Quant au "il faut bien chercher pour trouver", je ne sais pas si vous réalisez ce que vous écrivez. Accepterez-vous que demain vos appareils électro-ménagers vous surveillent en permanence au cas où vous prépareriez un crime chez vous ou que vous maltraiteriez votre partenaire et/ou vos enfants ? Que votre voiture rapporte à tout instant votre comportement routier et vos discussions dans l'habitacle non pas aux autorités compétentes, mais au fabricant de votre véhicule ?

avatar Bigdidou | 

@webHAL1

‘Que votre voiture rapporte à tout instant votre comportement routier et vos discussions dans l'habitacle non pas aux autorités compétentes, mais au fabricant de votre véhicule ?’

Même aux autorités compétentes, ce serait chaud, quand même…
Tu vas nous en faire dévisser certains.

Imagine l’Apple Car : il sait où tu es, donc la limitation de vitesse.
Tu dépasses un peu, et hop, la police est prévenue par monsieur Apple qui veut m’éviter un accident.
Au passage, il préviendra Peugeot et ma belle-mère au cas où :D

avatar webHAL1 | 

@Bigdidou :
« Même aux autorités compétentes, ce serait chaud, quand même… »

On est bien d'accord.
Et d'ailleurs sans doute que ça ferait nettement plus hurler certains...

avatar Olivier_D | 

@Kriskool

Mais vous avez lu l’article avant de ressasser pour la enieme fois l’argument de la vie privé ? Ça en devient lassant à force de voir des gens autant à côté de la plaque se battre contre un problème fictif.

avatar David Finder | 

@Kriskool

Bein justement, Apple vient de clarifier on ne peut mieux les choses. Apple ne fait pas la police.

avatar r e m y | 

Apple ne fait pas la police, mais se positionne en auxiliaire de police bénévole, l'objectif clairement expliqué étant de désigner à la police chacun des utilisateurs d'iPhone enfreignant la loi.

avatar Nitneuqq | 

Je pense qu’ils essayaient simplement d’automatiser les demandes de la police US, car ils doivent en recevoir des centaines/jour. Et extraire des sauvegardes iCloud, ça doit prendre du temps. Mais voilà la solution qu’ils ont trouvé…

avatar marenostrum | 

bien joué Apple. les utilisateurs sains sont plus nombreux. ils vont en gagner des clients que perdre.

avatar oomu | 

" Apple dément cette possibilité car le système a été développé de telle sorte qu'un usage hors CSAM est impossible dans la pratique."

suffira de le développer de telle sorte que la photo de la place Tian'anmen lors de la manifestation contre le pouvoir soit détectée par ios (depuis une base de hash fournie par un gouvernement populaire et républicain) et notifiée au près d'une autorité centrale, compétente et sympathique.

-
Cela dit, l'argument "on pourra ainsi voir si iOS fait autre chose que ce qu'Apple a annoncé" est intéressant.

Mais en l'absence de code source ouvert (et de maitrise de ce fameux code qu'on installerait), on ne peut que vérifier "après coup", en ayant l'idée de tester par exemple de photographie une peluche de Winnie L'Ourson et voir ce qui se passe :)

(30 photos de Winnie l'ourson et PAF : -30 points en sociabilité !)

-
il y a une tension entre les entreprises informatiques et les gouvernements. J'ironise avec la Chine. Mais c'est le cas avec la France et bien évidemment les USA.

L'industrie se cherche un compromis avant que les politiciens en aient marre et décident de tout imposer.

avatar marenostrum | 

tout le monde sait utiliser ces technologies en fait. même les dictatures. la plupart des gens n'ont rien à craindre et ils n'abandonneront pas leurs appareils, même si c'est marqué dans le carton que l'appareil est scanné quotidiennement.

et c'est pas l'Industrie qui cherche, mais les gens qui sont derrière, les quelques familles qui possèdent tout ça. ils veulent remplacer le vieux mécanisme de l'état par autre chose, qui fait mieux le boulot et qu'on peut pas le corrompre.

avatar fousfous | 

@oomu

Je t'avoue que j'ai un peu peur pour ma collection de photos de Winnie l'ourson! Ça va être compliqué d'avoir un visa pour la Chine maintenant!

avatar Amaczing | 

@fousfous

Winnie n’a pas de slip !

avatar fousfous | 

@Amaczing

Ah voila ça vient de la l'interdiction de Winnie l'ourson! C'est pour contrer les pedophiles-démocrates!

avatar cybercooll | 

@oomu

Mais qui a 30 photos de Winnie? Faudrait être un sacré pervers quand même!

avatar Krysten2001 | 

@oomu

« suffira de le développer de telle sorte que la photo de la place Tian'anmen lors de la manifestation contre le pouvoir soit détectée par ios »

Faudrait réécrire iOS,… Ça m’étonnerai 🙃

avatar fousfous | 

Et en Arabie saoudite ce seront les images à teneur homosexuels qui seront visées. Le système peut trop facilement être mal utilisé pour opprimer les minorités.

avatar Paquito06 | 

@fousfous

"Et en Arabie saoudite ce seront les images à teneur homosexuels qui seront visées. Le système peut trop facilement être mal utilisé pour opprimer les minorités."

Tu nous expliques comment? Car Craig dit l’exact contraire dans l’article.
Au pssage, les pedocriminels representent bien une minorite qu’on opprime ici 😅

avatar Ajioss | 

@Paquito06

Ne t’inquiètes pas Il a bien lu. L’article dit :

« Ce système se contente d'examiner les correspondances entre les signatures numériques de vos photos avec des images pédopornographiques connues . »

Remplace images pédopornographique par d’autres types d’images.

Rien n’empêche , mise à part l’éthique de l’entreprise, d’appliquer cette technique algorithmique à autre chose.

avatar Paquito06 | 

@Ajioss

"Ne t’inquiètes pas Il a bien lu. L’article dit :
« Ce système se contente d'examiner les correspondances entre les signatures numériques de vos photos avec des images pédopornographiques connues . »
Remplace images pédopornographique par d’autres types d’images.
Rien n’empêche , mise à part l’éthique de l’entreprise, d’appliquer cette technique algorithmique à autre chose."

Et d’ajouter le dernier paragraphe, tant qu’a faire:

“Le vice-président ajoute que la base de données des photos pédopornographiques ne provient pas uniquement du National Center for Missing and Exploited Children (NCMEC) il y a au moins deux organismes dans des « juridictions distinctes » et qu'un auditeur indépendant sera en mesure de vérifier si cette base de données ne contient que des images fournies par ces groupes. Une manière de s'assurer que le fichier ne contient pas d'autres photos n'ayant rien à voir avec le sujet.”

avatar Ajioss | 

@Paquito06

L’auditeur sera aussi sur le marché chinois ?

avatar Paquito06 | 

@Ajioss

"L’auditeur sera aussi sur le marché chinois ?"

Bonne question. A voir avec le gouvernement, pas Apple 😝 Peut etre que la fonctionnalite n’arrivera jamais en Chine.

avatar DG33 | 

@Ajioss

Je plains la santé mentale de l’auditeur qui veillera à ce qu’il n’y ait pas une image de Winnie ou de la place Tiananmen au milieu des images d’enfants victimes

avatar cybercooll | 

@Ajioss

Comment tu constitues une base de données de photos homo? Il faut peu de photos en circulation mais qui circulent bcp pour que ça marche.

avatar fousfous | 

@cybercooll

De la même façon que tu constitues une base de donnée pedophile, en plus facile parce que les images circules facilement sur le net.

Pages

CONNEXION UTILISATEUR