Allemagne : des journalistes et des politiques inquiets du système d'analyse de photos d'Apple 🆕
Mise à jour 17/08 — Le parlement allemand s'est saisi de l'affaire. Le président du comité à l'agenda numérique, Manuel Hoferlin, a envoyé un courrier à Tim Cook pour lui demander de reconsidérer le système de détection des photos pédopornographiques. Apple est sur une « pente dangereuse », tout en compromettant la confidentialité des communications, selon lui. Hoferlin estime que la technologie d'Apple sera « le plus grand instrument de surveillance de l'histoire ». Elle sera lancée d'abord aux États-Unis cet automne.
Article original, 16/08 — La décision d'Apple de mettre en place un mécanisme de détection et de signalement d'images pédophiles commence à provoquer des réactions en Europe. Initialement ce système sera lancé aux États-Unis, Apple ayant indiqué qu'elle ne s'interdirait pas de le lancer dans d'autres pays en fonction des législations locales.
Des associations de journalistes germanophones en Allemagne, en Suisse et en Autriche, s'alarment à l'idée que ce système d'analyse de la base de photos en local sur l'iPhone, avant sa synchronisation en ligne via la fonction Photos iCloud, puisse à terme déborder vers d'autres contenus.
C'est un leitmotiv dans les critiques émises à l'encontre de ce système. On commence avec les photos de pédopornographie et demain, peut-être, Apple se verra sommée par un gouvernement d'étendre ses filets vers les photos de dissidents, de minorités persécutées, etc.
Ces associations s'inquiètent que des informations confidentielles et leur sources, stockées sur les appareils des journalistes, puissent faire un jour l'objet de telles recherches automatisées. Et ce alors que ces médias ont des correspondants basés aux États-Unis. Dans les risques possibles il est aussi évoqué le cas de la Hongrie et du gouvernement Orban dont la politique va ouvertement à l'encontre de la communauté LGBT.
Là encore il y a cette crainte de voir ces gouvernements exiger d'Apple qu'elle ouvre son système plus largement. La Pomme a expliqué que son mécanisme est précisément conçu pour n'être exploitable que dans ce contexte de la lutte contre la pornographie infantile, en liaison exclusive avec une base de donnée spécialisée dans ce domaine.
Craig Federighi reconnait qu'Apple a très mal communiqué sur les mesures de lutte contre la pédopornographie
Apple l'assure, les gouvernements ne pourront pas abuser du nouveau mécanisme de lutte contre la pédopornographie
De même, Apple a assuré qu'elle s'opposerait à toute demande allant dans un sens contraire. Mais elle n'a pas évoqué le cas où un gouvernement irait au-delà d'une requête insistante — comme ce fut le cas avec le FBI pour l'affaire de San Bernardino — et qu'il inscrirait sa demande dans une nouvelle loi.
Ces associations de journalistes demandent à la Commission européenne, aux ministères de l'Intérieur de leurs pays respectifs ainsi qu'aux bureaux en charge du respect du RGPD de s'emparer de ce dossier.
@Bigdidou
ça dépend de ton intention 😉
@YetOneOtherGit
Mauvaise, naturellement.
Entre Google qui aidera le fisc dans sa recherche des piscines non déclarées et hors sol, et Apple avec ses pédophiles ! C’est clair que la vie privée en prend un coup...
Attention je ne défends ni les pédophiles ni les resquilleurs...mais tout de même, ces gafam proches des gouvernements sont de plus en plus inquiétants...
Là vous vous intéressez aux problèmes techniques potentiels mais le plus gros problème est bien plus en amont et est un problème éthique en présupposant que chaque citoyen est un coupable potentiel nécessitant de mettre tout le monde sous surveillance a priori.
Jamais dans l'histoire, aucun gouvernement n'a su mettre ainsi sous surveillance constante, 1 à 2 milliards d'individus où qu'ils se trouvent dans le monde... et on leur offre cette possibilité gratuitement, Apple se chargeant de la surveillance et de faire les signalements aux forces de l'ordre le cas échéant.
Ouh là là, je tremblerais si j'étais Apple.
Si la Commission Européenne s'en empare, il y aura peut-être une loi sur le sujet dans 12 ans.
A-t-on accès à l'algorithme de hash utilisé ? Ce serait un bon début pour le faire accepter ainsi que de distribuer la liste des hash de la base de donnée des photos pédopornographiques.
@koko256
« des hash de la base de donnée des photos pédopornographiques. »
Si tu donnes les hashs, ça va exciter tous les pedopornographes en herbe.
Est-ce que le système préconisé par Apple est si dangereux que le dit ce député Allemand ? Parce que pour que ça devienne un système de surveillance généralisé, il faudrait qu'il n'y ait aucune échappatoire possible, non ? Hors d'après ce que j'ai compris, il suffit de ne pas utiliser iCloud, mais plutôt des systèmes tels que Dropbox, Nextcloud,... pour échapper au système mis en place par Apple. Je ne comprends d'ailleurs pas pourquoi les journalistes ou les journaux qui les emploient n'ont pas mis en place des systèmes du type Nextcloud auto hébergé pour les photos et documents qu'ils transmettent plutôt que de se baser sur iCloud. Je ne comprends pas aussi pourquoi des solutions tels que Nextcloud ou autres ne sont pas plus encouragées pour les photos, les carnets d'adresses,... des personnes qui en ont besoin plutôt que de passer son temps à vouloir légiférer sur les GAFAM et donner ainsi l'impression qu'il n'y a et qu'il n'y aura jamais d'autre solution possible que de passer par leurs services.
Les photothèques iCloud sont déjà vérifiées par Apple selon le meme procédé et sur la base de la même base de références de photos pedopornographiques (Apple l'a déjà expliqué publiquement plusieurs fois ces dernières années).
De ce fait, leur choix de le faire AUSSI en local sur les iPhones et iPad soulève des interrogations (auxquelles Apple n'a pas répondu) et fait craindre qu'une fois l'outil d'analyse en place directement au sein d'iOS, Apple se voie contraint par la loi dans tel ou tel Pays, d'opérer cette surveillance indépendamment du cloud sur lequel la photo serait envoyée, voire même en l'absence de tout envoi. (Tout comme il y a crainte qu'on impose à Apple de prendre en considération d'autres bibliothèques de photos de reference).
@LaurentR
« Je ne comprends d'ailleurs pas pourquoi les journalistes ou les journaux qui les emploient n'ont pas mis en place des systèmes du type Nextcloud auto hébergé pour les photos et documents qu'ils transmettent plutôt que de se baser sur iCloud »
Ils pourraient en profiter.
Mais, c’est aussi plus une question de principes que pratique.
Il ne s’agit pour personne d’entre nous de cacher ses photos, au fond, mais de refuser un nouveau système de contrôle local des datas sur lequel nous n’avons ni prise ni garanties.
Enfin, c’est mon point de vue..
@LaurentR :
« Hors d'après ce que j'ai compris, il suffit de ne pas utiliser iCloud, mais plutôt des systèmes tels que Dropbox, Nextcloud,... »
Non. Le mécanisme de surveillance prévu par Apple s'exécute en local, c'est bien ce qui soulève toutes ces inquiétudes. La Pomme est avertie lorsque les photos sont téléversées dans iCloud, mais l'analyse des photos, elle, se fait bel et bien sur l'appareil de l'utilisateur. Et le mécanisme sera présent sur tous les iPhone faisant tourner iOS 15 (qui sera bientôt incontournable), que l'utilisateur/trice utilise iCloud ou non, ce qui constitue l'autre gros souci.
Je pense qu'il n'était pas utile de modifier le commentaire pour indiquer ... "peut-être secrètement ". C'est évident que les matches avec la base de signatures vont remonter à Apple sans aucune alerte de l'utilisateur !
A la base, c'est quand même présenté comme un système destiné à coincer des délinquants. Tu ne voudrais pas un message d'alerte à chaque fois demandant l'accord de l'utilisateur d'envoyer l'alerte à Apple, voire un cadran spécial sur son'AppleWatch avec un cercle qui se complète jusqu'à avoir 30 concordances où là, il gagne la visite du FBI, si? 😳
Pages