Les mesures d’Apple pour lutter contre la pédopornographie ne font pas l’unanimité au sein de l’entreprise
On ne choisit jamais la saga de l’été : les mesures de protection contre la pédopornographie annoncées par Apple qui ont été plutôt mal accueillies par les experts et les utilisateurs semblent faire aussi controverse au sein du géant californien. Selon Reuters, des employés ont manifesté leur inquiétude en postant plus de 800 messages sur un canal de discussion Slack interne, bien que les messages en question n'aient pas émané de spécialistes de la sécurité et de la vie privée chez Apple.
Les inquiétudes semblent largement rejoindre ce qui a déjà été avancé jusqu’ici par les défenseurs de la vie privée, c’est-à-dire que des gouvernements moins scrupuleux pourraient détourner ce mécanisme pour passer au crible des images politiquement sensibles n’ayant aucun rapport avec la pédopornographie. De son côté, Apple soutient qu’elle refusera de telles demandes si elles ne concernent pas des photos CSAM (Child Sexual Abuse Material).
Au-delà des implications de cette potentielle boîte de Pandore, il est intéressant de constater comment les employés d’Apple continuent à faire entendre leur voix malgré une culture d’entreprise historiquement centrée sur le secret. Si ce phénomène n’est pas nouveau (les employés en question ont toujours communiqué entre eux sur des réseaux internes, y compris avant les réseaux sociaux et l’extrême médiatisation d’Apple), il a pu être facilité par la généralisation de certains outils de communication.
À titre d’exemple, Apple utilise Slack à l’échelle de l’entreprise depuis quelques années, et d’autant plus depuis l’arrivée nécessaire du télétravail. L’occasion pour les employés de mener des conversations légères… et d’autres moins.
Une mesure qui fait l’unanimité doit être abandonnée sur le champ
@DrStrange
😓🤨🥸
Vu les débats, on ne peut pas parler d'unanimité
@DrStrange
A la vue des réactions des commentaires, ça ne m’étonnerait pas qu’il y ait pas mal de pedophiles, ça fait peur 🥴
Et les photos de documents confidentiels de clients risquent aussi être scannés ?
On va devoir revenir à la photocopie pour ne pas transporter e serait-ce que quelques heures une version de documents dans le téléphone ?
Des solutions libres vont-elles se créer pour luter contre cela et bien d’autres choses … ?
@CorbeilleNews
Pour des documents confidentiels d’entreprise je m’inquièterais davantage à cause de Live Text que de ce système de détection de contenu pédopornographique…
@geooooooooffrey
Je viens de regarder et en effet !
Ce n’est pas encore en place ?
J’espère que l’on pourra le désactiver comme pour Siri !
Merci pour l’info 😉
Pas de désactivation possible! Ça n'aurait aucun sens si ceux qui ont potentiellement des raisons d'être pris par cette surveillance pouvaient la désactiver !
@r e m y
Ma demande de désactivation concerne Live Text et pas celle des photos pedopornographiques
@CorbeilleNews
Les photos confidentiels clients n’ont rien a faire sur iCloud Photos qui n’est pas un service « confidentiel »
La photothèque iCloud est un lieu de stockage privé qui est par ailleurs chiffré pour que seul l'utilisateur y ait accès.
@r e m y
Les autres cloud ( Microsoft, google etc) sont aussi des endroits privés pourtant les photos sont scannées à la recherche de contenu pedo pornographique, c'est comme ça, il y c'est la loi aux usa. C'est pareil pour tout le monde.
Apple est en retard dans cette lutte, et ils inventent une solution bancale et compliquée au lieu de faire comme tout les autres acteurs du cloud.
@Adodane
On préfère que ce soit plus respectueux de la vie privée.
Mais Apple scanne DEJA le contenu d'iCloud à la recherche d'images pedopornographiques...
https://www.macg.co/aapl/2020/01/la-lutte-contre-la-pedophilie-se-mene-aussi-sur-icloud-111201
Là ils ajoutent une vérification à la source en mettant en place une surveillance generalisee de tous les iPhones en circulation.
( et pour info, Apple scanne aussi les images en pièces jointes des e-mails transitant par les serveurs iCloud: https://www.macg.co/aapl/2020/02/icloud-details-sur-la-facon-dont-apple-gere-les-contenus-pedophiles-111919 )
@Sgt. Pepper
Qui a dit que j’utilisais iCloud ? Je parle des photos en local.
Il est bien question d’étendre l’analyse iCloud aux fichiers locaux
Faut sortir des reflexes du type : « comme Apple m’active par défaut un ou des services (car cela l’arrange) dès que je me connecte » tout le monde le laisse activé 😌
Il n'y a vraiment rien qui va dans cette initiative d'Apple.
En premier lieu, le fait de mettre sous surveillance chacune des photos envoyées sur leur photothèque par chaque utilisateur d'iPhone en présupposant qu'ils sont tous des délinquants sexuels potentiels et que ça justifie de passer outre tous les beaux discours sur le respect de la vie privée (l'iPhone sur lequel se fait la détection et la photothèque iCloud sont des lieux privés )
En deuxième lieu de se substituer aux autorités de polices pour détecter et denoncer d'éventuels délinquants
En troisième lieu de faire des signalements à l'association NCMEC de possibles délinquants sexuels avant même que police et(ou justice ne l'aient confirmé ou infirmé.
🤦♂️
@r e m y
1 rien n’est présumé, c’est comme un scan antivirus. Tu presume pas Que 100% de fichiers sont infectés.
L’utilisation de iCloud service est lié a licence à accepter ou pas , et Apple est libre de s’assurer qu’il ne contient pas de CSAM
2&3: c’est la loi, aux US, il est légalement obligatoire de dénoncer des elements de pedo criminalité
Concernant la license iCloud, je n'y vois rien relatif à une quelconque limitation du type de photos qu'on y stocke.
Et désolé, mais en installant un mouchard sur mon iPhone pour vérifier chacune de mes photos, Apple me considère comme un délinquant sexuel potentiel qu'il convient de surveiller.
Sur le fait de dénoncer les faits de pedocriminalite, ça ne me pose pas de problème, ce qui me gêne c'est de violer tous les principes de respect de la vie privée pour aller chercher à débusquer les potentiels pedocriminels en mettant tout le monde sous surveillance permanente
D'autre part, désigner à une association privée (NCMEC) quelqu'un comme délinquant sexuel probable avant même que police ou justice l'aient confirmé ou infirmé me pose problème également.
@r e m y
> « Concernant la license iCloud, je n'y vois rien relatif à une quelconque limitation du type de photos qu'on y stocke. «
🙄
https://www.apple.com/legal/internet-services/icloud/fr/terms.html
« Vous acceptez de ne PAS utiliser le Service pour :
a. télécharger, publier, envoyer par courrier électronique, transmettre, conserver ou rendre disponible tout Contenu illégal, harcelant, menaçant, nuisible, délictueux, diffamatoire, injurieux, abusif, violent, obscène, vulgaire, indiscret quant à la vie privée d’un tiers, haineux, injurieux à l’égard d’une race ou ethnie, ou choquant ; »
1 point pour toi, je n'avais pas vu ce paragraphe et le verbe "conserver" qui désigne effectivement le fait de stocker sur sa photothèque iCloud le type d image dont on parle ici.
@r e m y :
« Et désolé, mais en installant un mouchard sur mon iPhone pour vérifier chacune de mes photos, Apple me considère comme un délinquant sexuel potentiel qu'il convient de surveiller. »
100% d'accord.
Apple n'a pas à installer ce mouchard sur tous les appareils. Elles pourrait parfaitement vérifier les photos lorsqu'elles sont téléversées dans iCloud (elles possède les clés de chiffrement). L'approche choisie est extrêmement problématique pour le respect de la vie privée, et c'est bien pour ça qu'Edward Snowden ainsi que beaucoup d'experts en sécurité s'en inquiètent.
« D'autre part, désigner à une association privée (NCMEC) quelqu'un comme délinquant sexuel probable avant même que police ou justice l'aient confirmé ou infirmé me pose problème également. »
Très juste également.
Apple n'a pas à se substituer à la justice. Ni elle, ni aucune autre entreprise privée.
@webHAL1
NCMEC rend un service PUBLIC, dont l’action ici est encadré et défini par la législation
https://en.wikipedia.org/wiki/Protecting_Children_from_Internet_Pornographers_Act_of_2011?wprov=sfti1
Tout se mélange dans ta tête: justice, police, …
Apple est parfaitement dans son role comme prescrit par la législation US,
Idem pour tout fournisseur de service électronique, celui de reporter a NCMEC les abus sexuel par enfant à sa connaissance.
Ce n’est ni de la police ni la justice.
Ensuite Il y aura enquête de la police, puis la justice sera saisit qui fera sont travail.
@Sgt. Pepper :
« The National Center for Missing & Exploited Children (NCMEC) is a private, nonprofit organization established in 1984 by the United States Congress. »
Source : Wikipéda.
Le fait qu'elle rende un service public n'a strictement rien à voir. À ce moment, à peu près toutes les entreprises rendent des services "publics", hein...
Sinon, une immense partie des possesseurs d'iPhone ne vivent pas aux États-Unis. Cela signifie que le mouchard ne sera pas installé sur leur appareil avec iOS 15 ?
@webHAL1
> « Sinon, une immense partie des possesseurs d'iPhone ne vivent pas aux États-Unis. Cela signifie que le mouchard ne sera pas installé sur leur appareil avec iOS 15 ? »
=> oui, ce mécanisme ne fonctionnera qu’aux États-Unis ! Il pourra s’étendre où évoluer en fonction de la législation des autres pays, mais pour l’instant ce ne sont que les États-Unis ! Et quand on voit que plusieurs services sortis depuis des années aux États-Unis ne sont jamais arrivés ici, il ne faut pas s’inquiéter que cela soit trop rapide !
@Lu Canneberges :
Ma question n'était pas de savoir si le mécanisme ne FONCTIONNERA qu'aux États-Unis (car c'est en effet ce qu'Apple a annoncé), mais s'il ne sera PRÉSENT que sur les iPhone américains.
Avez-vous la réponse ?
Cela fait toute la différence en termes de vie privée, d'abus par des gouvernements peu scrupuleux et de risques de piratage ?
@webHAL1
Alors vous qui ne connaissez rien (législation,…), allez regarder Mac4ever 😜
@Sgt. Pepper
« c’est la loi, aux US, il est légalement obligatoire de dénoncer des elements de pedo criminalité »
Pas seulement au USA. En France le fait de ne pas avertir la justice sur des affaires de pedophilie est un délit punissable par la loi.
Dénoncer des faits dont on a connaissance ou dont on est témoin , n'autorise pas à aller fouiller le domicile de ses voisins pour rechercher des preuves éventuelles de tels faits.
@r e m y
« Dénoncer des faits dont on a connaissance ou dont on est témoin , n'autorise pas à aller fouiller le domicile de ses voisins pour rechercher des preuves éventuelles de tels faits. «
Je n’ai jamais dis le contraire. Je suis moi-même assez partagé sur l’initiative d’Apple. Mais connaître l’avis de la loi française sur le fait de dissimuler des actes de pedophilie, parce qu’on « ne parle pas de ces histoires » est important !
Je trouve cela génial que les gens adhèrent à un scan systématique des emails pour leur détecter que le prince nigérian ne le leur donnera pas des millions de dollars (il faut croire que c'est super important)
Mais scanner les photos pour détecter un homme de 60 ans la main sur le sexe d'un enfant, ca ce n'est pas utile, ca mérite de lyncher Apple.
Pourrait on m'expliquer?
@r e m y
Vous n’avez rien comprit et personnellement je préfère une entreprise comme Apple qui essaie de faire quelque chose dans le respect de la vie privée plutôt qu’un Google qui sait tout sur tout et s’en fou royalement.
Tout est fait en local sauf si ça correspond à un hash…
@Krysten2001
Et tu es présumé coupable ! Belle mentalité ! La stasi le retour
Ma femme seras scanné si elle m’envoie une photo coquine c’est pas cool 😡
@kevin14600
Pourquoi ? Ta femme est mineure ? Elle est dans le fichier des enfants abusés sexuellement ?
Pourquoi ? Ta femme est mineure ? Elle est dans le fichier des enfants abusés sexuellement ?
Pourquoi ces questions ? Toutes les photos sont scannées. Peu importe ce qu'il y a sur la photo, elles sont toutes scannées. Et c'est parce qu'elles sont toutes scannées qu'Apple va pouvoir identifier celles qui sont illégales.
Le système ne peut fonctionner que si toutes les photos sont scannées.
@kevin14600
Pas vraiment. Ton iPhone, qui contient la photo coquine de ta femme, génère un code hash de la photo. C’est ce code hash qui est comparé à la base de données des codes des photos pedophiles et cette comparaison est faite en local sur iPhone. La base de données des codes est sur ton iPhone aussi.
S’il n’y a pas de match entre ton code de photo et la base de données, c’est fini. Tout aura été fait en local.
@kevin14600
Pour la fonction de protection d’ iMessage:
toi ou ta femme à moins de 12 ans ?!?
(Et cela reste optionnelle, fonction désactivés par défaut )
@kevin14600
N’importe quoi… l’empreinte mathématique de la photo sera comparée, en local, à l’empreinte des photos pédopornographiques de la base de donnée stockée aussi en local, et donc sauf si la photo qu’elle t’envoie est celle d’un enfant et qu’elle est déjà identifiée comme criminelle, vous ne risquez rien du tout !
@kevin14600
"Ma femme seras scanné si elle m’envoie une photo coquine c’est pas cool 😡"
Une semaine apres l’annonce on a encore ce genre de commentaires 🤣
D’où, l’article d’ailleurs, risque pas que ca fasse l’unanimité quand la majorité n’a toujours rien compris 😫
Si elle te l'envoie par email elle est déjà scannée et celle ne te fais rien ..
Je préfère une entreprise comme Apple qui essaye de faire quelque chose contre la pédophilie et qui tâtonne plutôt qu'une entreprise :
- qui ne fait rien
- ou qui scanne la totalite de vos photos et de vos messages dans l'indifférence générale (vous voyez de qui je parle OO avec deux G autour !)
@Cyrille50
« Je préfère une entreprise comme Apple qui essaye de faire quelque chose contre la pédophilie et qui tâtonne plutôt qu'une entreprise qui ne fait rien ». La lutte contre la pédopornographie n’est pas un argument commercial. J’ai pas envie que le monde devienne ça :
Apple est toujours plus proche de vous. Nous proposons à vous et vos proches un abonnement familial qui permet d’associer des services incroyables. Il est composé d’ATV+ avec ses programmes de télévision inspirants, apple arcade qui permet jouer en toute sérénité avec toute la famille et ICloud un stockage de photos sécurisé. Nous comprenons que nous confier vos photos de vacances avec les enfants suscite des inquiétudes. Sachez que nous avons su créer des liens forts avec Child Sexual Abuse Material pour vous rassurer. Un système de passage au crible des clichés lutte activement contre la pedophilie, c’est un petit geste pour humanité.
C’est beaucoup sur les sites Français que j’ai vu des avis favorables mais vraiment pas beaucoup sur l’anglo sphère.
Le problème est très double, si Apple le fait en ligne alors le cloud n’est pas très privé.
Donc le fait en local et éventuellement laisser une clé de décryptage, ça laisse le moins possible d’accès à Apple dans le cloud.
Oui mais avoir un truc pareil sur son téléphone, son ordi, ça fait quand même un minimum bizarre dans le principe.
Et ce même si c’est uniquement pour les photos qui vont dans le cloud.
C’est toujours un peu compliqué la question de la vie privée quand tu connais pas le code du software.
Et c’est vraiment pire quand tu as très peux d’influence dessus.
Qu'ils le fassent en local interroge également sur le caractère privé du contenu de nos iPhones...
@r e m y
STP Renseignes toi sur la solution cryptographique mis en oeuvre…
Il y a aucune divulgation (ni la possibilité pour Apple d’en apprendre plus que dans la situation) avant N matches avec des photos CSAM fournies par le NCMEC (protection enfance US).
Avant ce N match , impossible de savoir quoi que ce soit.
Seulement ensuite, un humain pourra verifier (taux de faux + est inférieure a 1 sur 1 millard)
@anton96
La solution cryptographique proposée est un bien meilleur compromis pour la vie privée que les scan serveurs comme fait actuellement for Google/FB et les autres
(et qu’Apple se refuse de faire, mais si les photos iCLoud ne sont pas chiffrées E2E, cela reste trés délicat de faire un process qui les déchiffre pour les scanner)
OK pour le coté boite noire, mais cela ne change rien à la situation actuelle. On ne connaît rien de ce que se passe à l’intérieur de nos iPhone.
Tout est une question de CONFIANCE…
(Et un peu de garde fous: journaliste, chercheurs en sécurité,…)
"chercheurs en sécurité", certains ne sont pas super emballés non plus :
https://www.hackerfactor.com/blog/index.php?/archives/929-One-Bad-Apple.html
@lmouillart
Excellent article qui met bien en avant certaines difficultés et montre bien certaines problématiques légal. En gros, Apple aurait trouvé un moyen pour collecter des images pedophile et les faire voir à des employés n’ayant aucune légitimité pour ça.
Et j’ai beaucoup apprécié le faut positifs mentionné : one of them was definitely a false-positive. (The false-positive was a fully clothed man holding a monkey -- I think it's a rhesus macaque. No children, no nudity.)
@gwen
« les faire voir à des employés n’ayant aucune légitimité pour ça. »
C’est un autre aspect du débat, plus technique, mais qui est intéressant.
Leur légitimité, leur sélection et leurs conditions de travail. J’imagine le gars qui fait ça tout seul en télétravail. Il a intérêt à bosser les fenêtres fermées, parce qu’il risque de voir des trucs…
Ou alors s’il aime ça, comment dire…
Pages