90 associations internationales demandent l'abandon du système d'analyse de photos d'Apple

Florian Innocente |

Un nouveau front hostile à la méthode choisie par Apple dans la lutte contre la pédopornographie s'est ouvert. 91 associations civiles de plusieurs continents demandent à Tim Cook d'abandonner ce projet dans sa forme actuelle.

Les signataires, réunis sous la bannière du Center for Democracy & Technology, réclament urgemment à Apple de remiser ce système de détection de photographies pédophiles. Il sera intégré à iOS cet automne, d'abord aux États-Unis, et il fonctionnera automatiquement dès lors qu'on a activé iCloud Photos.

Si l'intention est louable reconnaissent ces associations qui œuvrent pour la défense de différents droits, la méthode choisie risque d'ouvrir la porte à une surveillance beaucoup plus large et néfaste :

Nous sommes inquiets d'une utilisation qui censurerait la liberté d'expression, menacerait la vie privée et la sécurité de personnes à travers le monde et qui aurait des conséquences désastreuses pour de nombreux enfants.

Apple s'est défendue de proposer un système qui puisse être appliqué à la recherche d'autres types d'images que celles pour lesquelles il a été conçu. Des garde-fous techniques ont été prévus. Elle a également assuré qu'elle s'opposerait à toute demande de subversion de son mécanisme qui ne fonctionne qu'avec une base de référence d'images bien particulières.

Allemagne : des journalistes et des politiques inquiets du système d

Allemagne : des journalistes et des politiques inquiets du système d'analyse de photos d'Apple 🆕

Mais qu'en sera-t-il si la requête des autorités ou d'un gouvernement s'inscrit dans la loi, demandent ces associations. Apple ayant pour habitude de répondre qu'elle se conforme strictement aux lois des pays où elle est implantée, quelle sera alors sa ligne rouge ? C'est une éventualité sur laquelle la Pomme est restée muette :

Une fois que cette capacité est intégrée dans les produits Apple, l'entreprise et ses concurrents devront affronter une énorme pression — et potentiellement des exigences légales — des gouvernements du monde entier pour numériser des photos non seulement pour le CSAM [la base de référence des images de pédophiles, ndr], mais aussi pour d'autres images qu'un gouvernement juge inacceptables.

Apple l

Apple l'assure, les gouvernements ne pourront pas abuser du nouveau mécanisme de lutte contre la pédopornographie

Ces exigences pourraient aller jusqu'au scan permanent des photos stockées sur l'iPhone et pas uniquement si la fonction de synchronisation iCloud Photos a été activée (le système est inopérant si cette fonction n'est pas utilisée ou lorsqu'on se contente d'une sauvegarde iCloud simple de ses photos).

En intégrant cette faculté d'analyse dans son système mobile, Apple ouvre potentiellement une boite de Pandore redoutent les signataires.

Le floutage dans Messages inquiète aussi

L'autre pan du projet d'Apple, relatif à la détection de photographies sexuellement explicites reçues dans Messages, n'échappe pas à la critique de ces associations qui en réclament pareillement le retrait.

Dans Messages, après activation de la future fonction depuis les réglages du partage familial, les photos reçues ou envoyées sur l'appareil iOS d'un enfant enregistré au sein d'un partage familial sont analysées en local et floutées en cas de présence d'éléments considérés comme explicites par l'algorithme.

Dans Messages, une image sexuellement explicite sera floutée et l'enfant recevra des explications

Les parents seront prévenus par une notification de la présence de cette photo dans une conversation sur l'appareil de leur enfant. Cette alerte vaut uniquement pour les enfants de moins de 12 ans (c'est une option à activer) ; il n'y aura pas de notification pour les enfants de 13 à 17 ans.

Lutte contre la pédopornographie : Apple tente d

Lutte contre la pédopornographie : Apple tente d'éteindre l'incendie avec une FAQ 🆕

Là aussi les conséquences pourraient être négatives, expliquent les associations. Il y a d'abord chez elles une méfiance vis-à-vis de la fiabilité de ce type d'algorithmes qui pourrait mélanger des images répréhensibles avec des visuels éducatifs, des œuvres d'art, des informations de santé ou d'autres contenus parfaitement innocents.

Au-delà de ça, elles considèrent que le fait pour les parents d'être automatiquement prévenus pourrait faire plus de mal que de bien dans certains cas de figure. Apple part du principe que le(s) parent(s) et l'enfant ont une relation saine et basée sur la tolérance, ce qui est évidemment loin d'être systématique :

Un adulte violent peut être l'administrateur du compte, et les conséquences de la notification parentale pourraient menacer la sécurité et le bien-être de l'enfant. Les jeunes LGBTQ+ enregistrés sur des comptes familiaux avec des parents abusifs se retrouvent particulièrement à risque.

Non seulement la garantie de confidentialité des échanges n'existe plus mais là-encore des gouvernements pourraient vouloir qu'Apple aménage son système pour leurs besoins de surveillance.

Les signataires de cette lettre réclament le retrait de ces deux fonctions des projets d'Apple et l'invitent à consulter davantage les organisations et communautés en première ligne sur ces sujets.

Ces 91 associations viennent d'horizons géographiques aussi variés que le Brésil et l'Inde (deux pays où WhatsApp par exemple, très populaire, ferraille régulièrement face aux autorités pour préserver son droit au chiffrage de bout en bout). Certaines sont du Royaume-Uni, d'Allemagne, du Canada, des États-Unis, du Népal, d'Afrique, d'Australie, du Pakistan, du Pérou, de Belgique, du Japon, du Mexique, etc. Un très large arc international qui ajoute sa voix aux inquiétudes à l'égard de cette initiative d'Apple.

Allemagne : des journalistes et des politiques inquiets du système d

Allemagne : des journalistes et des politiques inquiets du système d'analyse de photos d'Apple 🆕

avatar pillouti | 

Démonstration limpide.

avatar Godverdomme | 

On vit dans un monde où les société peuvent scanner nos emails pour nous flagger ceux du prince africain qui veut nous donner aux millions de dollars et la déplacer dans spam.
Les gens trouvent cela utile et en sont contents

Par contre, scanner des photos pour trouver un gars de 60 ans avec la main sur le sexe d'un enfant, ça c'est interdit.

Le monde est tombé bien bas...

avatar bibi81 | 

On vit dans un monde où les société peuvent scanner nos emails pour nous flagger ceux du prince africain qui veut nous donner aux millions de dollars et la déplacer dans spam.
Les gens trouvent cela utile et en sont contents

Oui je reçois du spam donc si un logiciel peut analyser et faire le tri c'est bien.

Par contre, scanner des photos pour trouver un gars de 60 ans avec la main sur le sexe d'un enfant, ça c'est interdit.

Je ne reçois pas de telles photos et n'en possède pas, un tel scan est donc totalement inutile.

avatar Godverdomme | 

Sérieux, tu penses comme cela? Ma foi en l'humanité était basse mais la elle redescend encore plus.

Tu n'es pas au chômage, donc on ne doit pas te prendre d'impôt c'est cela?
Tu n'as pas de maladie donc on ne devrait pas vendre de médicaments?
Tu n'as pas été victime de viol donc ça ne sert a rien la prévention ?

avatar bibi81 | 

Sérieux, tu penses comme cela? Ma foi en l'humanité était basse mais la elle redescend encore plus.

Essaie de faire un effort...

Tu n'es pas au chômage, donc on ne doit pas te prendre d'impôt c'est cela?

Alors pour le chômage ce n'est pas les impôts mais l'assurance chômage prélevée sur le salaire. Tout le monde ne cotise pas et ceux qui ne cotisent pas se retrouve sans rien en cas de perte d'emploi. Bref c'est une assurance quoi, on prend ou pas, c'est selon chacun.

Tu n'as pas de maladie donc on ne devrait pas vendre de médicaments?

En effet, quand je ne suis pas malade on ne devrait pas me vendre de médicaments (et c'est d'ailleurs le cas !). Mais quand je ne suis pas malade je n'empêche pas les autres d'avoir accès aux médicaments...

Tu n'as pas été victime de viol donc ça ne sert a rien la prévention ?

Ah oui carrément, donc selon toi la surveillance de masse c'est de la prévention !

avatar Godverdomme | 

Je fais des efforts mais tu ne fais rien pour expliquer toi vision.
Accepter que l'on scanne tes emails car tu as du spam, mais pas photos pour du viol d'enfant comme tu n'en a pas est intriguant.

avatar bibi81 | 

Tu ne comprends pas que le scan des emails m'apporte un service alors que le scan des photos ne m'apporte rien (à part peut-être de sacrées emmerdes si le système est foireux) ?

avatar Godverdomme | 

Je ne suis pas centré sur ta personne, je suis centré sur le chien d'un enfant qui a la photo de son sexe dans la main d'un mec.

avatar Bigdidou | 

@Godverdomme

« Tu n'as pas été victime de viol donc ça ne sert a rien la prévention ? »
Ce système n’assure aucune prévention…

avatar pillouti | 

@Godverdomme

Vous ne pensez pas qu’ils vont rapidement comprendre la problématique de ce service et s’en détourner ?

Et ensuite que restera-t-il ? Un algorithme qui va scanner nos photos personnelles, et une porte ouverte à tous les abus possibles.

avatar Godverdomme | 

Et celui qui scanne tes mails c'est aucune porte?
Qui milite contre le scan des mails je cherche...

Sinon c'est hypocrisie a 200%

avatar bibi81 | 

Et celui qui scanne tes mails c'est aucune porte?

Non, parce que le scan des emails ne risque pas de te dénoncer à la police...

Sinon c'est hypocrisie a 200%

Et quand ton "ami Harry" va t'envoyer une soixantaine de ces "jolies" photos et qui vont se retrouver malgré toi sur ton compte iCloud, tu vas toujours trouver ça une bonne idée ?
Il n'y a pas de faille(s) sur iOS qui permettent de télécharger les photos qui vont bien sur ton compte iCloud via ton iPhone ?

avatar Godverdomme | 

Oui je trouve cela excellent que cela permettre de mettre Harry sous enquête. Merci d'apporter des arguments en faveur de ce que je dis.

avatar koko256 | 

@Godverdomme

Je désactive l'antispam, j'ai le choix... ici on n'a pas le choix.

avatar Godverdomme | 

Faudra que tu expliques comment désactiver le scan sur les serveurs de Apple, car il me semble reconnu que c'est impossible

avatar koko256 | 

@Godverdomme

Je pensais que la remarque se référait à l'antispam en général. Je n'utilise pas mon email Apple.

avatar koko256 | 

@Godverdomme

En fait la seule chose qui m'ennuie ce sont les faux positifs qui entraîne la visualisation d'une photo privée par un humain (de la police ou de chez Apple). Pour les spams, je n'ai pas l'impression que des humains lisent les emails. Pour l'amélioration de Siri and co. d'ailleurs, cela a fait des vagues quand on a appris que des humains écoutaient des enregistrements privés.

avatar YetOneOtherGit | 

@koko256

"En fait la seule chose qui m'ennuie ce sont les faux positifs"

De ce que je comprends il y a un niveau de seuil sur l’identification des fichiers faisant partie du corpus cible.

Il faut vraiment jouer de malchance pour atteindre ce niveau seuil déclencheur avec une accumulation de faux positifs, ce doit être statistiquement hautement improbable. 😎

avatar YetOneOtherGit | 

@koko256

"cela a fait des vagues quand on a appris que des humains écoutaient des enregistrements privés."

Des vaguelettes sans conséquences sérieuses 😎

avatar AlexG | 

@Godverdomme
Donc encore aujourd'hui tu n'as toujours pas compris ce qui est en jeu, de l'autre côté de l'aspect sécuritaire ?

Tous les points de vue sont intéressants à entendre, du moment qu'ils sont nuancés. Remettre sur le tapis la souffrance d'un enfant dans une situation pédopornographique ne fait que jouer sur l'émotionnel -comme la grande majorité des médias d'"information"- et n'apporte rien au débat.

Le monde n'est pas binaire bon sang.

avatar Rogntudju | 

Bien !

avatar David Finder | 

Le Pakista ?
Les talibans leur ont déjà piqué le « n » ?

avatar 406 | 

[Modéré. MB]

avatar Gilles Derval | 

[Modéré. MB]

avatar MacGruber | 

Bravo !🎊🎉🍾

Ça va beaucoup trop loin !

avatar ofaysse | 

Oui, trop loin, vraiment penser qu’Apple puisse fouiller les photos avec mes petit partenaires. NON, c’est l’atteinte à la liberté d’expression sexuel.

Faut bien admettre que mon poste est un peu satirique. Les gens râle beaucoup avant d’en connaître vraiment les aboutissants surtout quand on pense que WhatsApp, Facebook ou d’autres font pratiquement la même chose mais ne dis rien

avatar Godverdomme | 

Par contre si tu l'envoies par email, ils peuvent scanner... Ou est ta limite?

avatar Krysten2001 | 

@ofaysse

« Oui, trop loin, vraiment penser qu’Apple puisse fouiller les photos avec mes petit partenaires. NON, c’est l’atteinte à la liberté d’expression sexuel. »

C’est de l’ironie ? Car la fonction ne fait pas ça.

avatar vicento | 

@ofaysse

Vue que c’est possible techniquement, ils le font sûrement de même que Google

avatar hugome | 

C’est un peu triste de n’y trouver aucune ONG française, elles qui sont toujours en pointe du OuinOuin pour n’importe quoi.

avatar Gerrer | 

@hugome

Peut-être parce qu’elles ont compris qu’avant de râler pour rien ,fallait attendre plus d’explications venant d’Apple , c’est tout.dit comme ça ,ça fait peur et les médias ne font rien pour rassurer les gens ,bien au contraire. Ils font des titres bien racoleurs pour attirer un max de gens.Apple n’as encore pratiquement rien dit mais vu que c’est Apple ,c’est le mal et forcément dangereux et mauvais pour la vie…mdr…🤣la mauvaise foi de gens.

avatar hugome | 

@Gerrer

Prends pas ton cas pour une généralité. On sait déjà très bien comment ça marche et les risques associés

avatar Gerrer | 

@hugome

Ouais et donc ? Je suis pas une femen si c’est ça que tu veux savoir…heureusement d’ailleurs. Et où j’ai pris mon cas ( il n’y en avais pas, mais bon…certe) pour en faire une généralité ? Vas-y , je t’écoute ?

avatar H2Apps | 

Je ne comprend pas pourquoi les lois n’obligeraient pas les fabricants à intégrer ce système, si la crainte c’est qu’une loi sorte pour modifier la base de données d’images…

avatar r e m y | 

C'est bien le risque... maintenant qu'Apple a expliqué qu'ils savent faire techniquement, ça pourrait donner des idées à certains Pays d'imposer par la loi, la mise en place de ces systèmes dans les OS des smartphones.
Et si c'est sur les mêmes principes d'analyse locale via un algorithme avec remontée uniquement des cas suspects (avec une probabilité d'erreur de 1 sur 1000 milliards), principes dont Apple assure que ça respecte totalement la confidentialité des données et la vie privée des honnêtes gens, Apple notamment, aura bien peu d'arguments pour s'y opposer.

Ils ont ouvert la boîte de Pandore, on ne la refermera pas aussi facilement.

avatar marenostrum | 

tout le monde sait le faire même les pays concernés. ils n'ont pas besoin de contrarier Apple. il suffit d'obliger par la loi que les serveurs de tout communication soient dans leur sol, et c'est tout.
en plus ce que Apple fait est juste démagogique. tu crois qui n'ont pas déjà analyser ton iPhone ou ton Cloud ? moi j'ai tous mon dossier Documents dans le cloud, ça fait deux ans au moins. et comme il doit y avoir des millions de gens comme moi, ça pousse Apple d'avancer ou d'annoncer publiquement que elle va analyser la chose qu'elle le fait déjà.

avatar MarcMame | 

@H2Apps

"Je ne comprend pas pourquoi les lois n’obligeraient pas les fabricants à intégrer ce système, "

————-
C’est possible.
Dans n’importe quel régime totalitaire.
Tu peux émigrer là bas si tu veux.

avatar Dv@be | 

J’ai du mal à comprendre en quoi c’est mal de vouloir protéger des enfants et d’identifier des pedocriminels.

avatar r e m y | 

En surveillant les faits et gestes de tout le monde?
C'est une méthode qu'on trouve généralement dans des Pays comme la Chine ou dans l'ex RDA avec la Stasi...

avatar Dv@be | 

@r e m y

Si une personne a des images pedophile sur son ordi, tel , tablette : oui cela vaut la peine !

avatar Eristoff47 | 

@Dv@be

Je suis bien d'accord. Et je pense surtout qu'on devrait demander l'avis à des personnes qui ont subi ou on eu des proches qui ont subi des actes de pedophilie. C'est toujours plus simple de critiquer quand on est pas atteint.

avatar Bigdidou | 

@Eristoff47

« l'avis à des personnes qui ont subi ou on eu des proches qui ont subi des actes de pedophilie »

C’est manifestement aussi très clivé.
Mais, je vaîs dire une chose horrible, être victime d’attouchements ou de viols, c’est une chose, être photographié en plus et retrouver les images sur internet, source de profits en plus pour certains, ça doit mettre une haine particulière qu’on n’a pas forcément sinon.
Je comprends qu’on soit à fond pour ce système dans cette situation, mais ça n’en fait pas une bonne idée.

Tempête dans un verre d’eau ? 😉
Je ne crois pas…

avatar YetOneOtherGit | 

@Bigdidou

"Tempête dans un verre d’eau ? 😉
Je ne crois pas…"

Moi si, il y a une incroyable inconscience de ce qu’est déjà la situation sur ses enjeux de surveillance.

Nous sommes sur un épiphénomène qui ne change strictement rien à la situation servant de point de fixation.

Par bien des aspects cela me fait penser aux postures des antivax et dew opposants au pass sanitaire.

avatar webHAL1 | 

@Bigdidou :
« Tempête dans un verre d’eau ? 😉
Je ne crois pas… »

Comment ? Voudrais-tu dire qu'il ne suffit pas de répéter quelque chose en boucle sur un forum Internet pour que cela devienne vrai ?!

Ohhhhhhh !

😂

avatar jazz678 | 

@webHAL1

« Voudrais-tu dire qu'il ne suffit pas de répéter quelque chose en boucle sur un forum Internet pour que cela devienne vrai ?! »

😏

avatar YetOneOtherGit | 

@jazz678

"😏"

Venant d’un type répétant ad-nauseam: Apple vilain pas beau.

elle est osée sa réflexion n’est ce pas 😁

C’est quand même le même mec qui prétend régulièrement qu’il n’y a aucune différence entre Google et Apple sur l’exploitation de la vie de ses utilisateurs 😄😄

avatar jazz678 | 

@YetOneOtherGit

« elle est osée sa réflexion n’est ce pas »

C’est sa manière d’essayer de faire croire de façon subliminale que lui n’est pas dans cette pratique.

J’y vois de l’introspection inconsciente ou de l’autodérision

avatar pilipe | 

@Eristoff47

Je pense qu’on devrait tous laisser notre porte ouverte pour que la police vienne chaque jours vérifier tous les apparts voire s’il n’y a pas de trucs illégaux. Interdisons aussi les enveloppe, comme ça ça permettrait de vérifier qu’aucune photo pedopornographique transite par la poste. Et j’ai encore pleins d’exemple comme ça.

avatar Godverdomme | 

C'est déjà le cas. Sous réserve d'un mandat, est de preuves en leur possession (transactions bancaires douteuses, déplacements chez un trafficant,...) Ils ont le droit d'ouvrir ta porte (de force même si tu milites pour ta liberté de ne pas ouvrir), ouvrir tes tiroirs, sentir très capotes dans la poubelle, analyser les traces sur tes caleçons sales,...

Et tu paniques pour tes photos de vacances?

Si tu reçois un million sur ton compte en banque, qu'un va enquêter car la transaction est automatiquement analysée. Pourquoi ne pourrait il pas en être de même si tu as la photo d'un enfant nu qui se fait toucher par Tonton Marcel?

avatar webHAL1 | 

@Godverdomme :
« C'est déjà le cas. Sous réserve d'un mandat, est de preuves en leur possession (transactions bancaires douteuses, déplacements chez un trafficant,...) [...] »

Tiens donc. C'est "déjà le cas"... mais il faut un mandat et des preuves. Rappelez-moi, le mécanisme prévu par Apple, il n'est installé que sur un iPhone suite à un mandat et des preuve, ou bien il fonctionne en local sur l'ensemble des iPhone tournant avec iOS 15 (qui sera bientôt incontournable) ?

Ah ? Donc ça n'a strictement rien à voir.

@pilipe :
« Je pense qu’on devrait tous laisser notre porte ouverte pour que la police vienne chaque jours vérifier tous les apparts [...] »

Tututut. Pas la police. Une entreprise privée.

Pages

CONNEXION UTILISATEUR