Les nouveaux systèmes d'Apple pour lutter contre la pédopornographie inquiètent

Félix Cattafesta |

Les nouveaux mécanismes d'Apple pour lutter contre la pédopornographie ne plaisent pas du tout aux défenseurs et avocats de la vie privée, notamment à certaines ONG ou à Edward Snowden. Dans une série de tweets, le lanceur d'alertes a vivement critiqué ces mécanismes, qu'il compare à un moyen de surveillance global. « S'ils peuvent scanner des images pédopornographiques aujourd'hui, ils pourront scanner ce qu'ils veulent demain ». Il ajoute ensuite qu'Apple a « transformé mille milliards de dollars d'appareils en iNarcs [iMouchards]... sans demander ».

Les retours négatifs ne se sont pas fait attendre non plus du côté de l'EFF (Electronic Frontier Foundation), qui estime que l'examen des photos revient à mettre en place une porte dérobée. L'ONG explique qu'il est impossible de construire un mécanisme côté usager qui sera seulement utilisé pour lutter contre la pédopornographie. Pour eux, un tel système (même bien intentionné) brise la promesse du chiffrement bout-en-bout et ouvre la porte à différents abus.

À l'avenir, il sera facile de modifier le mécanisme déjà existant pour le pousser à chercher d'autres types de contenus et pour signaler d'autres types de comptes. L'EFF imagine le cas d'un gouvernement autoritaire utilisant le système pour détecter les images révolutionnaires, satiriques ou liés aux causes LGBTQ+.

Image retweetée par Edward Snowden. Source : Twitter.

Le scan des photos iCloud est pointé comme une perte de confidentialité plutôt que comme une amélioration. L'ONG explique également que les notifications aux parents pourraient être envoyées de manière disproportionnée si l'algorithme n'est pas au point, par exemple en signalant des tableaux d'art ou des memes comme éléments anormaux. La critique est fondée : le système de Facebook fonctionne sur le même principe et se trompe régulièrement.

Enfin, l'organisation CDT (Center for Democracy and Technology) a exprimé ses craintes quant à l'utilisation des fonctions de notification aux parents par des adultes malveillants :

Les jeunes et les enfants LGBTQ vivant dans des foyers violents sont particulièrement vulnérables aux représailles, y compris de la part de leurs parents ou tuteurs. [Le système d'Apple] pourrait exposer par inadvertance des informations sensibles sur eux-mêmes ou leurs amis à des adultes, avec des conséquences désastreuses.

Avec cette technologie, Apple fait le pari risqué de remettre en jeu son image d'« entreprise de la confidentialité ». On le sait, Cupertino s'arrange parfois avec certains pays et les craintes évoquées par les militants sont loin d'être infondées. Les employés d'Apple s'interrogent aussi, au point que Sebastien Marineau-Mes, le vice-président en charge des logiciels, a diffusé un mémo annonçant des explications plus précises à venir afin d'éviter les quiproquos.

Lutte contre la pédopornographie : Apple veut répondre aux craintes et aux incompréhensions

Lutte contre la pédopornographie : Apple veut répondre aux craintes et aux incompréhensions

avatar EricBM1 | 

C’est sûr, c’est inquiétant. Et dire que je suis revenu sur iPhone pour le respect de la vie privée (entres autres)

avatar Malouin | 

@EricBM1

Mais achète un Android !

avatar EricBM1 | 

@Malouin

Je pense effectivement que beaucoup de fans d’Apple risqueront de switcher à cause de ça. Mais quelle erreur débile de la part d’Apple. Je suis un grand fan de la marque, j’ai eu mon 1er iMac en 2006, j’ai eu le 1er iPhone (edge), le 3G, 4, 6 Plus, maintenant le 12 Pro, mais là ils franchissent la ligne

avatar Malouin | 

@EricBM1

Pourquoi !? T’es pédophile ?
Apple garantie la confidentialité des données.

avatar EricBM1 | 

@Malouin

« Pourquoi ? T’es pedophile ? »
Alors toi t’es un sacré con quand même. Je pourrais t’expliquer pourquoi c’est dangereux, beaucoup l’ont évoqué ici. Mais vu ta remarque d’abruti ça se sert à rien. Tu n’as pas le niveau intellectuel pour comprendre

avatar CorbeilleNews | 

@EricBM1

👍🏻👏👏👏

avatar Malouin | 

@Genval

Ben voilà… J’ai tors puisque tu as raison !
Je ne comprends rien au monde…
Ok.
Ceci dit, la qualité des commentaires et des réponses me confirme dans mes opinions.

avatar Bigdidou | 

@Malouin

« Ceci dit, la qualité des commentaires et des réponses me confirme dans mes opinions. »

Si tu parles de ton opinion selon laquelle tu ne comprends rien au monde, oui, absolument.

Il y a des contribs de grande qualité sur ces fils.
C’était l’occasion de t’y distinguer, pourtant.
Mais franchement, ce genre de remarque « ok, t’as raison, j’ai tout le temps tort », mes enfants les ont stoppées à 10 ans…

avatar Malouin | 

@EricBM1

PS : on peut respecter les commentateurs et leurs opinons !
Je peux penser de toi la même chose que toi de moi.
Le respect que je te porte (alors que je ne te connais pas) m’impose plus de retenue.
… Autrement dit et pour que tu me comprennes : je pense vraiment que tu es (pour le coup) un « sacré con »… Mais, en temps normal, je ne l’écris pas.

avatar en chanson | 

Malouin?

tu as songé à lire tes cours d'histoire? pathétique

avatar Bigdidou | 

@en chanson

« tu as songé à lire tes cours d'histoire? »

Il a le droit de se spécialisé dans l’histoire du rempart sud de Saint Malo…

Bon, pour avoir une explication correcte du monde, c’est peut-être un peu léger.

avatar Malouin | 

@Bigdidou

Le commentaire qui se passe de commentaires : on ne peut pas discuter. J’ai tors puisque tu as raison !
De quels cours d’histoires parles tu ?
Les miens ne se résument pas à « la théorie du complot » ni à la croyance en un groupe « Bilderberg » qui pense à ma place…

avatar anton96 | 

@EricBM1

Idée tout à fait sensée et ce malgré Google.

Parce que sur Android au moins on peut facilement se passer de Google photo.

Sur iOS les applications de synchro de photos ne peuvent synchroniser en tâche sauf iCloud…

Là où sur Android, les app synchro ont plus de libertés pour le faire.

avatar Bigdidou | 

@anton96

« Idée tout à fait sensée et ce malgré Google »

On va finir par apprécier Google, de toute façon.
Cette firme nous étudie pour mieux nous vendre ce que nous aimons.

Apple nous étudie pour mieux nous changer et nous vendre ce qu’elle veut, nous protéger de nous mêmes selon ses critères californiens.

Au fond, qui nous respecte le moins dans l’histoire ?

avatar Paquito06 | 

@Bigdidou

"Au fond, qui nous respecte le moins dans l’histoire ?"

Nous memes. Car sinon, on serait pas client.

avatar Malouin | 

@Bigdidou

« Cette firme nous étudie »…
- Tu as raison, Google c’est Google. Apple, c’est une « firme »…
- Personne ne t’oblige à acheter un accessoire de la Firme !?
Ok… Comme d’hab, t’as tout compris, et moi, je dois retourner à St Malo !

avatar Eyquem | 

C’est effectivement très inquiétant ! Sous couvert de « pédophilie », la porte est grande ouverte à toutes les dérives de surveillance…

avatar raoolito | 

@Eyquem

ou ai-je lu deja qu'un enfant sur 10 a vécu ou vivra un attouchement ou assimilé dans son enfance?
C'est quoi ? un refouloir pour ceux qui critiquaient les mesures de restriction sanitaires ?
On ne peut plus vivre à 7, 9 dans 20 ans et 12 milliards dans 80 ans avec un stricte respect de la vie privée de chacun, respect que n'a jamais existé et n'existera jamais.
On croirait qu'on parle ici d'une vingtaines de personnes qui veulent garder leurs secrets. nous sommes une plage composée de milliards de grains de sable et vous voudriez qu'on aille trouver le bon grain de sable par magie. La surveillance massive et politique est quasi certaine pour une simple raison démographique. On a vu combien n'importe qui peut decider de tuer au couteau un passant, se balader au milieu d'une foule avec la tuberculose et le covid en meme temps, tripoter le zizi du gamin du cousin ou simplement vider son huile de moteur tranquillement dans un etang.

on ne peut plus se permettre cela. La société de demain sera totalement fliquée, et tant pis pour ceux qui n'aiment pas cela de toutes façons ce sera indolore et transparent. Ce n'est pas le bonheur du tout, mais il n'y a pas de flics chez les fourmis car elles suivent toutes le chemin du groupe. pas nous

avatar pocketjpaul | 

@raoolito

Ho ben tiens. J'espère qu'on te ressortira ce pavé quand un gouvernement d'un pays prohibant l'homosexualité contraindra Apple à rechercher des photos de couples homosexuels et à pinger les autorités. Ça ou des photos de manifestations. Ou que sais-je encore.

Mais bien sûr Apple ne cède pas aux dictatures. Oh wait, si.

avatar Tomtomrider | 

@pocketjpaul

Exactement. Ou alors un truc rétroactif. Ce qui est permis aujourd’hui ne le sera peut-être plus demain et un gouvernement totalitaire (même dans nos pays on ne sait pas ce qu’il sera dans 20 ou 30 ans) pourrait demander à Apple de ressortir tout ce qui touche à ceci ou cela. Et vous voilà délinquant en 2040 parce que vous avez pris telle ou telle photos en 2020.

avatar occam | 

@raoolito

« La société de demain sera totalement fliquée, et tant pis pour ceux qui n'aiment pas cela de toutes façons ce sera indolore et transparent. ...il n'y a pas de flics chez les fourmis car elles suivent toutes le chemin du groupe. pas nous »

Deux questions :
1. Qui, dans un état de droit, est habilité à pratiquer le flicage ?
À mon sens, pas une entreprise privée au comportement monopoliste et aux tendances absolutistes.

2. Si vous pensez sérieusement que la différence fondamentale entre fourmis et humains est celle que vous décrivez — les fourmis suivant toutes le chemin du groupe, alors que les humains, non — j'aimerais vous demander si vous êtes familiarisé avec les travaux de E.O. Wilson, biologiste émérite de Harvard qui travaille sur les fourmis depuis plus de 65 ans.
Si vous ne connaissez pas E.O. Wilson, deux lectures s'imposent :
Le classique The Ants, de 1990, l'ouvrage de référence en la matière, qui a eu la distinction unique de recevoir un prix Pulitzer pour son caractère accessible. Ainsi que son dernier ouvrage, de 2019, Genesis: The Deep Origin of Societies, un aperçu de l'état actuel de la sociobiologie qu'il a contribué à fonder.
Une lecture même accélérée de ce dernier devrait vous montrer que les différences entre nous et les fourmis (il y en a 15000 espèces, pardon de généraliser un peu) sont bien plus graduelles que vous ne semblez le croire. Et que nous avons tout intérêt à préserver la mince couche d'autonomie individuelle qui nous différencie d'elles. Simplement, parce que notre évolution à nous ne nous a pas équipés à fonctionner dans une société à ce point fliquée, et qu'il y a de la casse massive chaque fois que nous nous mettons à faire des choses auxquelles l'évolution ne nous a pas adaptés.

Quant au flicage que vous espérez « indolore et transparent », famous last words.

avatar MarcMame | 

@raoolito

"On ne peut plus vivre à 7, 9 dans 20 ans et 12 milliards dans 80 ans avec un stricte respect de la vie privée de chacun, respect que n'a jamais existé et n'existera jamais."

———
Cette phrase n’a absolument aucun sens pour moi. AUCUN. RIEN.
Et j’espère pas que pour moi...

avatar David Finder | 

@MarcMame

Non, je te rassure

avatar pixelmaniac | 

@MarcMame
La formulation n'est pas claire, il parle de milliards d'habitants et de surpopulation.
12 milliards dans 80 ans j'aimerais bien voir ça!
C'est évidemment sans compter sur une régulation "naturelle" de notre population... si on arrive vraiment à 12Mds, faudra retenter le truc de sauter tous d'un côté pour quitter l'orbite solaire :)

avatar anton96 | 

@raoolito

Je ne vois pas l’interêt de l’argument démographique.
Des sociétés et des mégapoles peuplées de gens anonymes ça existe depuis des millénaires.

avatar kinon | 

@anton96

Oui mais la différence est celle que nous constatons aujourd'hui dans nos pays démocratiques.
L’apparition de groupes qui refusent toute contrainte, même les plus justifiées, même celles que tout le monde acceptait auparavant pour le bien commun.
Donc l'individualisme exacerbé.
Et des groupes de pression minoritaires LGBTQ /Woke par exemple qui cherchent à imposer leurs normes . Toute argumentation contraire n'est simplement pas tolérée et amène immédiatement à l'intimidation et à l'exclusion sans discussion possible, un totalitarisme intolérable.
Ne pas le voir c'est être aveugle.

avatar anton96 | 

@kinon

J’ai du mal à voir en quoi la çà justifie les nouvelles mesures d’Apple.

avatar Bigdidou | 

@kinon

« Et des groupes de pression minoritaires LGBTQ /Woke par exemple qui cherchent à imposer leurs normes . « 

Revendiquer ke droit d’exister, c’est imposer ses normes ?

Les groupes LGBTQ, des groupes normatifs ?

A quoi sert le « in » dans ton pseudo ?

avatar Lemon19 | 

@raoolito

Je pense que vous avez totalement raison. Que cela plaise ou non j’ai du mal à croire qu’on gérera les 11 milliards d’humains sur terre sur la base de beaux principes démocratiques. Il faut d’ailleurs avouer que la « beauté » du système fait qu’en Occident on continue de se croire libre parce qu’on vote pour qui l’on veut et que l’on peut pratiquement dire tout et n’importe quoi sans risque, alors qu’en réalité le contrôle accru est en marche par l’intermédiaire des grandes (et petites) sociétés spécialisées dans les technologies de l’information. Vu le niveau d’addiction que nous avons avec nos devices, je n’imagine pas les gens couper leur accès internet parce qu’ils seront de plus en plus surveillés.

avatar Malouin | 

@Eyquem

Ben oui… C’est à chaque fois la même chose. Toutes les garanties de confidentialités sont offertes mais… Non ! On ne croit plus le discours officiel.
On y préfère le complot sans preuve ni autres allégations que… « de toutes manières ils font ce qu’ils veulent. Nous sommes tous flickés… »

avatar Rapsodan2 | 

Je suis à fond pour la surveillance de tout ce qui a trait à la surveillance de la pédopornographie, mais je suis entièrement d’accord que la voie choisie par Apple prouve que la confidentialité des données n’est qu’un argument marketing.

S’ils sont capable de scanner les photos sur tous les iPhones, cela signifie que les abus et les sujets de surveillance seront infinis dans le futur. J’imagine que cela passera ensuite au terrorisme, meurtres, viols, ce qui sur papier est aussi très bien. Mais ensuite ce sera quoi???

Sur quelle base légale et selon la législation de quel pays on surveillera? Les États-Unis??? Non merci…

Apple met donc une backdoor et nous n’aurons aucun moyen de savoir ce qu’ils en font. A ma connaissance aucun gouvernement démocratique n’a fait une surveillance systématique comme cela.

Très très très inquiétant et j’avoue que cela me fait me questionner sur ma volonté d’acheter d’autres produits Apple dans le futur…

avatar pocketjpaul | 

> Je suis à fond pour la surveillance de tout ce qui a trait à la surveillance de la pédopornographie
> J’imagine que cela passera ensuite au terrorisme, meurtres, viols, ce qui sur papier est aussi très bien.

Mais pas du tout. Absolument aucun de ces motifs n'est moralement acceptable. Là on parle quand même de l'équivalent numérique d'une personne (allez, disons un robot) bossant pour IKEA, qui viendrait chez toi scanner les albums photo que tu as posé sur ton étagère BILLY, histoire de vérifier que t'as pas des quéquettes d'enfant dedans, puis repartirai sans rien dire. Et au passage appeler les flics si il a cru voir quelque chose. Et cette personne ou ce robot revient à chaque fois que tu ajoutes une photo.

C'est très grave et inacceptable. Si ils n'annulent pas ça, je change de crémerie.

avatar raoolito | 

@pocketjpaul

non ios et macos scannent deja vos photos pour les visages, les documents etc..
demandez à photo' actes de naissances" et vous recevrez tout un tas de doc photos ou il a reconnu le texte.
ici il y aura un algo en plus sur les photos de mineurs et trop de contact conduiront à l'emission d'un message aux autorités competentes.
qui verifieront si c'est un leurre ou un vrai truc

avatar pocketjpaul | 

@raoolito

A ce que je sache, Apple ne reçoit pas un petit ping quand je scanne une facture ou un visage. Ça se passe sur mon appareil, ça reste sur mon appareil, et ça répond à mon besoin.

Ici cela ne répond à aucun de MES besoins sur MON appareil. Et il est hors de question qu'un employé de chez Apple vérifie qu'une photo de mon fils dans son bain ou le cul à l'air dans le jardin "ne serait pas des fois une image à caractère pédopornographique".

avatar cybercooll | 

@pocketjpaul

Je crois que vous n’avez pas compris.
Ou c’est moi qui n’ai pas compris. Ta photo ne sera analysée que si présente dans une base de données pedophile. Ce qui n’arrive que si tu diffuses la photo de ton fils sur des canaux pedophiles. Ce que tu ne fais probablement pas. Donc tu n’as rien à craindre, personne ne regardera tes photos.

avatar bibi81 | 

Ce qui n’arrive que si tu diffuses la photo de ton fils sur des canaux pedophiles.

Ou que quelqu'un la diffuse pour toi à ton insu...

avatar anton96 | 

@bibi81

Oui, il faut pas oublier que message, Facebook messenger, WhatsApp et airdrop peuvent en fonction de leur configuration enregistrer automatiquement les photos sur la pellicule.

Il ne manque plus que des images désignées exprès pour matcher l’identification alors qu’elles ne ressemblent pas et là bonne chance.

En machine learning on peut avoir des photos avec des petits pixel parasites qui empêchent la détection. Je ne sais pas ce que ça donnera pour les neural hash mais on sait jamais.

avatar Bigdidou | 

@anton96

« Il ne manque plus que des images désignées exprès pour matcher l’identification alors qu’elles ne ressemblent pas et là bonne chance. »

Complètement.
C’est un jeu dangereux, et il est devenu classique de piéger les gens à coup de pédophilie.

avatar David Finder | 

@cybercooll

Ça, c’est le discours officiel. Un peu comme, il y a encore 1 semaine, « tout ce qui est sur votre iPhone reste sur votre iPhone »…
Qui sait vraiment ce qui se fait en interne ??? Personne ! La preuve avec cette nouvelle « feature ».

On peut appeler cela comme on veut, cela reste de la surveillance de masse ! Parce que TOUTES les photos de TOUS les iPhone actifs dans le monde seront vérifiées, par un algorithme à la con qui confond des oignons avec un cul ou des seins, pour vérifier si, par hasard, vous n’auriez pas des photos à caractère pédopornographique (drôle d’ailleurs, le correcteur d’iOS ne reconnaît pas le mot « pédopornographie », ça commence mal…).

Tous les utilisateurs sont donc présumés coupables avant vérifications d’Apple, madame Liberté, qui décidera d’appeler les forces de l’ordre ou pas !

Ce n’est pas du fliquage de masse ??? Je ne veux pas vivre dans Minority Report moi. Que j’ai des choses à me reprocher ou pas.

La cause est juste, et le mot est encore faible. Mais où cela va s’arrêter ??? Et je suis employé Apple…

avatar MarcMame | 

@cybercooll

"Ta photo ne sera analysée que si présente dans une base de données pedophile."

Pour pouvoir comparer une photo avec une base de données, il faut analyser la photo.
TOUTES les photos.

Quand Apple me propose d’analyser, de recevoir et de traiter mon comportement sur MON téléphone, je dis NON.
Quand Apple propose d’utiliser quoique ce soit sur moi, mon téléphone ou n’importe quoi je réponds toujours NON.
Est-ce que je pourrais dire NON dans ce cas ?
Je n’en ai pas l’impression.
Et ça c’est une première chez le fruit.

avatar cybercooll | 

@MarcMame

Toutes tes photos sont déjà analysées, il n’y a rien de nouveau de ce côté

avatar MarcMame | 

@cybercooll

"Toutes tes photos sont déjà analysées, il n’y a rien de nouveau de ce côté"
——-
Par mon téléphone et parce que je l’ai accepté ou PAS !
Et surtout, rien n’en sort. RIEN.
Alors, si, c’est tout à fait nouveau ou alors je n’ai rien compris.
Explique moi.

avatar Nico_Belgium | 

@MarcMame

Et ce sera pareil:

Rien ne sortira.

La photo sera analysée sur ton téléphone, hachée par les algorithmes d’Apple pour sortir un code unique.

Et si, et seulement si, ce code unique matche avec le même code unique génère à l’aide d’une base de donnée de photos illégales avec le même algorithme, le code sera envoyé à Apple (sachant que cette base de code unique sera également présente en locale dans le téléphone). Et au bout de X matchs ils font une vérification manuelle et préviennent les autorités au besoin.

Donc cela reste pareil: rien ne sort si tu n’as rien à te reprocher.

avatar MarcMame | 

@Nico_Belgium

"Rien ne sortira. "

Tu n’as aucune conscience de ce qui est en train de se dérouler sous tes yeux.
C’est affligeant

avatar Paquito06 | 

@MarcMame

"Est-ce que je pourrais dire NON dans ce cas ?
Je n’en ai pas l’impression. "

Tu peux dire non au Cloud, tout simplement.

avatar MarcMame | 

@Paquito06

"Tu peux dire non au Cloud, tout simplement."

C’est ce que je fais figure toi mais jusqu’à quand ce sera possible ?

avatar Paquito06 | 

@MarcMame

""Tu peux dire non au Cloud, tout simplement."

C’est ce que je fais figure toi mais jusqu’à quand ce sera possible ?"

Si tu n’as pas de Cloud, tu n’es pas exposé au scan et a la comparaison du resultat. Faudrait que soit Apple t’oblige a utiliser iCloud (elle est pas mal celle la, mais c’est l’hypothese la plus probable), soit qu’Apple scan ton telephone, ne passe pas par iCloud car c’est desactivé, mais trouve un autre moyen pour comparer tes photos avec la database, du coup ca va a l’encontre de ce qu’Apple a toujours proné et prone encore: ce qui se passe sur ton telephone reste sur ton telephone.
Parce qu’on est d’accord, meme avec cette nouvelle fonctionnalite, il n’y a rien qui sort de ton iPhone pour aller chez le voisin. Apple ne fait juste que comparer deux clefs de chiffrement, une recuperee sur iCloud (qui a ete creee sur ton telephone puis uploadee sur iCloud) avec une autre, d’une database publique. Et si y a un match, tu peux potentiellement attirer l’attention. Parce que ca fait parti de l’outil de detection et de l’indice de confiance statistique de 99%, si y a un match Apple va pas s’affoler, voire 2 ou 3, maintenant si t’as 50 photos differentes qui correspondent a 50 photos illegales, y a clairement un souci.

Pages

CONNEXION UTILISATEUR