Lutte contre la pédophilie : l'analyse des photos pourrait être réalisée directement sur l'iPhone 🆕

Mickaël Bazoge |

Mise à jour 22h — Apple a officialisé les nouveaux mécanismes de sécurité pour lutter contre la pédopornographie en ligne. C'est à lire ici.


Apple n'a encore rien confirmé, mais selon le chercheur en sécurité Matthew Green et le Financial Times qui a fait parler plusieurs sources, le constructeur s'apprête à mettre en place un système de détection d'images pédopornographiques à même les iPhone vendus aux États-Unis. Le système, baptisé neuralMatch, aurait été présenté cette semaine par Apple à plusieurs universitaires, mais une communication publique serait prévue rapidement.

Le principe est le suivant : lorsque l'algorithme détecte une image litigieuse, il prévient une équipe d'examinateurs chez Apple chargés de vérifier la nature de la photo, et de contacter les autorités le cas échéant. Seuls les États-Unis seraient concernés, au moins dans un premier temps. Apple utilise déjà une technologie de correspondance d'images pour dépister des cas d'abus sexuels sur les enfants, mais celle-ci analyse les photos stockées sur iCloud. neuralMatch examinera les images directement sur l'iPhone.

Selon Matthew Green, l'iPhone va télécharger une base de données contenant les signatures électroniques de contenus pédopornographiques. Ces signatures sont ensuite mises en correspondance avec les photos du smartphone converties en une suite de chiffres via du hashing. Une approche décentralisée qui s'appuie sur algorithme entraîné depuis la base de données du National Center for Missing and Exploited Children (NCMEC). Celle-ci sert aussi à l'analyse iCloud. À terme, l'examen des photos stockées dans le nuage se basera aussi sur neuralMatch.

Pour l'analyse sur iCloud, Apple utilise actuellement PhotoDNA, mis au point par Microsoft et mis à disposition du NCMEC.

Le FT explique qu'Apple a voulu trouver un équilibre entre la protection de la vie privée de ses utilisateurs et les demandes répétées des autorités et des organisations de défense de la jeunesse qui veulent que le constructeur en fasse davantage dans la lutte contre la pédophilie et le terrorisme. Bien que dans le cas qui nous occupe aujourd'hui, le terrorisme ne soit pas dans la boucle.

Si la technologie neuralMatch ne servira qu'à la détection d'images pédopornographiques, qui dit qu'elle ne pourra pas un jour partir à la recherche d'autres types de contenus ? Les opposants à un régime pourraient ainsi être visés par un système recherchant des documents anti-gouvernementaux… La crainte est que les États les moins sourcilleux sur la confidentialité mettent la pression sur Apple pour détourner neuralMatch de son objectif premier.

avatar AlexG | 

@Apero

Si j'ai bien compris le concept, ce qui est comparé automatiquement ici est le hash des photos par rapport aux photos reconnues comme étant pédophiles. Donc aucune analyse n'est faite dans ce cas précis.

avatar Apero | 

@AlexG

Oui c’est ça, mais une fois qu’il y a un match la photo est vérifié par des employés pour être sûr qu’elle soit sensible. Et je ne sais pas à quel point le hash est précis et donc quelle sera la fréquence d’erreur avec des faux positifs. En fait à partir du moment où quelqu’un peu avoir accès à tes photos (même si c’est sous conditions très grave) ça me fait un peu flipper, il y a beaucoup de dérives possibles

avatar AlexG | 

@Apero

Je suis d'accord, ce serait un précédent pouvant amener à des dérives 😔

avatar andr3 | 

Apple est juste un peu en avance sur l’Europe cette fois-ci —> réglementation sur l’obligation de ne plus pouvoir chiffrer les communications pour motif de pouvoir lutter contre les pédophiles et autres *istes.

avatar Bidule200 | 

Personne ne se demande avec quelle base de données ils ont entraîné le neural network pour identifier à coup sûr des photos pédophiles ? Il faut une sacré quantité de data.

avatar AlexG | 

@Bidule200

Si j'ai bien compris, ce n'est pas une reconnaissance d'image, mais une comparaison avec une base de données de photos déjà identifiées comme pédophiles. Ça reconnaît donc des images téléchargées (depuis le darkweb par exemple).

avatar purepix | 

Snapchat en sueur…

Trêve de plaisanterie,
Excellente initiative si c’est vraiment géré par de l’IA/ML… mais attention au poids de ce genre d’outils issues de boîtes privées vis à vis de la présomption d’innocence… dur de trancher même quand c’est pour la meilleure des intentions… oserais-je dire « le meilleur des mondes »

avatar Krocell | 

C’est cool ce moyen de checker les vilains coquins. Ça veut dire qu’un espion sera installé sur l’appareil…
Et le véritable problème vous savez c’est quoi ? Une chute brutale d’autonomie à chaque image reçue ou téléchargée (le spy va en pomper des 1 et des 0 pour savoir qui a quoi)

Pages

CONNEXION UTILISATEUR