Lutte contre la pédophilie : l'analyse des photos pourrait être réalisée directement sur l'iPhone 🆕
Mise à jour 22h — Apple a officialisé les nouveaux mécanismes de sécurité pour lutter contre la pédopornographie en ligne. C'est à lire ici.
Apple n'a encore rien confirmé, mais selon le chercheur en sécurité Matthew Green et le Financial Times qui a fait parler plusieurs sources, le constructeur s'apprête à mettre en place un système de détection d'images pédopornographiques à même les iPhone vendus aux États-Unis. Le système, baptisé neuralMatch, aurait été présenté cette semaine par Apple à plusieurs universitaires, mais une communication publique serait prévue rapidement.
Le principe est le suivant : lorsque l'algorithme détecte une image litigieuse, il prévient une équipe d'examinateurs chez Apple chargés de vérifier la nature de la photo, et de contacter les autorités le cas échéant. Seuls les États-Unis seraient concernés, au moins dans un premier temps. Apple utilise déjà une technologie de correspondance d'images pour dépister des cas d'abus sexuels sur les enfants, mais celle-ci analyse les photos stockées sur iCloud. neuralMatch examinera les images directement sur l'iPhone.
Selon Matthew Green, l'iPhone va télécharger une base de données contenant les signatures électroniques de contenus pédopornographiques. Ces signatures sont ensuite mises en correspondance avec les photos du smartphone converties en une suite de chiffres via du hashing. Une approche décentralisée qui s'appuie sur algorithme entraîné depuis la base de données du National Center for Missing and Exploited Children (NCMEC). Celle-ci sert aussi à l'analyse iCloud. À terme, l'examen des photos stockées dans le nuage se basera aussi sur neuralMatch.
Le FT explique qu'Apple a voulu trouver un équilibre entre la protection de la vie privée de ses utilisateurs et les demandes répétées des autorités et des organisations de défense de la jeunesse qui veulent que le constructeur en fasse davantage dans la lutte contre la pédophilie et le terrorisme. Bien que dans le cas qui nous occupe aujourd'hui, le terrorisme ne soit pas dans la boucle.
Si la technologie neuralMatch ne servira qu'à la détection d'images pédopornographiques, qui dit qu'elle ne pourra pas un jour partir à la recherche d'autres types de contenus ? Les opposants à un régime pourraient ainsi être visés par un système recherchant des documents anti-gouvernementaux… La crainte est que les États les moins sourcilleux sur la confidentialité mettent la pression sur Apple pour détourner neuralMatch de son objectif premier.
Vague d’achat de smartphones Android à venir ?
@IceWizard
Ils sont si puritain, que le dictionnaire de l’iPhone fait comme s’il ne connaissait pas le mot pédophilie (pas de prédiction).
En tout cas, en cas de faux positif ca va faire mal…
Et puis quoi encore ? Il n’ont aucun droit de faire ce qu’ils veulent sur MON téléphone. Apple prend la grosse tête.
@pilipe
"quoi encore ? Il n’ont aucun droit de faire ce qu’ils veulent sur MON téléphone. Apple prend la grosse tête."
Apple fait ce qu’il veut avec tes fesses. L’iPhone est un cheval de Troie pour mieux te pénétrer.
@Amaczing
« L’iPhone est un cheval de Troie pour mieux te pénétrer. »
Rien ne vaut un bon vieux gode. 😂
@pagaupa
Mini
Normal
Pro
Pro Max
Le choix est là …
😇
@pagaupa
"Rien ne vaut un bon vieux gode. 😂"
Parole de spécialiste 😈 ?
@pagaupa
"« L’iPhone est un cheval de Troie pour mieux te pénétrer. »
Rien ne vaut un bon vieux gode. 😂"
@pilipe semble être connaisseur. Moi c’est pas mon truc. Mais à ce qu’on entend « un bon vieux gode » ça débouche le @pilipe oui.
Que fait Google avec Android a ce niveau?
??? Comment ils vont détecter si une copine est consentante et envoie une photo à 18 ans alors qu’elle a une baby face?
@Ralph_
Si j’ai bien compris, c’est une correspondance par rapport à la signature d’une base de données, donc des documents déjà connus des forces de l’ordre ?
@xfrown13
J’ai compris la même chose et je plussoie l’initiative 👌
Il ne s'agit pas uniquement de chercher des photos déjà connues, sinon il n'y aurait pas besoin d'entraîner un algorithme depuis la base de données du National Center for Missing and Exploited Children (NCMEC).
Cet algorithme va devoir rechercher dans les photos analysées des éléments semblables aux photos de cette base de données. L'"entraînement" de l'algorithme visant justement à ce qu'il deviennne de plus en plus performant à identifier d'AUTRES photos que celles de la base de données .
@Ralph_
Ah merde 🤣!
Ma femme a une tête de gamine (comme elle aime le dire elle même^^), avant de voir débarquer la police à la maison, je vais peut être changer de smartphone 🤣🤣
@romainB84
Change de femme, l’iPhone est précieux 😬
@Sindanárië
Life is question of priority 😅😅
@Ralph_
Le retour en grâce du minou velu en perspective 🤔
@xDave
Comme c'est mignon 😹
@xDave
Pas besoin d’attendre 18 ans pour l’avoir 🤣
@Ralph_
Dans le cas de la pedophilie, la loi est desormais claire: le consentement n'existe pas.
@raoolito
La loi est claire : + de 18 ans ce n’est pas pedophile
@Ralph_
oui mais dans ce cas c'est totalement hors sujet ici
Inquiétant quand même cette histoire 😅
Le 1er avril commence tôt cette année.
Je fais comment avec les photos de mon gamin à la plage ou dans sa baignoire ?
@davidtuga
J’imagine que des photos de pédophilie sont toutes autres que celle d’un enfant prenant son bain. Malheureusement…
@Stéf06
Tu ne peux pas savoir ce dont quoi ont besoin certains pervers ont besoin pour leur imagination 🤷🏻♂️.
C’est bien ça le soucis.
@Ralph_
Aha… un spécialiste!
On va commencer par enquêter sur toi ! C’est louche cette façon de montrer des pervers… une façon de faire détourner le regard sur d’autres 😈😬
@Sindanárië
Voir réponse plus bas
@Sindanárië
Au delà de la pedophilie, quand tu chopes un mec en train de prendre en photo le c** de ta copine dans une galerie commerciale, tu te rends compte qu’il y a des gars vraiment mais vraiment pas nets sur cette planète…
@Ralph_
Il y en a qui couvre le cul de leur copine (eux)
😁
@DG33
Elle était habillée normalement, mais le mec a pris la photo… sous la menace d’aller plus loin et de peter son téléphone il a supprimé…
@davidtuga
Relis l’article
@davidtuga
Les photos sont "comparées" à une base de données de photos déjà identifiées comme contenu pédophile.
Pas tout à fait. L'algorithme est "entraîné" à partir d'une base de données de photos pedophiles pour savoir identifier de autres photos similaires.
S'il s'agissait uniquement d'identifier des photos connues, pas besoin d'algorithme complexe. Tous les softs de gestion de photothèque savent depuis des années identifier des doublons.
J'ignorais qu'Apple analysait déjà les photos sur iCloud...
@r e m y
« J'ignorais qu'Apple analysait déjà les photos sur iCloud »
Ah bon ? MacG a fait un article sur le sujet il y a quelques mois.
@IceWizard
+1
@r e m y
Oui bien sûr qu’il le font. Justement contre la lutte contre la pedo pornographie
Qu'est-ce qui prouve que cette analyse n'est faite que dans ce seul but?
@r e m y
Qu’est qui prouve qu’elle ne l’est pas ?
Et puis ensuite le microphone analysera les sons, mais pas d’inquiétude, ce sera fait en local, et contactera les autorités en cas de propos déviant, comme un soutien à Trump, un pronom offensant une personne non binaire ou une comparaison de Macron à un dictateur.
Heureusement qu’Apple veille à l’ordre !
@Amnesiak
deja le ca,s il suffit d'active rla fonction. Elle marche moyennement: P
@Amnesiak
Dans tous anti Covid, c’est déjà plein de petits macrons qui espionnent par tous les ports 😈😈😈
Inquiétant… !
C’est affligeant les commentaires ici
A moins d’avoir 200 photos de gamins différents nus sur votre téléphone y’a pas de problème. Le jour où ça sera sur VOTRE gamin qu’un mec se tripotera après l’avoir pris en photo à l’école, a la plage ou à la piscine sans que vous le voyez faire vous serez bien content qu’il existe des preuves pour qu’il soit inculpé.
Faut sortir de vos frottes pleine de rêve les gens, ça parle de choses illégales.
C’est affligeant les commentaires ici
A moins d’avoir 200 (comptes bancaire/films pirates/livres interdits/...) différents sur votre téléphone y’a pas de problème. Le jour où ça sera sur VOTRE (comptes bancaire/films pirates/livres interdits/...)sans que vous le voyez faire vous serez bien content qu’il existe des preuves pour qu’il soit inculpé.
Faut sortir de vos frottes pleine de rêve les gens, ça parle de choses illégales.
@lmouillart
Tellement
@Bounty23
Tellement vrai. Les mêmes doivent s plaindre qu’on les pousse à la vaccination.
@bazino
Alors plus besoin de mandat pour entrer chez toi, que les flics viennent quand ils veulent venir vérifier chez toi qu’il n’y a rien d’illégal non ?
Pages