Lutte contre la pédophilie : l'analyse des photos pourrait être réalisée directement sur l'iPhone 🆕

Mickaël Bazoge |

Mise à jour 22h — Apple a officialisé les nouveaux mécanismes de sécurité pour lutter contre la pédopornographie en ligne. C'est à lire ici.


Apple n'a encore rien confirmé, mais selon le chercheur en sécurité Matthew Green et le Financial Times qui a fait parler plusieurs sources, le constructeur s'apprête à mettre en place un système de détection d'images pédopornographiques à même les iPhone vendus aux États-Unis. Le système, baptisé neuralMatch, aurait été présenté cette semaine par Apple à plusieurs universitaires, mais une communication publique serait prévue rapidement.

Le principe est le suivant : lorsque l'algorithme détecte une image litigieuse, il prévient une équipe d'examinateurs chez Apple chargés de vérifier la nature de la photo, et de contacter les autorités le cas échéant. Seuls les États-Unis seraient concernés, au moins dans un premier temps. Apple utilise déjà une technologie de correspondance d'images pour dépister des cas d'abus sexuels sur les enfants, mais celle-ci analyse les photos stockées sur iCloud. neuralMatch examinera les images directement sur l'iPhone.

Selon Matthew Green, l'iPhone va télécharger une base de données contenant les signatures électroniques de contenus pédopornographiques. Ces signatures sont ensuite mises en correspondance avec les photos du smartphone converties en une suite de chiffres via du hashing. Une approche décentralisée qui s'appuie sur algorithme entraîné depuis la base de données du National Center for Missing and Exploited Children (NCMEC). Celle-ci sert aussi à l'analyse iCloud. À terme, l'examen des photos stockées dans le nuage se basera aussi sur neuralMatch.

Pour l'analyse sur iCloud, Apple utilise actuellement PhotoDNA, mis au point par Microsoft et mis à disposition du NCMEC.

Le FT explique qu'Apple a voulu trouver un équilibre entre la protection de la vie privée de ses utilisateurs et les demandes répétées des autorités et des organisations de défense de la jeunesse qui veulent que le constructeur en fasse davantage dans la lutte contre la pédophilie et le terrorisme. Bien que dans le cas qui nous occupe aujourd'hui, le terrorisme ne soit pas dans la boucle.

Si la technologie neuralMatch ne servira qu'à la détection d'images pédopornographiques, qui dit qu'elle ne pourra pas un jour partir à la recherche d'autres types de contenus ? Les opposants à un régime pourraient ainsi être visés par un système recherchant des documents anti-gouvernementaux… La crainte est que les États les moins sourcilleux sur la confidentialité mettent la pression sur Apple pour détourner neuralMatch de son objectif premier.


avatar IceWizard | 

Vague d’achat de smartphones Android à venir ?

avatar frankm | 

@IceWizard

Ils sont si puritain, que le dictionnaire de l’iPhone fait comme s’il ne connaissait pas le mot pédophilie (pas de prédiction).
En tout cas, en cas de faux positif ca va faire mal…

avatar pilipe | 

Et puis quoi encore ? Il n’ont aucun droit de faire ce qu’ils veulent sur MON téléphone. Apple prend la grosse tête.

avatar Amaczing | 

@pilipe

"quoi encore ? Il n’ont aucun droit de faire ce qu’ils veulent sur MON téléphone. Apple prend la grosse tête."

Apple fait ce qu’il veut avec tes fesses. L’iPhone est un cheval de Troie pour mieux te pénétrer.

avatar pagaupa | 

@Amaczing

« L’iPhone est un cheval de Troie pour mieux te pénétrer. »
Rien ne vaut un bon vieux gode. 😂

avatar andr3 | 

@pagaupa

Mini
Normal
Pro
Pro Max

Le choix est là …

😇

avatar Sindanárië | 

@pagaupa

"Rien ne vaut un bon vieux gode. 😂"

Parole de spécialiste 😈 ?

avatar Amaczing | 

@pagaupa

"« L’iPhone est un cheval de Troie pour mieux te pénétrer. »
Rien ne vaut un bon vieux gode. 😂"

@pilipe semble être connaisseur. Moi c’est pas mon truc. Mais à ce qu’on entend « un bon vieux gode » ça débouche le @pilipe oui.

avatar Paquito06 | 

Que fait Google avec Android a ce niveau?

avatar Ralph_ | 

??? Comment ils vont détecter si une copine est consentante et envoie une photo à 18 ans alors qu’elle a une baby face?

avatar xfrown13 | 

@Ralph_

Si j’ai bien compris, c’est une correspondance par rapport à la signature d’une base de données, donc des documents déjà connus des forces de l’ordre ?

avatar DrStax | 

@xfrown13

J’ai compris la même chose et je plussoie l’initiative 👌

avatar r e m y | 

Il ne s'agit pas uniquement de chercher des photos déjà connues, sinon il n'y aurait pas besoin d'entraîner un algorithme depuis la base de données du National Center for Missing and Exploited Children (NCMEC).
Cet algorithme va devoir rechercher dans les photos analysées des éléments semblables aux photos de cette base de données. L'"entraînement" de l'algorithme visant justement à ce qu'il deviennne de plus en plus performant à identifier d'AUTRES photos que celles de la base de données .

avatar cecile_aelita | 

@Ralph_

Ah merde 🤣!
Ma femme a une tête de gamine (comme elle aime le dire elle même^^), avant de voir débarquer la police à la maison, je vais peut être changer de smartphone 🤣🤣

avatar Sindanárië | 

@romainB84

Change de femme, l’iPhone est précieux 😬

avatar cecile_aelita | 

@Sindanárië

Life is question of priority 😅😅

avatar xDave | 

@Ralph_

Le retour en grâce du minou velu en perspective 🤔

avatar Lightman | 

@xDave

Comme c'est mignon 😹

avatar Ralph_ | 

@xDave

Pas besoin d’attendre 18 ans pour l’avoir 🤣

avatar raoolito | 

@Ralph_

Dans le cas de la pedophilie, la loi est desormais claire: le consentement n'existe pas.

avatar Ralph_ | 

@raoolito

La loi est claire : + de 18 ans ce n’est pas pedophile

avatar raoolito | 

@Ralph_

oui mais dans ce cas c'est totalement hors sujet ici

avatar daye4 | 

Inquiétant quand même cette histoire 😅

avatar Chris K | 

Le 1er avril commence tôt cette année.

avatar davidtuga | 

Je fais comment avec les photos de mon gamin à la plage ou dans sa baignoire ?

avatar Stéf06 | 

@davidtuga

J’imagine que des photos de pédophilie sont toutes autres que celle d’un enfant prenant son bain. Malheureusement…

avatar Ralph_ | 

@Stéf06

Tu ne peux pas savoir ce dont quoi ont besoin certains pervers ont besoin pour leur imagination 🤷🏻‍♂️.

C’est bien ça le soucis.

avatar Sindanárië | 

@Ralph_

Aha… un spécialiste!
On va commencer par enquêter sur toi ! C’est louche cette façon de montrer des pervers… une façon de faire détourner le regard sur d’autres 😈😬

avatar Ralph_ | 

@Sindanárië

Voir réponse plus bas

avatar Ralph_ | 

@Sindanárië

Au delà de la pedophilie, quand tu chopes un mec en train de prendre en photo le c** de ta copine dans une galerie commerciale, tu te rends compte qu’il y a des gars vraiment mais vraiment pas nets sur cette planète…

avatar DG33 | 

@Ralph_

Il y en a qui couvre le cul de leur copine (eux)
😁

avatar Ralph_ | 

@DG33

Elle était habillée normalement, mais le mec a pris la photo… sous la menace d’aller plus loin et de peter son téléphone il a supprimé…

avatar nicolaspatate | 

@davidtuga

Relis l’article

avatar AlexG | 

@davidtuga

Les photos sont "comparées" à une base de données de photos déjà identifiées comme contenu pédophile.

avatar r e m y | 

Pas tout à fait. L'algorithme est "entraîné" à partir d'une base de données de photos pedophiles pour savoir identifier de autres photos similaires.

S'il s'agissait uniquement d'identifier des photos connues, pas besoin d'algorithme complexe. Tous les softs de gestion de photothèque savent depuis des années identifier des doublons.

avatar r e m y | 

J'ignorais qu'Apple analysait déjà les photos sur iCloud...

avatar IceWizard | 

@r e m y

« J'ignorais qu'Apple analysait déjà les photos sur iCloud »

Ah bon ? MacG a fait un article sur le sujet il y a quelques mois.

avatar raoolito | 

@IceWizard

+1

avatar oboulot | 

@r e m y

Oui bien sûr qu’il le font. Justement contre la lutte contre la pedo pornographie

avatar r e m y | 

Qu'est-ce qui prouve que cette analyse n'est faite que dans ce seul but?

avatar jo2s | 

@r e m y

Qu’est qui prouve qu’elle ne l’est pas ?

avatar Amnesiak | 

Et puis ensuite le microphone analysera les sons, mais pas d’inquiétude, ce sera fait en local, et contactera les autorités en cas de propos déviant, comme un soutien à Trump, un pronom offensant une personne non binaire ou une comparaison de Macron à un dictateur.
Heureusement qu’Apple veille à l’ordre !

avatar raoolito | 

@Amnesiak

deja le ca,s il suffit d'active rla fonction. Elle marche moyennement: P

avatar Sindanárië | 

@Amnesiak

Dans tous anti Covid, c’est déjà plein de petits macrons qui espionnent par tous les ports 😈😈😈

avatar Eyquem | 

Inquiétant… !

avatar Bounty23 | 

C’est affligeant les commentaires ici

A moins d’avoir 200 photos de gamins différents nus sur votre téléphone y’a pas de problème. Le jour où ça sera sur VOTRE gamin qu’un mec se tripotera après l’avoir pris en photo à l’école, a la plage ou à la piscine sans que vous le voyez faire vous serez bien content qu’il existe des preuves pour qu’il soit inculpé.

Faut sortir de vos frottes pleine de rêve les gens, ça parle de choses illégales.

avatar lmouillart | 

C’est affligeant les commentaires ici

A moins d’avoir 200 (comptes bancaire/films pirates/livres interdits/...) différents sur votre téléphone y’a pas de problème. Le jour où ça sera sur VOTRE (comptes bancaire/films pirates/livres interdits/...)sans que vous le voyez faire vous serez bien content qu’il existe des preuves pour qu’il soit inculpé.

Faut sortir de vos frottes pleine de rêve les gens, ça parle de choses illégales.

avatar Angusalex | 

@lmouillart

Tellement

avatar bazino | 

@Bounty23

Tellement vrai. Les mêmes doivent s plaindre qu’on les pousse à la vaccination.

avatar pilipe | 

@bazino

Alors plus besoin de mandat pour entrer chez toi, que les flics viennent quand ils veulent venir vérifier chez toi qu’il n’y a rien d’illégal non ?

Pages

CONNEXION UTILISATEUR