Apple veut proposer la fonction de floutage des photos sexuellement explicites de Messages aux applications tierces

Félix Cattafesta |

Au mois d'avril, Apple a déployé une nouvelle fonction de floutage des photos sexuellement explicites dans plusieurs pays. Celle-ci permet d'anticiper les cas de harcèlement ou les tentatives d'extorsion de selfies dénudés de mineurs en floutant les photos et en affichant des panneaux de prévention. À l'avenir, Cupertino prévoit d'étendre sa technologie au-delà de Messages et de l'intégrer à ses autres applications de communication. Elle souhaite aussi la proposer aux développeurs tiers.

Dans un communiqué envoyé à Wired, Apple explique plancher sur la capacité de détecter la nudité dans les vidéos partagées via Messages. Comme pour les photos, cette fonction ne sera active que pour les mineurs et devra être activée dans le cadre d'un partage familial.

Sur le long terme, l'objectif d'Apple est de permettre aux développeurs tiers d'intégrer cette technologie dans leurs propres apps. Cupertino explique que la popularisation de ces outils permet de limiter la mise en ligne de nouveaux contenus pédopornographiques :

Une potentielle exploitation des enfants peut être interrompue avant qu'elle ne se produise en fournissant aux parents des outils opt-in pour les aider à protéger leurs enfants des communications dangereuses. Apple s'engage à développer des solutions innovantes de préservation de la vie privée pour lutter contre le CSAM (Child Sexual Abuse Material) et protéger les enfants, tout en répondant aux besoins uniques de confidentialité des communications personnelles et du stockage des données.

L'entreprise a précisé ne pas s'avancer pour l'instant sur une date de sortie pour ces deux nouveautés. Hier soir, elle a également annoncé avoir abandonné l'idée de détecter les images pédopornographiques contenues dans les bibliothèques de photos sur ses appareils. La mesure avait fortement inquiété les experts en sécurité et défenseurs des libertés lors de son annonce, poussant Cupertino à faire machine arrière.

avatar MGA | 

Cette fonction axée sur la pédagogie est une excellente idée. La proposer à tous les acteurs est une très bonne chose.

avatar BigBisous | 

Et les photos violentes genre décapitation... nen c'est pas... ha bon...

avatar Biking Dutch Man | 

@BigBisous

J’avais exactement la même remarque!

avatar marc_os | 

Je déteste ces messages d'apps qui tutoient l'utilisateur et cette pratique hypocrite d'ailleurs dans son ensemble.
1. On n'a pas gardé les cochons ensemble.
2. Ils nous prennent pour des gamins.
A moins que ces messages s'adressent aux enfants.
Et même là encore, je regrette la disparition de cette pratique, d'un autre temps certes, où les enseignants vouvoyaient leurs élèves.
Au final il s'agit d'une question de respect.

avatar Sloan | 

Comme quoi, il faut bien lire l'article avant de commenter :
"selfies dénudés de mineurs en floutant les photos et en affichant des panneaux de prévention", "Comme pour les photos, cette fonction ne sera active que pour les mineurs et devra être activée dans le cadre d'un partage familial.".

C'est pour les enfants

avatar marc_os | 

@ Sloan

Comme quoi, il faut bien lire les commentaires avant de commenter* :
« A moins que ces messages s'adressent aux enfants.
Et même là encore, je regrette la disparition de cette pratique, d'un autre temps certes, où les enseignants vouvoyaient leurs élèves. »

(*) Même si mon "à moins que" était superflu.

avatar Olivier_D | 

@marc_os

On s’en fiche pas mal des mœurs. Le fait est que c’est plus impactant pour un ado quand le tutoiement est utilisé, respect ou non. C’est même d’ailleurs bi-directionnel, et la raison pour laquelle certains enseignants acceptaient même de se faire tutoyer par leurs élèves.

avatar MGA | 

@marc_os

Vous avez raison sur la forme, cette fausse proximité est horripilante (malheureusement totalement généralisée) mais sur le fond la fonction reste intéressante et pédagogique sans être trop intrusive.

avatar Eric L | 

En tant que papa de deux jeunes filles je trouve cette fonction vraiment très intéressante. Ceux (sous entendu les adultes) qui n’en voudraient pas n’auraient qu’à la désactiver.

avatar r e m y | 

Les adultes ne sont pas concernés :
"...cette fonction ne sera active que pour les mineurs et devra être activée dans le cadre d'un partage familial."

avatar marc_os | 

@ r e m y

> Les adultes ne sont pas concernés

1. La méthode de détection de l'âge de l'utilisateur d'un iPhone est-elle 100 % fiable ?
2. Quid des enfants utilisant le téléphone appartenant à un adulte, à l'un de ses parents par exemple ?

avatar r e m y | 

Là, pas de floutage, tout comme il ´n'y en a pas pour un enfant qui utiliserait un iPhone sans que ce soit sous contrôle d'un "partage familial".

La méthode de détection de l'âge est simple... c'est l'adulte référent du "partage familial" qui décide d'activer ce floutage sur ceux du partage familial pour lesquels il considère que c'est nécessaire.

avatar Olivier_D | 

@r e m y

Ce qui ne fait pas trop de sens. J’imagine qu’il y a du machine learning derrière, pour détecter la nudité. Ils pourraient très bien élargir ça pour en plus détecter que la personne est mineure si le plan est suffisamment large. (Même si l’option de contrôle parentale resterait un « fallback » pour le coup).

avatar Paquito06 | 

“Dans un communiqué envoyé à Wired, Apple explique plancher sur la capacité de détecter la nudité dans les vidéos partagées via Messages.”

On peut opter pour se faire scanner son iPhone sans qu’Apple ne soit au courant. C’est ce qui est dit.

avatar Nesus | 

Si ça arrête la pudibonderie à deux balles du pays qui produit le plus de porno et le plus hard qui soit, cela serait une bonne chose.

avatar snowflo | 

Question idiote : quand tu pars avec l'idée d'envoyer des nudes de toi meme, est-ce qu'un message automatique va te dissuader ? Comme le fameux "avez-vous 18 ans" sur les sites de culture.

CONNEXION UTILISATEUR