Protection de l'enfance : le floutage des photos sexuellement explicites dans Messages étendu à des pays supplémentaires

Stéphane Moussie |

Apple va bientôt déployer sur iOS au Royaume-Uni, au Canada, en Nouvelle-Zélande et en Australie deux fonctionnalités de protection de l'enfance déjà disponibles aux États-Unis. Dans les familles où le partage familial est configuré, les parents pourront activer une analyse des photos reçues par leur enfant dans l'app Messages.

Si cette analyse réalisée en local détermine qu'il y a des photos sexuellement explicites, celles-ci seront automatiquement floutées et l'enfant sera prévenu que ces images risquent de heurter sa sensibilité et qu'il n'est pas obligé de les regarder. De la même manière, si c'est l'enfant qui envoie des photos de lui nu, un message lui demandera de réfléchir à deux fois avant de partager ce contenu sensible.

Contrairement à ce qu'Apple avait prévu en premier lieu pour les enfants de moins de 12 ans, si le pitchoune décide malgré tout de voir ou d'envoyer une photo à caractère sexuel, les parents ne recevront pas de notification les prévenant du message.

Avertissement quand l'enfant est sur le point de voir ou d'envoyer une photo à caractère sexuel. À gauche, la première version prévoyait d'envoyer automatiquement une notification aux parents. À droite, la version finale ne contient plus de notification pour les parents, mais elle incite l'enfant à contacter un adulte (« Message a Grown-Up »).

Tous les utilisateurs des quatre pays anglophones cités ci-dessus trouveront également plus d'informations sur la protection de l'enfance via Siri, Spotlight et le moteur de recherche de Safari.

Au Canada, le responsable du compte familial iCloud peut désormais activer le réglage Sécurité des communications > Rechercher des photos sensibles dans les options de Temps d'écran. Il est aussi possible de consulter les ressources liées à la sécurité des enfants, qui sont ici fournies par des associations canadiennes. À l'heure actuelle cependant, si l'option est bien visible, les photos dénudées ne sont pas encore floutées. La fiche d'assistance, pas encore traduite en français, est disponible à cette adresse.

La fonction de détection d'images pédopornographiques dans la bibliothèque iCloud des utilisateurs qui avait fait polémique est toujours reportée sine die.

Mise à jour : ajout de la Nouvelle-Zélande et de l'Australie à la liste des pays ayant les nouvelles fonctions.

avatar amonbophis | 

Est-ce que les enfants utilisent plus Messages ou Instagram WhatsApp ou Tik Tok?
La mesures prises par Apple peut aller dans le bon sens même si elle pose des questions Sur l’analyse des données.
Mais j’ai peur d’une mesure incomplète puisque cela ne touche qu’une petite partie des photos échangées. Il faudrait que les autres développeurs d’applications de messagerie s’y intéressent aussi.

avatar MGA | 

@amonbophis

« Instagram WhatsApp ou Tik Tok » ils se frotteront les mains et imessage sera moins utilisé par les plus jeunes. Finalement se sera peut-être contreproductif.

avatar shaba | 

@MGA

Aucune raison vu que les photos arrivent tout de même

avatar shaba | 

@amonbophis

Aux USA iMessage est la plateforme la plus utilisée par les jeunes.

avatar Adodane | 

@shaba

Oui oui 😂😂😂

avatar shaba | 

@Adodane

Qu’est-ce qu’il y a de drôle ?

avatar Sindanarie | 

@shaba

🤣🤣🤣

avatar _Lion04_ | 

L’incendie va repartir… 🔥🫣

avatar Xap | 

@_Lion04_

Non.

Cette mesure, bien qu’elle pose quelques questions sur la surveillance et la protection des données, n’est pas vraiment problématique.

C’est une option a activer par les parents. Rien à voir avec l’analyse des bibliothèques iCloud.

avatar Darkgam3rz | 

Enfin 🤨 ils sont aussi nombreux à utiliser iMessages pour des photos limites limites 🧐

avatar 0MiguelAnge0 | 

@Darkgam3rz

Parce que les gamins sont des idiots? Tu penses qu’ils vont pas trouver autre chose?!

La belle grosse naiveté.

avatar Darkgam3rz | 

@0MiguelAnge0

On se calme

Je demande juste s’il y a beaucoup d’enfants qui envoient des photos à poil.

Et de toutes façons, je ne confirais pas l’éducation de mes gamins à  ou autre 🤷🏻‍♂️

avatar Krysten2001 | 

@Darkgam3rz

Personne n’a parlé de confier son enfant à Apple 🤔

avatar Sindanarie | 

@Krysten2001

Surtout quand t’as vu la gueule du patron, qui ressemble à un méchant de dessin animé 😈

avatar Seb_37 | 

Je savais pas que le Canada était un pays anglophone… faut que je révise le référendum de 1995… on a gagné ⚜️!? Blague à part notre pays est officiellement bilingue français-anglais 😆

avatar lion.mar | 

@Seb_37

Il est quand même en grande majorité anglophone. Du coup ça ne choquera personne si on le considère comme un pays anglophone.

avatar Seb_37 | 

@lion.mar

Tu as raison personne ne sera choqué sauf les 8.5 millions de québécois et le 1.5 millions de Canadien francophone (25% de la pop) qui luttent au quotidien depuis 350 ans pour préserver leurs langues et leurs droits à s’exprimer en français qui est simplement bafoué au quotidien par la majorité anglophone alors que la loi est sensée nous donner la parfaite égalité entre les 2 langues… bref une broutille ;)

avatar raoolito | 

evidement que les plateformes sont multipleS. Mais au moins sur celle-ci il y aura des protections. Et puis si on veut on peut bloquer whatsapp and co sur un device iOs il me semble.
La question est ailleurs. Techniquement à partir de 16 ans il me semble, j'aurais tendance à lâcher la bride sur le coup. On peut conseille,r orienter, mais ce sont des presque adultes.
Avant c'est une toute autre histoire.

avatar Paquito06 | 

C’est pour bloquer des mecs comme Roman dans Succession 😅

avatar pagaupa | 

Apple nous fera bientôt aller à la messe...
Apple le sauveur de l’humanité ! 😂

avatar Sindanarie | 

@pagaupa

Il a bien une gueule de curé le crook, ça devrait marcher 😈

CONNEXION UTILISATEUR