Protection de l'enfance : la fonction de floutage des photos sexuellement explicites dans Messages apparait dans iOS 15.2 🆕

Mickaël Bazoge |

Apple pourrait introduire dans iOS 15.2 un des mécanismes de protection de l'enfance annoncés cet été : le code de la première bêta contient des références à Communication Safety, qui floute les images licencieuses partagées dans Messages et prévient les enfants et les parents que des photos sexuellement sans équivoque ont été envoyées ou reçues.

C'est une fonction destinée aux utilisateurs d'iPhone, d'iPad ou de Mac de moins de 17 ans inscrits dans le partage familial d'iOS. Le traitement est réalisé en local, sur l'appareil donc. Les images sont certes transférées sur les serveurs d'Apple, mais comme pour le reste des conversations, elles sont chiffrées de bout en bout et le constructeur ne peut pas les lire. C'est donc l'appareil qui analyse les images, détermine si elles sont à connotation sexuelle, et les masque au besoin.

Par ailleurs, l'envoi de notifications aux parents est automatique lorsque l'enfant est âgé de 12 ans et moins. Pour les enfants de 13 à 17 ans, il n'y aura pas de notification. Selon les découvertes de Steve Moser relayées par MacRumors, iOS 15.2 contient des messages d'alerte en lien avec cette fonction : « Préviens un adulte en qui tu as confiance », « Ce n'est pas ta faute mais les photos explicites peuvent faire du mal », « Partager des photos de nus de personnes de moins de 18 ans peut avoir des conséquences légales »…

Ce système de floutage et de notification a fait polémique cet été lors de son annonce, mais moins que l'autre mesure qu'Apple voulait mettre en place en parallèle : un mécanisme de vérification des photos à caractère pédopornographique (CSAM pour Child Sexual Abuse Material) sur les terminaux, accompagné d'un traitement supplémentaire sur les serveurs d'Apple le cas échéant. Cette dernière mesure a provoqué un tel tollé que le constructeur en a repoussé la mise en œuvre.

L

L'été où l'iPhone est devenu une passoire de sécurité qui vous flique

On verra comment évolueront les travaux pour cette fonction de Messages, qui ne devrait être lancée qu'aux États-Unis. Et peut-être que cela donnera l'occasion à Apple de communiquer sur la détection CSAM qui elle, est toujours dans les limbes.

Mise à jour — Apple a prévenu que Communication Safety ne sera pas implémenté dans iOS 15.2, du moins pas de cette manière.


avatar esclandre77 | 

Je me souviens d'une scène où une fille de 10 ans montrait à des garçons de 8-9 ans des choses qui semblaient être 'hard'.

En y repensant, je me dis que c'est certainement une bonne chose qu'on est atteint une ère où la techno permette de mettre en place des mécanismes, des automatisations pouvant éviter ce genre de dérapage.

Face à des parents démissionnaires de leur responsabilités fondamentales ou tout simplement dénués de bon sens, user d'une certaine 'contrainte' peut être vu comme une des dernières cartouches à utiliser.

avatar Xap | 

@esclandre77

Parce que la gamine dans ton histoire, elle envoyait ces photos par iMessage peut être?

En suivant ton raisonnement, on devrait tout mettre en œuvre pour protéger les enfants de ces risques.

Ça veut donc dire un contrôle total de tous les téléphones, de toutes les apps, de toutes les communications de tout le monde dans tous les pays.

Et pourquoi s’arrêter aux photos aussi? Les prédateurs pédophiles passent aussi par des messageries ou par email, ou par des forums. On devrait également contrôler tout ça.

Sans oublier de contrôler aussi les mouvements par GPS. On pourrais par exemple s’assurer que des gens ne rodent pas près des écoles si ils n’ont rien a y faire.

Et donc ce serait une IA qui s’y collerait? Et pourquoi pas les entreprises privées et les gouvernements aussi? Ça serait bien plus efficace!

Bon maintenant qu’on s’est attaqué à la pornographie infantile, pourquoi s’arrêter en si bon chemin? Le terrorisme, tu trouves pas que c’est un problème qui mériterai qu’on s’y intéresse également? Y’a beaucoup a faire et je suis sur qu’Apple a plein d’idées sur la question. N’oublions pas d’inclure tous les gouvernements de la planète dans les discussions parce qu’on risque de passer a coté d’idées formidables.

D’ailleurs, en voyant ce dont est capable Apple, beaucoup de gouvernements doivent avoir les yeux qui brillent actuellement.

Après la pédophilie et le terrorisme, ils doivent également avoir 2 ou 3 autres crimes odieux nécessitant de toute urgence une intervention de la technologie.

Quel monde merveilleux. Il me tarde que ça arrive vite pour que ma fille et tous les enfants de ce monde soient en toute sécurité!!

avatar Terragon | 

Je trouve certains commentaires un peu exagérés. Si j’avais des enfants je serais ravis de la mise en place de ce type de fonction et j’en voudrais même plus. C’est ensuite à chaque parent de décider s’ils veulent ou non activer ce genre de fonction. Les gens depuis la pandémie ne font que voir des complots partout… 🙄😑

avatar Xap | 

@Terragon

Des complots? 🤦🏻‍♂️

L’utilisation de la menace terroriste par les agences gouvernementales américaines afin de justifier une surveillance de masse en dehors de tout cadre légal c’est une théorie du complot peut être?

La surveillance généralisée de la Chine et de bien d’autres régimes “populaires” sur leurs citoyens, c’est des théories du complot?

Le monde orwellien de la collecte de données de Facebook, Google & co, c’est une théorie du complot? La façon dont les bulles d’information crées par ces entreprises sont le principal terreau des extrémismes en tout genre (ex: Antivax, attaque du Capitole), c’est des théories du complot?

avatar Terragon | 

@Xap

Ne me fait pas dire ce que je n’ai pas dit…

Ceci dit, tu es libre de penser ce que tu veux! 😉

avatar cecile_aelita | 

@Terragon

+1

avatar pat3 | 

@esclandre77

"Face à des parents démissionnaires de leur responsabilités fondamentales ou tout simplement dénués de bon sens, user d'une certaine 'contrainte' peut être vu comme une des dernières cartouches à utiliser. "

Toujours bon d’accuser les parents. Si tu as un gamin au collège, regarde ce qui circule sur son téléphone, tu vas voir, c’est pas piqué dès vers. Je connais plusieurs parents d’ados tombés du placard. Plusieurs jeunes adultes passés par des épisodes anorexiques, dépressifs (assortis de prises d’anxiolytiques et d’anti-dépresseurs)… Le monde a changé, tu n’imagines pas comme, et les gamins doivent faire face à des sollicitations continues et malsaines.
Tout outil permettant la prévention, l’alerte et la discussion est bienvenue.

avatar cecile_aelita | 

@pat3

Tout à fait 😊!
Un outil n’est qu’un outil… c’est la façon de s’en servir qui détermine si c’est une bonne ou une mauvaise chose … et il y aura toujours des gens pour s’en servir correctement comme pour mal s’en servir … mais est ce une raison pour arrêter de faire ce genre d’outil (j’aurais tendance à dire que non 😘😊).
Un marteau c’est un super outil pour enfoncer des clous… je ne pense pas qu’on ait trouvé mieux (vu que ça n’a pas trop évolué depuis l’Antiquité …) pourtant on peut aussi se servir de ce marteau pour tuer quelqu’un en lui explosant sur le crâne … est ce que pour autant il faut interdire l’usage du marteau sous crainte que certains puissent s’en servir comme ça?😘😋😊

avatar pierre10005 | 

@esclandre77

Je suis absolument à 100% d’accord avec vous, on a tous quasiment la possibilité d’avoir des enfants mais beaucoup ne sont pas capable de s’en occuper correctement et ce genre de système permet de bloquer un peu

avatar frankm | 

@esclandre77

Oh la petite q… elle a jouée à touche pipi. En taule

avatar cherbourg | 

@esclandre77

“Aux parents démissionnaires”…
Et vous suggérez quoi comme type de méthode éducative pour éviter que les enfants soient exposés à des images de nu (à part les juger et les culpabiliser bien entendu) ?

avatar Levrai | 

Apple inside! Vive les ia qui viennent fouiner dans votre téléphone...

avatar R-APPLE-R | 

@Levrai

Ça dépend des quelles j’aurais pas confiance en Google par exemple, et puis Apple à dis que ça ne se passe que sur le téléphone et pas sur des serveurs donc je comprends que partiellement la polémique 🧐

avatar Insomnia | 

@R-APPLE-R

Serveur ou téléphone, Apple n’a pas a fouiner c’est pas plus compliqué. Même si c’est louable.

avatar ArchiArchibald | 

Apple n’a pas à se substitue à la justice, même si l’intention est bonne, évidemment.
De la même façon, les tribunaux médiatiques des réseaux sociaux sont symptomatiques d’une société civile qui n’arrive plus à s’assumer.

avatar jmy2905 | 

Suffit de ne pas utiliser Message pour envoyer du contenu olé si j’ai bien compris. Non ?

avatar ArchiArchibald | 

@jmy2905

Tu utilises quoi du coup ?

avatar Eyquem | 

@ArchiArchibald

Telegram, signal, whatsapp, treema, messenger, viber,… ce ne sont pas les messageries qui manquent !

avatar Sgt. Pepper | 

@Eyquem

A condition, en tant que parent, d’autoriser ces Apps, ce qui évidemment n’est pas compatible avec cette fonction…

Le but ici est de proposer un outil de plus aux parents pour permettre un environnement restreint et plus «protégé » à son jeune enfant…

avatar clementp | 

@jmy2905

Dans le cadre du partage familial iCloud et avec Temps d’Ecran activé, on peut contrôler quelles apps sont installées sur le téléphone ou l’iPad de ses enfants, et toute installation d’une nouvelle app doit être approuvée par un parent. Donc le téléphone de son enfant peut n’avoir aucune autre application de messagerie que Messages. D’ailleurs cette fonction n’est prévue que pour cet usage, qui ne doit représenter qu’un assez faible pourcentage des iPhones/iPads actifs.

avatar Amaczing | 

Ptain vous faites peur dès le matin 😱

Faut sérieusement arrêter la drogue les gars. Occupez-vous de l’éducation de vos enfants déjà avant de leur mettre un smartphone entre les mains.

@RomainB84 est excusé 😃

avatar cecile_aelita | 

@Amaczing

Pourquoi ? 🤣😋😘

PS : est excuséE ^^

avatar Amaczing | 

@romainB84

Oui je viens de remarquer ma faute 🙂 merci

avatar cecile_aelita | 

@Amaczing

Pourquoi je suis excusée moi? 😋😋😘

avatar Amaczing | 

@romainB84

T’as un cerveau différent 🤣

avatar cecile_aelita | 

@Amaczing

Ça sent le truc pas très gentil 😅, mais bon, c’est pas grave, t’as le droit de le penser 😘😊!!
On ne peut pas plaire à tout le monde comme on dit 😘!
Vu que je ne te connais pas, je ne porterai aucun jugement sur toi 😊😋😉

avatar Amaczing | 

@romainB84

Au contraire c un compliment 🙂

avatar cecile_aelita | 

@Amaczing

Ah bah merci alors 😛

avatar cecile_aelita | 

@Amaczing

Un cerveau différent et une paire de seins, ça aide à se faire excuser des choses du coup 😋🤣😘😘 lol

avatar Amaczing | 

@romainB84

Ah bon t’as des seins toi ? Tant mieux 🙂 des hommes en ont aussi tu sais ;) pas de sexisme ici 🙃

avatar cecile_aelita | 

@Amaczing

« Ah bon t’as des seins toi ? »

Pas beaucoup je te l’accorde 🤣🤣😋😋!!

Bref on s’éloigne un peu de la news quand même 😘😉

avatar JLG01 | 

Le retour d’Ici Paris.
Hilarant.

avatar DarKOrange | 

Une solution radicale : ne pas acheter de smartphone aux enfants en dessous de 15 ans

avatar cecile_aelita | 

@DarKOrange

Autant ne pas acheter d’enfant, c’est encore plus simple 😋😋

avatar dlat | 

@DarKOrange

Ok pour le téléphone mais c’est plus difficile pour les tablettes qui peuvent servir pour l’école.

avatar Glop0606 | 

Alors si j'ai bien compris, c'est destiné aux enfants pour les protéger de contenus pas adaptés à leur âge. En tant que parent, et tant qu'Apple reste "transparent" dans sa façon de gérer la chose, je trouve ça intéressant. Ne jetez pas trop facilement la pierre sur les parents, les enfants d'aujourd'hui ne peuvent pas être complétement écartés des nouvelles technologies qui feront partit intégrante de leur vie sociale et économique. Personnellement j'utilise tous les outils qu'Apple met à ma disposition pour avoir un semblant de contrôle et je pense bien m'en tirer mais je vois tellement de parents qui sont totalement dépassés car ce n'est pas leur sujet (bien que ça devrait l'être). Donc si Apple les aide "automatiquement", c'est un mal pour un bien.

avatar Bigdidou | 

« Protection de l'enfance : la fonction de floutage des photos sexuellement explicites »

Après le floutage de gueule, Apple se met au floutage de zgeg.
Logique, et je vois pas le problème.

CONNEXION UTILISATEUR