Messageries : l'équivalent européen de la CNIL critique à son tour le plan de l’UE contre la pédopornographie

Félix Cattafesta |

L'équivalent européen de la CNIL n'est pas vraiment partant quant au projet d'instaurer une obligation de détection de photos pédopornographiques dans les messageries. Cette idée mise sur la table par la Commission européenne au mois de mai inquiète les défenseurs des libertés individuelles, craignant que le projet nuise aux citoyens innocents.

Image : Apple.

Le Comité Européen de la Protection des Données (EDPB) a publié un communiqué dans lequel elle explicite sa position, qui est partagée par le Contrôleur Européen de la Protection des Données (EDPS). Si les deux organismes s'accordent sur le fait que le combat contre la diffusion de contenus pédopornographiques soit des plus important, ils estiment que « les limitations aux droits à la vie privée et à la protection des données doivent toutefois respecter l'essence de ces droits fondamentaux ». Elles doivent donc rester limitées à ce qui est strictement nécessaire et proportionné.

Or, le projet de la Commission européenne brasse large. S'il venait à passer, les gestionnaires de messageries seraient obligés d'instaurer un moyen d'analyser les conversations afin de détecter des contenus pédopornographiques. Une nouvelle agence européenne dédiée à la protection de l'enfance en ligne serait établie pour l'occasion, servant d'intermédiaire entre les autorités nationales et les éditeurs de messageries. Les scans ne seraient ni constants, ni pour tout le monde et auraient lieu uniquement quand une autorité judiciaire en donne l'ordre.

Protection de l'enfance : Bruxelles prévoit d'imposer la détection de photos pédopornographiques dans les messageries

En l'état, l'EDPB et l'EDPS considèrent que le projet apporte plus de risques pour les individus que pour les criminels, et déplorent le manque de clarté du texte. Les organismes demandent donc à ce que les conditions d'émission d'une ordonnance de scan soient davantage définies.

Ils s'inquiètent du fait que le projet ne garantit pas dans sa forme actuelle « que seule une approche ciblée de la détection de contenus pédopornographiques aura effectivement lieu ». Plus globalement, ils craignent que la proposition ne devienne la base d'un « scan généralisé et sans discernement » du contenu de pratiquement tous les types de messageries.

L'EDPB et l'EDPS rappellent l'importance du chiffrement de bout en bout, qui risque d'être mis à mal par ce projet. Ils reviennent également sur le fait que les IA ne sont pas infaillibles, argumentant que l'utilisation de ces technologies est susceptible « de générer des erreurs et représente un niveau élevé d'intrusion dans la vie privée des individus ».

Les deux organismes ne sont pas les seuls à s'inquiéter de telles dérives. L'Electronic Frontier Foundation y voit un « système de surveillance massive » en puissance, tandis que le professeur en cryptographie Matthew Green qualifie le projet « de document le plus terrifiant [qu'il ait] jamais vu ». De son côté, Apple a commencé à activer sa fonction de floutage des photos sexuellement explicites dans Messages sur la 4e bêta d'iOS 16. En revanche, l'entreprise a mis au placard son idée de scan des bibliothèques Photos d'iOS et iPadOS.

Accédez aux commentaires de l'article