90 associations internationales demandent l'abandon du système d'analyse de photos d'Apple
Un nouveau front hostile à la méthode choisie par Apple dans la lutte contre la pédopornographie s'est ouvert. 91 associations civiles de plusieurs continents demandent à Tim Cook d'abandonner ce projet dans sa forme actuelle.
Les signataires, réunis sous la bannière du Center for Democracy & Technology, réclament urgemment à Apple de remiser ce système de détection de photographies pédophiles. Il sera intégré à iOS cet automne, d'abord aux États-Unis, et il fonctionnera automatiquement dès lors qu'on a activé iCloud Photos.
Si l'intention est louable reconnaissent ces associations qui œuvrent pour la défense de différents droits, la méthode choisie risque d'ouvrir la porte à une surveillance beaucoup plus large et néfaste :
Nous sommes inquiets d'une utilisation qui censurerait la liberté d'expression, menacerait la vie privée et la sécurité de personnes à travers le monde et qui aurait des conséquences désastreuses pour de nombreux enfants.
Apple s'est défendue de proposer un système qui puisse être appliqué à la recherche d'autres types d'images que celles pour lesquelles il a été conçu. Des garde-fous techniques ont été prévus. Elle a également assuré qu'elle s'opposerait à toute demande de subversion de son mécanisme qui ne fonctionne qu'avec une base de référence d'images bien particulières.
Allemagne : des journalistes et des politiques inquiets du système d'analyse de photos d'Apple 🆕
Mais qu'en sera-t-il si la requête des autorités ou d'un gouvernement s'inscrit dans la loi, demandent ces associations. Apple ayant pour habitude de répondre qu'elle se conforme strictement aux lois des pays où elle est implantée, quelle sera alors sa ligne rouge ? C'est une éventualité sur laquelle la Pomme est restée muette :
Une fois que cette capacité est intégrée dans les produits Apple, l'entreprise et ses concurrents devront affronter une énorme pression — et potentiellement des exigences légales — des gouvernements du monde entier pour numériser des photos non seulement pour le CSAM [la base de référence des images de pédophiles, ndr], mais aussi pour d'autres images qu'un gouvernement juge inacceptables.
Apple l'assure, les gouvernements ne pourront pas abuser du nouveau mécanisme de lutte contre la pédopornographie
Ces exigences pourraient aller jusqu'au scan permanent des photos stockées sur l'iPhone et pas uniquement si la fonction de synchronisation iCloud Photos a été activée (le système est inopérant si cette fonction n'est pas utilisée ou lorsqu'on se contente d'une sauvegarde iCloud simple de ses photos).
En intégrant cette faculté d'analyse dans son système mobile, Apple ouvre potentiellement une boite de Pandore redoutent les signataires.
Le floutage dans Messages inquiète aussi
L'autre pan du projet d'Apple, relatif à la détection de photographies sexuellement explicites reçues dans Messages, n'échappe pas à la critique de ces associations qui en réclament pareillement le retrait.
Dans Messages, après activation de la future fonction depuis les réglages du partage familial, les photos reçues ou envoyées sur l'appareil iOS d'un enfant enregistré au sein d'un partage familial sont analysées en local et floutées en cas de présence d'éléments considérés comme explicites par l'algorithme.
Les parents seront prévenus par une notification de la présence de cette photo dans une conversation sur l'appareil de leur enfant. Cette alerte vaut uniquement pour les enfants de moins de 12 ans (c'est une option à activer) ; il n'y aura pas de notification pour les enfants de 13 à 17 ans.
Lutte contre la pédopornographie : Apple tente d'éteindre l'incendie avec une FAQ 🆕
Là aussi les conséquences pourraient être négatives, expliquent les associations. Il y a d'abord chez elles une méfiance vis-à-vis de la fiabilité de ce type d'algorithmes qui pourrait mélanger des images répréhensibles avec des visuels éducatifs, des œuvres d'art, des informations de santé ou d'autres contenus parfaitement innocents.
Au-delà de ça, elles considèrent que le fait pour les parents d'être automatiquement prévenus pourrait faire plus de mal que de bien dans certains cas de figure. Apple part du principe que le(s) parent(s) et l'enfant ont une relation saine et basée sur la tolérance, ce qui est évidemment loin d'être systématique :
Un adulte violent peut être l'administrateur du compte, et les conséquences de la notification parentale pourraient menacer la sécurité et le bien-être de l'enfant. Les jeunes LGBTQ+ enregistrés sur des comptes familiaux avec des parents abusifs se retrouvent particulièrement à risque.
Non seulement la garantie de confidentialité des échanges n'existe plus mais là-encore des gouvernements pourraient vouloir qu'Apple aménage son système pour leurs besoins de surveillance.
Les signataires de cette lettre réclament le retrait de ces deux fonctions des projets d'Apple et l'invitent à consulter davantage les organisations et communautés en première ligne sur ces sujets.
Ces 91 associations viennent d'horizons géographiques aussi variés que le Brésil et l'Inde (deux pays où WhatsApp par exemple, très populaire, ferraille régulièrement face aux autorités pour préserver son droit au chiffrage de bout en bout). Certaines sont du Royaume-Uni, d'Allemagne, du Canada, des États-Unis, du Népal, d'Afrique, d'Australie, du Pakistan, du Pérou, de Belgique, du Japon, du Mexique, etc. Un très large arc international qui ajoute sa voix aux inquiétudes à l'égard de cette initiative d'Apple.
Allemagne : des journalistes et des politiques inquiets du système d'analyse de photos d'Apple 🆕
Oui et ça se termine très mal !
@jt_69.V
Exact.
Après elle en a abusé aussi, elle la laisse jusqu’à ses 16ans je crois, et elle la traquait aussi
@aquoibon
Comme tout, qui nous dis que cette fonction ne sera pas abusé dans quelques temps ?
@pilipe
"Comme tout, qui nous dis que cette fonction ne sera pas abusé dans quelques temps ?"
Principe de base pragmatique : qu’apporterait de plus aux états une fonction de détection de signatures de fichiers parmi un corpus cible par rapport à l’arsenal de surveillance et de contrôle dont ils disposent déjà ?
Rien d’efficace et de sérieux.
Nous sommes dans le fantasme porté par une fixation symbolique, nullement face à un danger changeant potentiellement le paradigme.
@YetOneOtherGit
Pardon mais ça n’a aucun sens.
L’homme n’est par définition pas raisonnable. Et ce que propose Apple est bien loin de ce que tu évoques.
C’est le ver dans le fruit, même si les intentions sont louables par celles et ceux qui le promeuvent.
Je crois qu’il faut simplement avoir ça à l’esprit, plutôt que de tourner en rond.
@Spinaker
"C’est le ver dans le fruit"
Nullement cela ne change strictement rien à ces questions et c’est un épiphénomène au regard de la masse extrêmement conséquente de violations conséquente de la vie privée sur laquelle c’est bâtit la révolution du net.
Un point de fixation ridicule au regard des enjeux dont personne ne se préoccupe.
Le fait que la vie privée soit devenue le moteur de l’activité de géants tel Google et FB est infiniment plus problématique.
Quant aux potentiels détournements par des états, c’est une vaste plaisanterie : l’accès à un système de détection de la présence en local de fichiers ciblé appartenant à un corpus défini n’apporte strictement rien d’interessant à l’arsenal de contrôle et de surveillance déjà à la disposition des états.
Nous sommes sur une réaction symbolique viscérale à un gadget ne changeant nullement le paradigme et absolument véniel au regard de la situation actuelle sur ces enjeux.
@Spinaker
"Et ce que propose Apple est bien loin de ce que tu évoques. "
En quoi ?
@pilipe
Dans quel but ?
Moi ce que j’ai du mal à comprendre c’est pourquoi on nous ressort toujours les LGBTQ+, on parle d’enfants de 12 ans et moins d’une part, et en quoi les LGBTQ+ sont davantage inquiétés que les autres ? Un gamin de moins de 12 ans qui reçoit une Dick pic ou autre, son orientation sexuelle n’a rien à voir là dedans ?
@kantandane
Parce que potentiellement si un parent violent et homophobe découvre grâce à ce genre de système que son fils est gay, les conséquences peuvent être catastrophiques.
[Modéré. MB]
@morpheusz63
Les femens ?
@morpheusz63
Homophobe ?
Venant de certaines associations et de certains pays, c’est tres fort 😂😂😂 Ca ne concerne que les US d’une part, et les craintes reposent que sur de la peur, la peur qui n’est autre qu’un manque cruel de connaissances dans le domaine… 🤦🏼♂️
la peur de quoi ?
@marenostrum
"la peur de quoi ?"
D’apres l’article:
“Nous sommes inquiets d'une utilisation qui censurerait la liberté d'expression, menacerait la vie privée et la sécurité de personnes à travers le monde et qui aurait des conséquences désastreuses pour de nombreux enfants.”
Il y a peur ou inquietude lorsqu’il y a un manque de connaissances (cours de philosophie de 1ere…). Ces associations ne savent pas trop de quoi elles parlent, surtout pour la ramener depuis l’Asie. Quand t’as compris le fonctionnement du systeme d’analyse, y a aucune crainte, sauf du pays dans lequel tu vis, mais pour differentes raisons qui ne sont pas propre a Apple. Des consequences desastreuses pour de nombreux enfants? On demande des preuves, ou un meilleur systeme a proposer peut etre.
Bref, c’est assez risible 😅
morpheus l'a expliqué plus haut de manière plus claire.
@marenostrum
"morpheus l'a expliqué plus haut de manière plus claire. "
Et ca ne change rien a la fonctionnalite du systeme mis en place par Apple. Il y a bien une meconnaissance du sujet de la part de ces associations, donc.
c'est comme laisser une personne rentrer dans ton appartement et regarder partout, même si lui ne cherche voir que les balais. tu lui fais ou pas confiance ?
@marenostrum
"c'est comme laisser une personne rentrer dans ton appartement et regarder partout, même si lui ne cherche voir que les balais. tu lui fais ou pas confiance ?
"
On laisse entrer personne chez nous. On balance des photos sur un serveur qui ne nous appartient pas… On devrait te faire confiance tu veux dire?
t'es relié avec Apple tous les secondes. pas besoin faire plus. le cloud est juste permettre de dire que ça se passe chez eux le contrôle et pas chez vous. de le rendre légale en cas de procès. bref il suffit de couper le cloud pour ne pas être inquiété.
@marenostrum
"t'es relié avec Apple tous les secondes. pas besoin faire plus. le cloud est juste permettre de dire que ça se passe chez eux le contrôle et pas chez vous. de le rendre légale en cas de procès. bref il suffit de couper le cloud pour ne pas être inquiété. "
Absolument 👍🏼
Meme avec le Cloud je ne suis pas inquiete personnellement, il faudrait soit qu’Apple decide de faire n’importe quoi avec tes data de son plein gré (rien de mieux pour flinguer la boite a ce stade, et ils auraient pu faire ca depuis un moment sans implementer cette fonctionnalite et communiquer dessus…) soit qu’un gouvernement leur impose de faire qq chose qui va a l’encontre de leurs valeurs (ils ont deja planté le FBI plusieurs fois…), et là c’est pas d’Apple dont il faut avoir peur, mais encore une fois, du gouvernement en place (ca peut etre Apple ou Strawberry, c’est pas le souci). Du coup, a moins de pas avoir compris comment fonctionne le systeme d’analyse, y a pas de crainte particuliere a avoir pour un pays occidental où c’est implementé.
@Paquito06
Qui a y-il de risible à transformer l’Homme en algorithmes ?
@Spinaker
"Qui a y-il de risible à transformer l’Homme en algorithmes ?"
Ce n’est pas ce point, qui existe deja par ailleurs depuis un moment et ne va pas cesser d’aussitot.
Et puis, la raison du plus fort est tjrs la meilleure, au final. Apple met les formes. Si Apple avait voulu arriver au meme resultat, elle aurait pu faire, mais alors beaucoup, beaucoup plus simple.
Au nom de bonnes causes, nous sommes de plus en plus contrôlés et nous perdons progressivement nos libertés.
« son mécanisme qui ne fonctionne qu'avec une base de référence d'images bien particulières. »
Apple aurait-elle « nourrit » son IA avec des images pedopornographiques ?
Apple aurait-elle « nourrit » son IA avec des images pedopornographiques ?
Et oui !
Ce qui est surprenant, c'est cette action très importante ! Comme avait dit "cet idiot" de Trump parmi les pédophiles il y'a beaucoup de milliardaires, de boss, de banquiers, de vedettes, de politiques sans oublier ces chers islamistes
Je n'ai pas peur de parler sexe avec des personnes adultes et même avec certaines actrices
Aucun désir pour des enfants ou des ados
@Gilles Derval
« Ce qui est surprenant, c'est cette action très importante ! Comme avait dit "cet idiot" de Trump parmi les pédophiles il y'a beaucoup de milliardaires, de boss, de banquiers, de vedettes, de politiques »
C’est vrai. Et en plus ils sont tous démocrates, athées, amateurs de pizzas et militent politiquement contre Trump. Quel heureux hasard !
@IceWizard
Ah donc t’es capable d’avoir de l’humour. Intéressant.
@JOHN³
« Ah donc t’es capable d’avoir de l’humour. Intéressant. »
💆🏼♂️
@IceWizard
😘 bonne nuit
Nombre de commentaires démontrent soit une incapacité à lire au delà du titre, soit insuffisance lexicale limitant la compréhension des mots lus, soit l’abyssale bêtise de leurs auteurs (ceux des commentaires débiles)… et, plus inquiétant encore, leur écrasante majorité… face à tant d’ignorance et de paresse intellectuelle, il est manifestement clair que tout espoir est vain. Nous sommes foutus…
Le problème n’est évidemment pas de s’opposer à l’utilisation de la technologie pour empêcher des actes criminels, mais d’éviter que de telles technologies soient utilisées pour identifier et traquer d’autres cibles, comme des opposants aux pouvoirs en place et leurs entourages, des journalistes, des pratiquants de religions ou les non pratiquants (athées), des personnes aux caractères physiques particuliers (couleur de peau, taille, handicaps…) ou aux inclinaisons sexuelles exclues par le pouvoir (homosexualité), des objecteurs de consciences ou des lanceurs d’alerte… Bref, mal utilisé cet outil pourrait réaliser tous les rêves des protoHitler déjà au proches pouvoir dans des pays voisins du nôtre, voir proches de notre propre pouvoir, et ce dans le cadre de futurs projets éminemment inimaginables (tout comme nous croyons pas à la véracité des alertes des espions sur les plans nazis…).
La liberté relative que confère notre système démocratique n’est pas un état de fait naturel immuable chers amis. Nombreux sont ceux qui ont donné leur vie pour que nous puissions jouir du droit d’oublier leur sacrifice. Mais si vous pensez comme vous lisez, c’est à dire en mobilisant le moins de neurones possible, vous serez probablement de ceux qui voterons pour son abolition au profit d’une dictature maquillée en progrès, tellement plus sécurisante que cette fragile liberté pour laquelle il faudrait sans cesse se battre… pffff c’est trop compliqué, trop fatiguant! Et quand on viendra chercher votre fils athée, sa copine black et leur fils activiste pour les emprisonner ou les euthanasier, faudra pas venir couiner…
Avec un peu de chance, iGen de me censurera pas. N’est-il pas plus utile de diffuser un commentaire comme celui-ci que de valoriser l’abondant solvant cérébral habituel ?
y en a pas besoin de contrôler ses photos privées pour trouver un opposant politique. lui se déclare clairement, sinon, il s'appelle pas un opposant politique mais un agent secret.
et c'est qui a donné sa vie pour avoir ta liberté ?
@bigVince
+1000
Affligeant effectivement. Il n’y a qu’à lire le commentaire suivant…
Apple scan déjà la photothèque sur iCloud et les Pces jointe depuis plusieurs années. Elle met en place un système supplémentaire qui scan en local t’es photos, mais uniquement si la photothèque iCloud est activée. Ou est l’intérêt par rapports au scan sur iCloud??
Mais les boulons qui n’ont pas lu ou compris déblatèrent les meme inepties.
y a rien de difficile de comprendre ici ce que Apple va faire. c'est vous qui avez du mal faire la défense de la liberté. c'est ça le problème.
vous ne comprenez pas la base de la liberté. avoir un smartphone tu deviens dépendant dès le départ, c'est comme la drogue, pour ça qu'on le conseille pas aux enfants les smartphones et même la TV. pour ne pas dire que la liberté individuelle n'existe pas (t'as des ta naissance des parents, des enseignants, des chefs, etc), elle n'est qu'un idéal. que la liberté collective est possible dans une certaine mesure. et même la dernière devienne de plus en plus impossible dans nos sociétés actuelles.
@bigVince
J’abonde. Sur le point de me lancer dans la rédaction d’une interminable diatribe sur l’exaspérante propension de certains a occulter purement et simplement la raison de l’opposition - diatribe qui aurait sans nul doute fait lever les yeux au ciel à oomu, et dire que c’est sans espoir - je tombe avec étonnement et délectation sur la votre comportant juste ce qu’il faut de cynisme, de misanthropie, d’exaspération, mais aussi de pédagogie quand bien même celle-ci serait vouée à l’échec face a la dissonance cognitive des sus-cités certains, qui leur fait opposer à une crainte sociétale légitime, le même triptyque de sophismes: « si vous êtes contre, vous êtes pedophile » , « vous ne voulez pas protéger les enfants » , « le système, tel que décrit ne déclenche d’alertes qu’en cas de photos pédopornographiques ».
Je n’écrirai donc rien d’interminable, hormis la phrase précédente.
Et comme je ne met pas en doute la sincérité de certains qui ont « du mal à comprendre en quoi c’est mal de vouloir protéger des enfants et d’identifier des pedocriminels» je remettrai mon ouvrage sur le métier:
- Oui tout le monde a peu près* veut protéger les enfants et neutraliser les pedos.
- Oui, AUJOURD’HUI le système permet de cibler les photos pédoporno sans violer la vie privée des honnêtes gens.
- Oui, Apple semble vouloir refuser les demandes ILLÉGALES de violation de vie privée venant des agences gouvernementales.
MAIS…
- Il existe de regimes politiques autoritaires, voire dictatoriaux.
- Apple a pour obligation légale de respecter la loi du pays ou elle exerce son activité.
- Apple a déjà cédé a des régimes autoritaires (Chine par ex.) parce qu’elle n’avait pas le choix. La loi, c’est la loi.
- La démocratie n’est pas une chose acquise pour toujours
- Même sans sortir du suffrage universel, l’avènement d’un état
policier, d’un régime ultra autoritaire n’est pas impossible. Y compris chez nous.
- Une fois que l’on a rendu possible une chose, on ne peut plus prétendre que ça ne l’est pas.
DONC:
- Il suffirait qu’un pays modifie ses lois pour contraindre Apple d’utiliser son système de detection d’image pour d’autres cas de figure que la lutte contre les pédos: identification de journalistes, de dissidents, de lieux….
Si vous pensez que seuls les royaumes de Xi Jinping ou Vladimir Vladimirovitch Poutine peuvent héberger de tels derives, pensez aux écoutes de l’Elysée…
@f3nr1l
"Apple a pour obligation légale de respecter la loi du pays ou elle exerce son activité."
Mais j’imagine qu’Apple n’est pas obligée, ni par la loi ni par quoique ce soit d’ailleurs, de proposer ce système à tous les pays, comme ceux ne respectant pas les Droits de l’Homme, par exemple.
Une loi, j’imagine, ne peut pas obliger Apple à mettre en place un système de surveillance de masse dans leurs produits.
@David Finder :
« Mais j’imagine qu’Apple n’est pas obligée, ni par la loi ni par quoique ce soit d’ailleurs, de proposer ce système à tous les pays, comme ceux ne respectant pas les Droits de l’Homme, par exemple. »
L'approche choisie par Apple fait que le mécanisme de surveillance fonctionne en local, sur la totalité des iPhone faisant tourner iOS 15 (qui sera rapidement incontournable).
C'est justement ce qui inquiètent fortement les spécialistes en sécurité informatique et les défenseurs de la vie privée à travers le monde.
@webHAL1
« L'approche choisie par Apple fait que le mécanisme de surveillance fonctionne en local, sur la totalité des iPhone faisant tourner iOS 15 (qui sera rapidement incontournable). »
Pas tout à fait
Les fonctionnalités même si elles sont présentes sur l’OS seront activées en fonctions de ce que permettront les réglementations des pays.
La CNIL a un rôle primordial sur ce sujet.
Elle ne sera activée qu’aux US dans un 1er temps alors même qu’iOS15 sera mis à disposition partout.
Ta désinformation et manipulation habituelles
Bien, laissons la pédophilie en paix. De toute façon ces associations préfèrent que les enfants trinquent plutôt que voir leurs photos perso floutées. Au bout d’un moment faudrait peut être avancer une solution au lieu de pourrir toute initiative…
@Aardohan
Ce n’est qu’un prétexte la pédophilie voyons. Justement parce tout le monde sera d’accord.
Si on tente de prendre de la hauteur avec ce sujet, on prend peur. En effet, l'avenir pour les GAFAM c'est entre autres deux segments dimensionnants : l'espace et la mise en équation de la vie quotidienne. Sur cette dernière on peut rapprocher ça de l'IA. Or concernant ces deux segments Apple est en retard ou en tous cas, n'est pas en pointe. Déjà sur l'IA la pomme a probablement perdu la partie. En revanche sur la mise en équation du quotidien des gens, ou la transformation en algorithmes de l'espèce humaine, là, il y a une carte à jouer.
A ceci près que c'est assez délicat. Il faut avancer prudemment au risque de voir une lever de bouclier tout azimut. Et un excellent moyen, c'est de commencer par ce qui mettra tout le monde d'accord : oeuvrer pour la protection des plus faibles puis celle de tout le monde. Et qui oserait s'opposer à l'idée de protéger les enfants ? Personne.
Et c'est ainsi que l'on commence à transformer notre quotidien en algorithmes, drapés dans nos habits de super héros qui protègent la veuve et l'orphelin.
Mais ça c'est juste l'amorce. Après viendra tranquillement tout le reste. Et là, c'est sans limite. Et qui régulera ? La loi ? Le juge ? Le citoyen ?
@Spinaker
"Si on tente de prendre de la hauteur avec ce sujet, on prend peur. "
Si on prend de la hauteur on se rend compte que c’est un pet de lapin que cette histoire au regard de ce que peuvent déjà savoir de toi les état et pire encore les intérêts privés.
C’est l’incroyable sous-estimations de la situation actuelle qui fait que certains font un point de fixation sur cet épiphénomène qui même s’il était un jour instrumentalisé par des états ne changerait structure rien au pouvoir de leur arsenal de surveillance.
Détecter la présence de fichiers en local parmi un corpus de signature c’est d’une efficacité ridicule pour les service d’état voulant contrôler leur population, il y a tellement plus efficace qu’un truc à ce point limité 😎
@YetOneOtherGit
"Si on prend de la hauteur on se rend compte que c’est un pet de lapin que cette histoire au regard de ce que peuvent déjà savoir de toi les état et pire encore les intérêts privés."
À quoi bon chercher — vainement, le plus souvent — à circonscrire les feux de forêt, puisqu’à terme, c’est l’équilibre thermodynamique qui marquera la mort de notre univers ?
À quoi bon dépenser des zilliards pendant cinquante ans pour diviser par cinq le nombre des morts sur la route, alors que Covid-19, au pic de l’épidémie, tue en trois jours autant que la route en un an ?
C’est l’essence de votre argument.
Argument que vous variez sans cesse, en boucle, sur ce fil comme sur les précédents consacrés à ce thème.
Sur le long terme, considérant le tout d’un point de vue statistique, votre nihilisme sera probablement conforté.
À ce détail près que la vie elle-même, mesurée à cette aune, n’est qu’une fluctuation passagère et insignifiante.
Il convient donc de zoomer sur ce fragile paysage méta-stable, sur ces minuscules poches de structures auto-organisées, maintenues en homéostasie transitoire au prix de dépenses entropiques injustifiables d’un point de vue économique.
Et de voir, à cette échelle minuscule et statistiquement insignifiante, ce que l’on peut et ce que l’on doit faire.
@occam
"À quoi bon chercher — vainement, le plus souvent — à circonscrire les feux de forêt, puisqu’à terme, c’est l’équilibre thermodynamique qui marquera la mort de notre univers ?"
Tu vaux mieux que ce sophisme douteux 😉
Tu sais bien que le relativisme n’est pas mon culte.
Mais je déteste les point de fixation sur des arbres qui cachent la forêt.
Les enjeux de vie privée sont majeurs de nos jours face aux conséquences de la révolution numérique.
Mais monter en épingle avec des arguments spécieux cet épiphénomène sans conséquences est pour moi absolument contre productif.
Les vrais combat ne sont pas là 😎
Il suffit de prétendre à la protection des petits "nenfants" pour que les gens cessent de réfléchir.
La "protection de l'enfance" est le premier pas à toute censure.
Apple, soi-disant protecteur de la vie privée, développe un ensemble d'outils intrusifs de cette même vie privée.
Apple a démontré à plusieurs reprises qu'elle était pro-active dans la répression de la liberté d'expression. Elle a apporté un soutien efficace aux autorités chinoises dans la lutte contre les démocrates de Hongkong.
Il est légitime de penser qu'Apple mettra un jour ses outils au service des États qui l'exigeront, sans se formaliser de la légitimité de ces demandes au regard des droits humains (ce qu'elle fait déjà aujourd'hui).
Je remarque aussi que le grand péril pour notre jeunesse selon Apple sont les représentations de nus. "Cachez ce sein que je ne saurais voir."
y a que à pas l'acheter. ils obligent pas pour le moment, l'utilisation de leur appareil. t'en auras pas besoin décrire des romains sur la liberté.
@Moonwalker
N’importe quoi…
@Moonwalker
Et vous proposez quoi d’autre ? Vous aimez plus la solution de Microsoft qui est plus intrusive ? On ne fait rien ?
Apple propose la meilleure solution.
@Krysten2001
Donc la peste ou le choléra lol. Je vois que le reflexion n’est pas votre fort. On vous pousse dans un coin, et au final vous trouvez ça normal. Le jour où il sera trop tard, vous n’aurez que les yeux pour pleurer.
Pages