Une plainte sur les écoutes humaines de Siri retoquée aux États-Unis
Apple échappe, au moins temporairement, à un procès sur l'affaire des écoutes humaines de Siri. Un juge californien a rejeté une plainte qui avait été déposée, tout en permettant aux plaignants de revoir celle-ci pour qu'elle soit valide, rapporte Bloomberg.
Le recours collectif avait été intenté en août 2019, dans la foulée de l'article du Guardian qui révélait que des sous-traitants d'Apple écoutaient certains enregistrements de Siri (dont certains provoqués accidentellement) en vue d'améliorer le service, une pratique jusqu'alors jamais dévoilée par l'entreprise et pour laquelle elle ne demandait pas l'accord des utilisateurs. Après le tollé provoqué par la découverte de ce programme, Apple a rendu le programme optionnel et demande l'accord de ses clients pour les y inscrire.
Selon les plaignants, le programme d'écoute tel qu'il avait lieu au départ violerait plusieurs lois américaines, dont une interdisant les interceptions intentionnelles de communication. Le juge Jeffrey White n'a pas statué sur le fond de l'affaire, il a déclaré que les arguments (basés sur l'article du Guardian) avancés par les requérants n'étaient pas suffisants pour étayer leurs allégations.
En Europe, l'organisme irlandais de protection des données s’est ressaisi de ce dossier l'année dernière. Aux dernières nouvelles, l'organisme était dans l'attente d'une réponse de la part d'Apple.
Selon nos informations, comme elle s'y était engagée, Apple gère désormais en interne ces écoutes d'enregistrements Siri, ce ne sont plus des sous-traitants qui s'en chargent. Des postes sont ouverts pour transcrire dans de nombreuses langues les fichiers audio.
Une petite condamnation pour ça ne serait pas si mal. Même si c’était stipulé dans les conditions d’utilisation, il n’était pas stipulé que c’était de la sous traitance et ça, c’est assez inadmissible. Parce que sur les employés sous traitants, il n’y a qu’un contrôle relatif.
@Nesus
Depuis quand il faut prévenir le client que l’on sous-traite une partie du service/travail que l’on fait pour lui ? Il y a une obligation légale ? Morale ?
@Nesus :
« Une petite condamnation pour ça ne serait pas si mal. Même si c’était stipulé dans les conditions d’utilisation, il n’était pas stipulé que c’était de la sous traitance et ça, c’est assez inadmissible. »
On est bien d'accord.
Quand une société se présente en chevalier blanc de la protection de la vie privée de ses clients, qu'elle fait des publicités "what happens on your iPhone stays on your iPhone" et, que, en fait, "hé hé hé, gros gag les gars, en fait vos conversations sont écoutées sans que vous le sachiez, sans que vous ayez donné votre accord, et par des personnes travaillant pour des sociétés tierces et qui peuvent vous identifier", c'est clairement du foutage de gueule.
En plus, il ne faut pas être naïfs, même si c'est malheureux seules des actions en justice peuvent faire changer ce genre de pratiques. Par exemple jamais Apple n'aurait bougé le petit doigt dans l'histoire des batteries sous-dimensionnées d'iPhone s'il n'y avait pas eu des actions légales engagées contre elle, après découverte qu'elle avait poussé une mise à jour furtive visant à ralentir les processeurs d'appareils de ses clients.
Tiens, si on attaquait la plus grosse capitalisation boursière sur les sujets qui font polémique...?
Loin de moi l’idée de défendre la pomme sur ses grosses problématiques, je pense que ces procédures n’enrichissent pas souvent l’expérience des utilisateurs.
Je crois que le batteriegate en était la preuve. Celle-ci me semble aller dans ce sens.
@empereur_kuzco
Hein ? Si tu as un iPhone XR,11,11pro..., tu peux remercier les problèmes de batterie des 6s d’avoir enfin une batterie correcte capable d’encaisser + de 2 ans...
autant sur le batteryGate je peux concevoir qu’il y ait eu et ait encore des procedures, autant là, ca sent plutot la boulette vite réparée. Est-ce que TC un matin s’est dit « bon on va ecouter indirectement nos utilisateurs et on dira que c pas nous en sous-traitant »). Ben pour certain (et certainement ca va fuser dans les commentaires) ben la réponse est oui.
bon, apres la justice tranchera si besoin en etait, ultime juge de paix pour ceux qui veulent encore du sang, et encore plus et encore un peu...
Pourquoi perdre du temps !
Garrotons et exposons les en place publique !
😈😬
@Sindanárië
"Garrotons et exposons les en place publique ! "
Effectivement beaucoup ici semblent confondre arbitraire viscéral et justice.
L’enseignement des fondements de la philosophie du droit ne ferait pas de mal pour faire des citoyens 😉
@YetOneOtherGit
Méheuuuuu !
C'est vrai que c'est curieux cette manie de pas vouloir torturer ; ça vient de quoi, ça ?
Le droit ?
Mais ce droit, cette justice, ne doit pas nous enlever LE FOLKLORE, le sang de l’humanité depuis des millénaires !
C’est quand même l’occasion de faire une petite fête !
Quoi de mieux qu’un barbecue organisé avec des jeux genre un jeté d’objets divers sur des gens cloués au pilori. Le tout accompagné par des harpes. C'est un peu vulgaire... mais on rigole en même temps, on se bourre de quiche et on boit des énormes pintes de bière et on finit en farandole en hurlant des yodel ou en vomissant partout.... on ne regrette pas une soirée comme celle là! 🤪
@Sindanárië
"Mais ce droit, cette justice, ne doit pas nous enlever LE FOLKLORE, le sang de l’humanité depuis des millénaires !"
Après si c’est une œuvre de préservation des traditions ça force le respect 🥸
../..
@Sindanárië
Malheureusement ce genre d’événement n’est pas très Covid compatible. Espérons pour l’année prochaine.
@ya2nick
La COVID n’existe pas c’est une conspiration de l’état profond voyons 🙃
@YetOneOtherGit
🤣
Beaucoup ici ont tendance à sous-estimer ce qu’est l’exercice du droit et confondent leurs désirs avec les réalités.
Je ne cesse de le rappeler : il y a loin de la coupe au lèvres et les signes avant-coureurs du grand soir des GAFAM sont franchement sur interprété.
Nul défense des GAFAM dans ce propos, juste un rappel à la mesure et au pragmatisme.
Ce serait quand même pas de bol que l’assistant virtuel le plus aux fraises, justement parce qu’il ne traite les données qu’en local ou en anonyme se prenne un procès au cul.
On peut au moins laisser Siri tranquille sur ce point là, si il y a bien un truc dont je n’ai pas peur ce sont ses oreilles (quand il arrive à entendre)
@Moebius13
D’ailleurs le traitement et il vraiment en local? Parce que rien que le,fais de devoir lancer un minuteur nécessite une connexion internet
@Maxstyle
Avec Siri rien n'est traité en local. Si on n'est pas connecté à Internet, impossible d'utiliser Siri.
@Maxstyle
« D’ailleurs le traitement et il vraiment en local? »
Apple a annoncé que le traitement local pour l’interprétation des commandes Siri serait disponible dans quelques années (sans plus de précision), quand les puces d’IA seront assez performantes. On en est encore assez loin ..
@IceWizard
Ça répond déjà tellement à côté de la plaque (quand ça réponds) avec une force de calcul de serveur que je suis pas pressé d'avoir un traitement local. On crie sur Google mais honnêtement leur assistant ne m'a jamais répondu "un instant svp" et à toujours compris du premier coup ce que je lui demande. C'est au détriment de la vie privée et confidentialité car Google se fait une joie de bien tout noter mais si Apple arrivait juste à la moitié de ce que Google est valable avec son assistant ça serait merveilleux. Donc pour l'instant qu'il s'améliore avec un traitement distant et après on parlera gestion local. Et puis l'iOS fait déjà 10 a 12gb, avec Siri intégré on passera à 15 😅
Quelle idée d'utiliser un assistant vocale aussi... Comme si tout fonctionnait par magie...
@kitetrip
Juste pour info, ce sujet d'écoutes "humaines" concerne l'assistant virtuel Siri, mais il concerne également la dictée vocale (qui depuis quelques années maintenant, est traité uniquement en centralisé sur les serveurs d'Apple et ne peut plus être utilisé en local seulement). Et potentiellement le fait que la dictée vocale puisse être écoutée, peut être plus indiscret que la seule écoute des requêtes faites à Siri (sauf cas des déclenchements involontaires de Siri)
Ce n’est pas possible, c’est un complot machiavélique contre Apple. Ils respectent la vie privée de leurs utilisateurs contrairement au méchant Google.