Apple abandonne son projet controversé de scanner les iPhones privés à la recherche de photos illégales

Apple abandonne son projet controversé de scanner les iPhones privés à la recherche de photos illégales
Apple abandonne son projet controversé de scanner les iPhones privés à la recherche de photos illégales
Avatar de Harry Johnson
Écrit par Harry Johnson

Même les employés d'Apple auraient exprimé des inquiétudes concernant la technologie de détection, craignant qu'elle puisse être utilisée pour contourner les protections de cryptage, qu'elle puisse facilement identifier et signaler certaines photos de manière erronée.

  • Apple va retarder les analyses invasives de l'iPhone.
  • Les analyses Apple rechercheraient du matériel d'abus sexuel d'enfants.
  • Les militants et les groupes de droite expriment leurs préoccupations concernant les problèmes de censure et de confidentialité.

La récente annonce controversée d'Apple concernant les plans visant à analyser tous les iPhones privés à la recherche de photos et de conversations pouvant consister en du matériel d'abus sexuel d'enfants (CSAM) a immédiatement été accueillie par des appels à l'abandon des plans par des groupes de défense des droits civiques, y compris l'American Civil Liberties Union (ACLU).

0a1a 14 | eTurboNews | ETN

Après le barrage de critiques qui a suivi l'annonce, Apple a annoncé qu'il "prendrait plus de temps" dans les mois à venir pour travailler sur des plans de signalement de CSAM, au milieu des inquiétudes des militants et des groupes de défense des droits concernant les problèmes de censure et de confidentialité.

« Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et d'autres, nous avons décidé de prendre du temps supplémentaire au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d'une importance cruciale », a déclaré un Apple a déclaré aujourd'hui un porte-parole dans un communiqué.

La technologie d'Apple scannerait iPhone photos et conversations pour CSAM, en utilisant un programme qui, selon la société, protégerait toujours la vie privée des individus, car la technologie n'identifie pas les détails généraux d'une image ou d'une conversation, ou doit être en possession de l'un ou l'autre – bien que de nombreux critiques aient exprimé leurs doutes.

Le système utilise une base de données de références ou de « hashtags d'image » pour reconnaître un contenu spécifique à signaler, bien que les experts en sécurité aient averti qu'une telle technologie pourrait probablement être manipulée ou que des images innocentes pourraient être mal interprétées. 

Même les employés d'Apple auraient exprimé des inquiétudes concernant la technologie de détection, craignant qu'elle puisse être utilisée pour contourner les protections de cryptage, qu'elle puisse facilement identifier et signaler certaines photos de manière erronée – ou même que certains gouvernements puissent l'exploiter pour trouver d'autres éléments. Apple maintient qu'il refusera toute demande des gouvernements d'utiliser le système pour autre chose que des images d'abus d'enfants.

"iMessages n'assurera plus la confidentialité et la vie privée à ces utilisateurs via un système de messagerie crypté de bout en bout dans lequel seuls l'expéditeur et les destinataires ont accès aux informations envoyées", lit-on dans une lettre d'une coalition de plus de 90 groupes militants. au PDG d'Apple, Tim Cook, sur les changements potentiels. 

Le calendrier exact du retard actuel est inconnu, mais le nouveau système de détection devait à l'origine être utilisé cette année.

A propos de l'auteure

Avatar de Harry Johnson

Harry Johnson

Harry Johnson a été le rédacteur en chef de eTurboNews depuis plus de 20 ans. Il vit à Honolulu, Hawaï, et est originaire d'Europe. Il aime écrire et couvrir l'actualité.

Soumettre
Notifier de
invité
0 Commentaires
Commentaires en ligne
Voir tous les commentaires
0
J'adorerais vos pensées, veuillez commenter.x
Partager à...