Apple a retardé les plans de déploiement de sa technologie de détection des abus sexuels sur enfants (CSAM) qu’il avait annoncée de manière chaotique le mois dernier, citant les commentaires des clients et des groupes politiques.

Cette rétroaction, si vous vous en souvenez, a été largement négative. L’Electronic Frontier Foundation a déclaré cette semaine avoir amassé plus de 25 000 signatures de consommateurs. En plus de cela, près de 100 groupes politiques et de défense des droits, dont l’American Civil Liberties Union, ont également appelé Apple à abandonner son projet de déploiement de la technologie.

Dans une déclaration vendredi matin, Apple a déclaré à TechCrunch :

« Le mois dernier, nous avons annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et à limiter la propagation du matériel d’abus sexuel d’enfants. Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et d’autres, nous avons décidé de prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d’une importance cruciale.

La technologie dite NeuralHash d’Apple est conçue pour identifier le CSAM connu sur l’appareil d’un utilisateur sans avoir à posséder l’image ou à connaître le contenu de l’image. Étant donné que les photos d’un utilisateur stockées dans iCloud sont cryptées afin que même Apple ne puisse pas accéder aux données, NeuralHash recherche à la place des CSAM connus sur l’appareil d’un utilisateur, ce qui, selon Apple, est plus respectueux de la confidentialité que l’analyse globale actuelle utilisée par les fournisseurs de cloud.

Mais les experts en sécurité et les défenseurs de la vie privée ont exprimé leur crainte que le système puisse être utilisé de manière abusive par des acteurs aux ressources considérables, comme les gouvernements, pour impliquer des victimes innocentes ou pour manipuler le système afin de détecter d’autres matériaux que les États-nations autoritaires trouvent répréhensibles.

Quelques semaines après l’annonce de la technologie, les chercheurs ont déclaré qu’ils étaient capables de créer des « collisions de hachage » à l’aide de NeuralHash, incitant efficacement le système à penser que deux images entièrement différentes étaient identiques.

iOS 15 est attendu…

Voir la source de cette publication