Le responsable de la confidentialité d’Apple parle des nouvelles fonctionnalités de détection de maltraitance des enfants dans une nouvelle interview


Dans une nouvelle interview avec TechCrunch, Erik Neuenschwander, responsable de la confidentialité d’Apple, s’est assis pour parler des nouvelles fonctionnalités de protection de l’enfance de l’entreprise qui recherchent le matériel d’abus sexuel d’enfants (CSAM).

Apple avait annoncé les nouvelles fonctionnalités, qui analysent iMessage, Siri et iCloud Photos pour des collections d’images CSAM, à certaines inquiétudes quant à ce que les fonctionnalités signifieraient pour la confidentialité des utilisateurs. Dans la nouvelle interview, Neuenschwander tente de dissiper les idées fausses sur ce que la technologie fait et ne fait pas.

Lorsqu’on lui a demandé pourquoi Apple introduisait maintenant ses nouvelles fonctionnalités qui recherchent CSAM, Neuenschwander a déclaré que ce sont les nouvelles technologies qui ont permis à l’entreprise d’équilibrer la sécurité des enfants et la confidentialité des utilisateurs.

« Pourquoi se résume maintenant au fait que nous avons maintenant la technologie qui peut équilibrer la sécurité des enfants et la confidentialité des utilisateurs. C’est un domaine que nous examinons depuis un certain temps, y compris les techniques de pointe actuelles qui impliquent principalement parcourir l’intégralité du contenu des bibliothèques des utilisateurs sur des services cloud qui, comme vous le soulignez, n’est pas quelque chose que nous avons jamais fait ; pour parcourir les photos iCloud des utilisateurs. Ce système ne change pas cela non plus, il ne regarde pas non plus données sur l’appareil, et il ne parcourt pas non plus toutes les photos dans iCloud Photos. Au lieu de cela, il nous donne une nouvelle capacité à identifier les comptes qui commencent des collections de CSAM connus.

TechCrunch a également demandé si la mise en œuvre d’une telle technologie ouvrait la porte à des agences extérieures, comme les forces de l’ordre, pour demander à Apple de rechercher d’autres éléments en dehors de CSAM. Neuenschwander a repoussé cela, affirmant que la technologie n’entrave pas la sécurité de l’appareil ni ne change la position d’Apple sur la confidentialité en ce qui concerne l’application de la loi ou l’ingérence du gouvernement.

« Cela ne change pas cet iota. L’appareil est toujours crypté, nous ne détenons toujours pas la clé et le système est conçu pour fonctionner sur les données de l’appareil. Ce que nous avons conçu a un composant côté appareil – et il a le composant côté appareil en passant, pour des améliorations de la confidentialité.L’alternative de simplement traiter en passant et en essayant d’évaluer les données des utilisateurs sur un serveur est en fait plus propice aux changements [without user knowledge], et moins protecteur de la vie privée des utilisateurs. »

Vous pouvez lire l’intégralité de l’interview sur TechCrunch. Si vous souhaitez en savoir plus sur les nouvelles fonctionnalités d’Apple pour la protection de la sécurité des enfants, consultez notre FAQ.



Soyez le premier à commenter

Poster un Commentaire

Votre adresse de messagerie ne sera pas publiée.


*