Apple révèle de nouvelles fonctionnalités de sécurité pour les enfants, notamment l’analyse des bibliothèques de photos des utilisateurs à la recherche de matériel abusif connu


La confidentialité et la sécurité des utilisateurs sont au cœur des préoccupations d’Apple. La sécurité aussi. S’assurer qu’un utilisateur est en mesure de protéger ses données, par exemple, est l’un des arguments de vente d’iOS en général. Il est donc logique qu’Apple veuille élargir ce champ d’application, notamment en ce qui concerne la protection des enfants.

Aujourd’hui, Apple révèle ses derniers efforts dans cette entreprise. La société présente en avant-première de nouvelles fonctionnalités pour ses principaux systèmes d’exploitation plus tard cette année. Ces nouvelles fonctionnalités seront intégrées au logiciel après une mise à jour, qui arrivera à une date non divulguée. De plus, Apple a également confirmé que les nouvelles fonctionnalités ne seront disponibles qu’aux États-Unis lors du lancement, mais Apple cherche à se développer au-delà de ces frontières à l’avenir.

Il y a trois domaines sur lesquels Apple se concentre. Détection CSAM, sécurité des communications et élargissement des conseils dans la recherche et Siri. Vous pouvez tous les consulter plus en détail dans l’annonce d’Apple. Ci-dessous, vous les trouverez en bref.

la communication

Tout d’abord, l’une des zones les plus potentiellement dangereuses pour les enfants. La communication. Avec ce nouvel objectif, Messages permettra désormais aux enfants et à leurs parents de savoir quand ils pourraient envoyer des photos explicites dans l’application Messages. Cela vaut également pour la réception de ce type de photos.

Selon l’annonce d’aujourd’hui :

Lors de la réception de ce type de contenu, la photo sera floue et l’enfant sera averti, présenté avec des ressources utiles, et rassuré qu’il n’y a pas de problème s’il ne veut pas voir cette photo. À titre de précaution supplémentaire, l’enfant peut également être informé que, pour s’assurer qu’il est en sécurité, ses parents recevront un message s’ils le voient. Des protections similaires sont disponibles si un enfant tente d’envoyer des photos sexuellement explicites. L’enfant sera prévenu avant l’envoi de la photo, et les parents pourront recevoir un message si l’enfant choisit de l’envoyer.

Cette fonctionnalité particulière sera disponible pour les comptes configurés en tant que familles, et elle sera disponible dans iOS 15, iPadOS 15 et macOS 12 Monterey.

Apple dit que l’apprentissage automatique (ML) sur l’appareil gérera l’élément de découverte de photos. Ceci est intrinsèquement conçu pour qu’Apple lui-même ne puisse pas accéder aux images.

Détection CSAM

Le matériel d’abus sexuel d’enfants (CSAM) est un autre domaine sur lequel Apple se concentrera. Ce matériel montre des enfants dans des activités explicites, et Apple vise à le sévir. Pour aider, Apple va mettre en œuvre une technologie qui permettra de numériser le contenu de la photothèque iCloud de l’utilisateur et d’identifier tout CSAM. À cette fin, Apple pourra alors signaler les découvertes au National Center for Missing and Exploited Children (NCMEC), qui est un centre de signalement complet.

De l’annonce :

La méthode d’Apple pour détecter les CSAM connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants. Apple transforme davantage cette base de données en un ensemble illisible de hachages qui est stocké en toute sécurité sur les appareils des utilisateurs.

Avant qu’une image ne soit stockée dans iCloud Photos, un processus de correspondance sur l’appareil est effectué pour cette image par rapport aux hachages CSAM connus. Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image.

Pour s’assurer qu’Apple lui-même ne peut pas interpréter les photos sans nécessité (en gros, à moins qu’il ne soit cinglé par les outils de rapport/découverte), il y a aussi ce qu’on appelle le « partage de secret de seuil » :

En utilisant une autre technologie appelée partage de secret à seuil, le système garantit que le contenu des bons de sécurité ne peut pas être interprété par Apple à moins que le compte iCloud Photos ne franchisse un seuil de contenu CSAM connu. Le seuil est défini pour fournir un niveau de précision extrêmement élevé et garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné.

Ce n’est que lorsque le seuil est dépassé que la technologie cryptographique permet à Apple d’interpréter le contenu des bons de sécurité associés aux images CSAM correspondantes. Apple examine ensuite manuellement chaque rapport pour confirmer qu’il existe une correspondance, désactive le compte de l’utilisateur et envoie un rapport au NCMEC. Si un utilisateur estime que son compte a été signalé par erreur, il peut faire appel pour que son compte soit rétabli.

Recherche et Siri

Et le troisième élément est l’élargissement des conseils pour Siri et la recherche. Ceci est destiné à aider les parents et les enfants à rester en sécurité lorsqu’ils sont en ligne, ainsi que lors de « situations dangereuses ». Avec cette nouvelle fonctionnalité mise en œuvre, les utilisateurs pourront demander directement à Siri où ils peuvent signaler la CSAM ou l’exploitation d’enfants, puis être dirigés vers des ressources.

Si quelqu’un essaie de rechercher avec Siri, ou la fonction de recherche en général, le logiciel lui-même redirigera la recherche et informera l’utilisateur « que l’intérêt pour ce sujet est nuisible et problématique ». La fonctionnalité proposera ensuite des ressources pour vous aider à résoudre le problème.

Apple dit que ces mises à jour pour la recherche et Siri arrivent dans iOS 15, iPadOS 15, macOS 12 Monterey et watchOS 8.

Consultez l’annonce complète d’Apple pour en savoir plus.

Soyez le premier à commenter

Poster un Commentaire

Votre adresse de messagerie ne sera pas publiée.


*