Image default
Economie

Apple veut lutter contre la pédopornographie sur ses téléphones et serveurs


Apple, défenseur des droits de l’enfant ? La firme californienne vient d’annoncer de nouveaux outils afin de lutter contre la pédopornographie. Le but est simple : repérer les images à caractère sexuel impliquant les enfants pour éviter qu’ils ne tombent dessus. « Nous voulons aider à les protéger contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et limiter la diffusion de contenus pédopornographiques », souligne le groupe.

Pour y parvenir, la société a mis en place trois mécanismes qui vont, pour le moment, se limiter aux États-Unis. Premièrement, Apple va scanner les images reçues via le service de messagerie iMessage, uniquement pour les comptes d’enfants liés à un abonnement familial. Lorsque des photos licencieuses seront envoyées à un mineur, elles seront floutées et des messages de prévention s’afficheront directement sur son appareil. S’il souhaite quand même visualiser l’image, les parents pourront décider de recevoir une alerte immédiatement sur leur smartphone. Idem si l’enfant choisit d’envoyer une photo intime de lui.

Base de données

Apple s’appuie ainsi sur un traitement d’apprentissage automatique, réalisé directement depuis l’appareil. L’entreprise précise tout de même qu’elle n’aura pas accès aux autres messages. L’assistant vocal Siri sera aussi concerné par ces changements. Il pourra « intervenir » lorsque les personnes font des recherches d’images pédopornographiques en les prévenant qu’il s’agit de contenus problématiques. Ces fonctions seront disponibles sur iOS 15, iPad­OS 15 et macOS Monterey. La firme va plus loin en analysant également les photos stockées sur le serveur iCloud.

Cette technologie de détection d’images pédophiles, baptisée NeuralHash, fera son apparition dans les systèmes iOS et iPadOS d’ici à la fin de l’année. Elle va analyser les photos et les convertir en chiffres. Ces derniers vont ensuite être comparés à ceux d’une base de données du Centre national américain des ­enfants disparus et exploités ­(NCMEC). S’il y a plusieurs correspondances avec des images pédopornographiques de cette base, Apple enverra un rapport directement au NCMEC. Le centre prendra alors des mesures irrévocables, comme la désactivation du compte de l’utilisateur.

La société donne plusieurs avantages à cette pratique, notamment la protection de la vie privée de l’usager. Apple n’aurait accès qu’aux images compromettantes et pas à celles qui ne correspondent pas à la base de données. Pas le choix, il va donc falloir faire confiance au constructeur. Si vous ne souhaitez pas qu’Apple accède à vos photos, il faudra désactiver iCloud Photos sur votre appareil.

Selon le Centre pour la démocratie et la technologie (CDT), ces changements« marquent une rupture significative par rapport aux protocoles de confidentialité et de sécurité établis de longue date »par la marque. En effet, le géant informatique a toujours clamé sa volonté de défendre la vie privée de ses clients. « Apple remplace son système de messagerie cryptée de bout en bout par une infrastructure de surveillance et de censure, qui sera vulnérable aux abus et aux dérives non seulement aux États-Unis, mais dans le monde entier », affirme Greg Nojeim, directeur du projetLiberté, sécurité et technologie du CDT.



Source link

Autres articles

Uber reconnaît aux chauffeurs britanniques un statut salarié, une première

administrateur

vers un relâchement dans la tenue vestimentaire des salariés ?

administrateur

Euroglider, premier planeur à décollage électrique autonome, prend son envol

administrateur

une fortune de 124 milliards de dollars en jeu

administrateur

Investir dans un logement étudiant, est-ce encore une bonne idée?

administrateur

À l’OMC, la Chine promet d’accélérer son «nouveau modèle de développement»

administrateur