Apple veut analyser nos photos sur iPhone, iPad, Mac et iCloud pour protéger les enfants

Apple entend déployer de nouveaux outils sur les iPhone, iPad, ordinateurs Mac et serveur iCloud dans le but de détecter des images à caractère pédopornographique. Derrière cette cause noble pour protéger les enfants d'abus sexuel, des questions demeurent sur le respect de la confidentialité des photos des utilisateurs.

Apple a fait de la protection des données personnelles et du respect de la vie privée l’un de ses principaux chevaux de bataille. Nombreuses sont les publicités pour nous le rappeler. Il suffit de penser à celle pour désactiver le pistage des applications.

Malgré cette volonté affichée, un nouveau projet de la marque à la pomme vient remettre en question ce fameux respect de la confidentialité.

En effet, Apple entend déployer des outils sur iPhone, iPad, Mac et iCloud afin de détecter et retirer du contenu pédopornographique et d’abus sexuels d’enfants.

Si la cause est 110% noble afin de protéger les enfants, il n’en demeure pas moins que cela reste une intrusion dans les appareils des utilisateurs et contredit quelque peu la volonté de respecter leur vie privée.

Comment Apple veut freiner la propagation de pornographie juvénile

Le 5 août dernier, Apple a annoncé sur son site web les grandes lignes de son projet de détection de contenus pédopornographiques sur iPhone, iPad, Mac et iCloud.

Chez Apple, notre objectif est de créer une technologie qui responsabilise les gens et enrichit leur vie, tout en les aidant à rester en sécurité. Nous voulons aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et limiter la diffusion de matériel pédopornographique.

Trois fonctionnalités sur iPhone, iPad, Mac et iCloud seront déployées en ce sens, soit:

  1. L’application Messages utilisera l’apprentissage automatique sur l’appareil pour avertir du contenu sensible, tout en gardant les communications privées illisibles par Apple.
  2. iOS et iPadOS utiliseront de nouvelles applications de cryptographie pour aider à limiter la propagation de matériel d’abus sexuel d’enfants en ligne, tout en concervant la confidentialité des utilisateurs. La détection de matériel d’abus sexuel d’enfants aidera Apple à fournir des informations précieuses aux forces de l'ordre sur les collections de matériel d’abus sexuel d’enfants dans iCloud Photos.
  3. Les mises à jour de Siri et de Search fournissent aux parents et aux enfants des informations détaillées et de l'aide s'ils rencontrent des situations dangereuses. Siri et Search interviendront également lorsque les utilisateurs tenteront de rechercher des sujets liés à du matériel d’abus sexuel d’enfants.

Apple détection contenu pédopornographique application Messages iPhone iPad

L’application Messages avertira un enfant et ses parents s’il envoie une photo sexuellement explicite.

C’est grâce à une base de données de contenu pédopornographique stockée sur iCloud, qu’Apple entend pouvoir détecter le contenu explicite sur les appareils.

Si du contenu à caractère explicite est détecté par son système, une vérification manuelle sera effectuée par Apple, puis un signalement au Centre national des enfants disparus et exploités des États-Unis sera effectué.

Ce nouveau système entend être déployé par Apple avec les mises à jour iOS 15, iPadOS 15 et macOS Monterey.

Une porte dérobée vers notre iPhone, iPad et Mac?

Cette nouvelle fonctionnalité n’est pas sans poser de sérieuses questions quant au respect de la confidentialité des données des utilisateurs.

Le raisonnement que plusieurs organisations et militants du respect de la vie privée ont, est que si Apple se donne le droit de scruter nos photos, qu’est-ce qui les empêche d’accéder aux données des appareils pour d’autres motifs?

Apple a voulu rassurer ceux-ci via une FAQ où l’on peut notamment y lire qu’il refusera toutes demandes gouvernementales pour analyser d’autres types de photos sur iCloud.

Malgré ces réponses additionnelles, plusieurs continuent de demander à Apple de se rétracter. C’est le cas de l’ONG Electronic Frontier Foundation pour la protection des libertés sur l’internet qui ont publié leurs préoccupations sur un article de blogue.

L'exploitation des enfants est un problème sérieux, et Apple n'est pas la première entreprise technologique à modifier sa position sur la protection de la vie privée pour tenter de combattre. Même développé avec les meilleures intentions, un système destiné à détecter des images pédopornographiques ouvre la porte à d'autres abus.

Et vous qu’en pensez-vous? Êtes-vous d’accord à ce qu’Apple analyse vos photos dans le cadre de ces nouvelles dispositions?

Logiciels de sécurité

Nos choix: antivirus et suites de protection 2021

Économisez

Les rabais de François: promotions et offres technos de la semaine