Apple contre la pédopornographie : Fonctionnement et controverses de ses outils d’intelligence artificielle

Reconnu pour la protection des données personnelles de ses utilisateurs, Apple était jusqu’à présent classé derrière ses concurrents, en termes de détection des contenus illégaux. La marque à la pomme a récemment dévoilé de nouveaux outils permettant de détecter et de signaler les contenus pédopornographiques.

Ayant bâti sa réputation sur la protection des données personnelles de ses utilisateurs, Apple et son nouveau dispositif font naître l’inquiétude dans les esprits des utilisateurs ainsi que ceux des experts du respect de la vie privée. Ceux-ci craignent qu’il ne soit plus tard utilisé par des gouvernements, dans la surveillance de masse et l’espionnage des citoyens.

Lire aussi : Naviguer sur internet en toute sécurité.

Comment l’intelligence artificielle d’Apple compte-t-elle lutter contre l’exploitation sexuel des enfants ?

Ces nouveaux outils, CSAM Detection (pour Child Sexual Abuse Material), interviennent sur la messagerie iMessage et sur le serveur iCloud d’Apple. Ils sont conçus pour repérer les images d’exploitation sexuel des enfants, à travers de l’intelligence artificielle, en scannant toutes les images qui passent par la messagerie, envoyées ou reçues (pour les comptes d’enfants liés à un abonnement familial).

Quant au scan de la messagerie iMessage, sont analysées les images de l’iPhone ou de l’iPad mais elles ne sont pas transmises par l’outil d’intelligence artificielle. Elles reçoivent des identifiants numériques et sont alors scannées et comparées à celles d’abus sexuels sur mineurs.

Quant à l’iCloud, l’outil scanne toutes les images, les compare à une base de données d’images pédopornographiques fournie par le NCEM (National Missing and Exploitation Children’s Center) des USA et d’autres organisations militant pour la protection des enfants.

En cas de correspondance les images seront soumises à une évaluation humaine, le compte de l’utilisateur sera bloqué et les forces de l’ordre averties. Ce qui, pour certains, correspond à une atteinte à la vie privée. Apple affirme que le système est d’une telle précision qu’il n’y aura quasiment pas de risque de faux positif.

Controverses de la lutte d’Apple contre la pédopornographie

Cette intelligence artificielle d’Apple attire l’attention de nombreuses personnes, utilisateurs, lanceurs d’alerte et experts du respect de la vie privée. Sans nier la bonne volonté d’Apple de vouloir participer à la lutte contre les abus sexuels des enfants, ils craignent que cette lutte d’Apple contre la pédopornographie et ses nouveaux outils ne laissent place petit à petit la surveillance de masse.

Certains estiment que des gouvernements pourraient demander à Apple d’étendre ce système de détection à d’autres fin, chose que la marque promet de refuser. Apple quant à lui cherche à rassurer en affirmant que les personnes qui ne se reprochent de rien n’auront rien à craindre et que cette intelligence artificielle ne sacrifiera pas la vie privée de ses utilisateurs.

Comme on la sait, malheureusement, les systèmes informatiques comportent parfois des vulnérabilités pouvant faciliter le contournement et l’exploitation par des personnes aux intentions rarement bonnes. Il n’est donc pas impossible que, dans l’avenir, ces nouveaux outils d’Apple apportent plus de problèmes que de solutions, en termes de libertés individuelles et de lutte contre les abus sexuels de enfants.

Partagez l'article