ProIT: медіа для профі в IT
2 хв

Apple звинувачують у приховуванні випадків сексуального насильства на її платформах

author avatar ProIT NEWS

Компанію Apple звинувачують у викривленні інформації про поширеність матеріалів сексуального насильства над дітьми (CSAM) на її платформах, повідомляє Engadget.

Національне товариство із запобігання жорстокому поводженню з дітьми (NSPCC) зазначає, що минулого року Apple повідомила Національному центру для зниклих та експлуатованих дітей (NCMEC) лише про 267 випадків підозр щодо сексуального насильства по всьому світу.

Це ніщо порівняно із 1,47 мільйонами потенційних випадків, про які повідомила Google, і 30,6 мільйонами повідомлень від Meta.

Інші платформи, які також повідомляли про потенційні випадки сексуального насильства у 2023 році: TikTok (590 376), X (597 087), Snapchat (713 055), Xbox (1537) і PlayStation/Sony Interactive Entertainment (3974).

Нагадаємо, що кожна американська технологічна компанія зобов’язана передавати інформацію про всі можливі випадки сексуального насильства, виявлені на її платформах, до NCMEC. Своєю чергою центр направляє справи до відповідних правоохоронних органів у всьому світі.

У NSPCC також повідомили, що Apple була причетна до більшої кількості випадків CSAM (337) в Англії та Уельсі у період із квітня 2022 року до березня 2023 року, ніж вона повідомила за рік. Благодійна організація використовувала запити на свободу інформації, щоб зібрати дані від поліції.

Як зазначає The Guardian, яка першою повідомила про претензію NSPCC, усі сервіси Apple, такі як iMessage, FaceTime та iCloud, мають наскрізне шифрування, яке не дозволяє компанії переглядати вміст, яким там діляться користувачі. Проте WhatsApp також має E2EE. Ця служба повідомила NCMEC про майже 1,4 мільйона випадків підозрілого сексуального насильства над дітьми у 2023 році.

«Існує тривожна розбіжність між кількістю злочинів із зображенням жорстокого поводження з дітьми у Великій Британії, які відбуваються в сервісах Apple, і майже незначною кількістю глобальних повідомлень про образливий контент, які компанія надсилає владі. Apple явно відстає від багатьох своїх колег у боротьбі з сексуальним насильством над дітьми, коли всі технологічні фірми повинні інвестувати в безпеку та готуватися до впровадження Закону про безпеку в Інтернеті у Великобританії», — сказав Річард Коллард, голова політики безпеки дітей в Інтернеті NSPCC.

У 2021 році Apple оголосила про плани розгорнути систему, яка сканувала б зображення перед їх завантаженням в iCloud і порівнювала їх із базою даних відомих зображень CSAM від NCMEC та інших організацій. Однак після негативної реакції з боку захисників конфіденційності та цифрових прав компанія відклала розгортання своїх інструментів виявлення сексуального насильства й остаточно припинила проєкт у 2022 році.

В Apple відмовилися коментувати звинувачення NSPCC. Замість цього фахівці вказали The Guardian на заяву, яку вона зробила, коли відклала план сканування CSAM.

У компанії заявили, що вибрали іншу стратегію, яка надає пріоритет безпеці та конфіденційності їхніх користувачів. У серпні 2022 року у коментарі Wired вони повідомили, що дітей можна захистити без компаній, які прочісують особисті дані.

Читайте також на ProIT, що Apple зробить підключення до публічних Wi-Fi безпечним: зареєстровано новий патент.

Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!

Приєднатися до company logo
Продовжуючи, ти погоджуєшся з умовами Публічної оферти та Політикою конфіденційності.