Wiadomości Apple

Pracownicy Apple wewnętrznie zgłaszają obawy dotyczące planów wykrywania CSAM

Piątek 13 sierpnia 2021 00:43 PDT przez Sami Fathi

Pracownicy Apple dołączają teraz do chóru osób zgłaszających obawy dotyczące planów Apple dotyczących skanowania iPhone biblioteki zdjęć użytkowników dla materiałów CSAM lub materiałów związanych z wykorzystywaniem seksualnym dzieci, podobno wypowiadające się wewnętrznie o tym, w jaki sposób można wykorzystać tę technologię do skanowania zdjęć użytkowników w poszukiwaniu innych rodzajów treści, zgodnie z raportem z Reuters .





dron apple park czerwiec 2018 2
Według Reuters , nieokreślona liczba pracowników Apple zwróciła się do wewnętrznych kanałów Slack, aby zgłosić obawy dotyczące wykrywania CSAM. W szczególności pracownicy obawiają się, że rządy mogą zmusić Apple do korzystania z technologii do cenzury poprzez znajdowanie treści innych niż CSAM. Niektórzy pracownicy obawiają się, że Apple niszczy swoją wiodącą w branży reputację w zakresie prywatności.

Pracownicy Apple zalali wewnętrzny kanał Apple Slack ponad 800 wiadomościami na temat planu ogłoszonego tydzień temu, pracownicy, którzy prosili o zachowanie anonimowości, powiedzieli Reuterowi. Według pracowników, którzy widzieli ten wątek, wielu wyrażało obawy, że funkcja ta może zostać wykorzystana przez represyjne rządy, które chcą znaleźć inne materiały do ​​cenzury lub aresztowań.



Wcześniejsze zmiany bezpieczeństwa w Apple również wzbudziły niepokój wśród pracowników, ale ilość i czas trwania nowej debaty jest zaskakujący, powiedzieli pracownicy. Niektóre plakaty obawiały się, że Apple niszczy swoją wiodącą reputację w zakresie ochrony prywatności.

Według raportu pracownicy Apple pełniący role związane z bezpieczeństwem użytkowników nie są uważani za część wewnętrznego protestu.

Odkąd jego ogłoszenie w zeszłym tygodniu Apple zostało zbombardowane krytyką swoich planów wykrywania CSAM, które nadal mają zostać wprowadzone na iOS 15 i iPadOS 15 jesienią tego roku. Obawy dotyczą głównie tego, w jaki sposób technologia może stanowić śliski stok dla przyszłych wdrożeń przez opresyjne rządy i reżimy.

jak kliknąć prawym przyciskiem myszy mac

Apple zdecydowanie odrzucił pomysł, że technologia na urządzeniu wykorzystywana do wykrywania materiałów CSAM może być wykorzystywana do dowolnego innego celu. W opublikowany dokument FAQ , firma twierdzi, że będzie stanowczo odrzucać takie żądania ze strony rządów.

Czy rządy mogą zmusić Apple do dodania obrazów innych niż CSAM do listy skrótów?
Apple odrzuci takie żądania. Funkcja wykrywania CSAM firmy Apple została zbudowana wyłącznie w celu wykrywania znanych obrazów CSAM przechowywanych w Zdjęciach iCloud, które zostały zidentyfikowane przez ekspertów z NCMEC i innych grup zajmujących się bezpieczeństwem dzieci. Staliśmy przed żądaniami stworzenia i wdrożenia wprowadzonych przez rząd zmian, które degradują prywatność użytkowników, i stanowczo odrzucaliśmy te żądania. W przyszłości nadal będziemy je odrzucać. Powiedzmy sobie jasno, ta technologia ogranicza się do wykrywania CSAM przechowywanego w iCloud i nie przychylimy się do prośby żadnego rządu o jej rozszerzenie. Ponadto Apple przeprowadza ocenę ludzką przed złożeniem raportu do NCMEC. W przypadku, gdy system oznaczy zdjęcia, które nie pasują do znanych obrazów CSAM, konto nie zostanie wyłączone, a do NCMEC nie zostanie złożony żaden raport.

jakiś list otwarty krytykując Apple i wzywając firmę do natychmiastowego wstrzymania, plan wdrożenia wykrywania CSAM zyskał ponad 7000 podpisów w momencie pisania tego tekstu. Szef WhatsApp również uwzględniony w debacie .

Tagi: Prywatność Apple , Funkcje bezpieczeństwa Apple dla dzieci