Wiadomości Apple

Naukowcy uniwersyteccy, którzy zbudowali system skanowania CSAM, wzywają Apple do nieużywania „niebezpiecznej” technologii

Piątek 20 sierpnia 2021 6:48 PDT przez Sami Fathi

Szanowani naukowcy uniwersyteccy biją na alarm w związku z technologią stojącą za planami Apple dotyczącymi skanowania iPhone biblioteki zdjęć użytkowników dla CSAM lub materiałów związanych z wykorzystywaniem seksualnym dzieci, nazywając tę ​​technologię „niebezpieczną”.





prywatność jabłek
Jonanath Mayer, adiunkt informatyki i spraw publicznych na Uniwersytecie Princeton, a także Anunay Kulshrestha, naukowiec z Centrum Polityki Informatycznej Uniwersytetu Princeton, obaj napisał artykuł dla Washington Post , przedstawiając swoje doświadczenia z budowaniem technologii wykrywania obrazu.

Naukowcy rozpoczęli projekt dwa lata temu, aby zidentyfikować CSAM w szyfrowanych usługach online typu end-to-end. Naukowcy zauważają, że w swojej dziedzinie 'znają wartość pełnego szyfrowania, które chroni dane przed dostępem osób trzecich'. Twierdzą, że ta obawa przeraża ich z powodu „rozprzestrzeniania się CSAM na zaszyfrowanych platformach”.



jak edytujesz strony na ios 14

Mayer i Kulshrestha powiedzieli, że chcą znaleźć kompromis w tej sytuacji: zbudować system, który platformy internetowe mogłyby wykorzystać do znalezienia CSAM i ochrony szyfrowania typu end-to-end. Naukowcy zauważają, że eksperci w tej dziedzinie wątpili w perspektywę takiego systemu, ale udało im się go zbudować i przy okazji zauważyli istotny problem.

Poszukiwaliśmy możliwego rozwiązania pośredniego, na którym usługi internetowe mogłyby identyfikować szkodliwe treści, zachowując jednocześnie szyfrowanie typu end-to-end. Koncepcja była prosta: jeśli ktoś udostępni materiał pasujący do bazy danych o znanych szkodliwych treściach, usługa zostanie powiadomiona. Gdyby ktoś udostępnił niewinne treści, serwis niczego by się nie dowiedział. Ludzie nie mogli przeczytać bazy danych ani dowiedzieć się, czy zawartość się zgadza, ponieważ informacje te mogą ujawnić metody egzekwowania prawa i pomóc przestępcom uniknąć wykrycia.

Doświadczeni obserwatorzy argumentowali, że system taki jak nasz jest daleki od wykonalności. Po wielu falstartach zbudowaliśmy działający prototyp. Ale napotkaliśmy rażący problem.

Od czasu ogłoszenia tej funkcji przez Apple firma była bombardowana z obawami że system wykrywania CSAM mógłby zostać wykorzystany do wykrywania innych form zdjęć na prośbę opresyjnych rządów. Apple zdecydowanie odrzucił taką możliwość, mówiąc, że odrzuci wszelkie takie wnioski ze strony rządów.

Niemniej jednak obawy dotyczące przyszłych implikacji technologii wykorzystywanej do wykrywania CSAM są szeroko rozpowszechnione. Mayer i Kulshrestha powiedzieli, że ich obawy dotyczące sposobu, w jaki rządy mogą wykorzystać system do wykrywania treści innych niż CSAM, „zaniepokoiły ich”.

dlaczego mój iPhone nie aktualizuje lokalizacji?

Zagraniczny rząd mógłby na przykład zmusić ludzi, którzy dzielą się nieprzychylnym przemówieniem politycznym, przysługiwać. To nie jest hipotetyczne: WeChat, popularna chińska aplikacja do przesyłania wiadomości, już wykorzystuje dopasowanie treści do identyfikacji materiałów dysydentów. Indie wprowadziły w tym roku przepisy, które mogą wymagać wstępnego sprawdzania treści krytycznych wobec polityki rządu. Rosja niedawno ukarała grzywnami Google, Facebook i Twitter za nieusuwanie prodemokratycznych materiałów protestacyjnych.

Zauważyliśmy inne niedociągnięcia. Proces dopasowywania treści może mieć fałszywe alarmy, a złośliwi użytkownicy mogą oszukać system, aby poddać niewinnych użytkowników kontroli.

Byliśmy tak zaniepokojeni, że zrobiliśmy krok, którego nie widzieliśmy wcześniej w literaturze informatycznej: ostrzegaliśmy przed naszym własnym projektem systemu, zachęcając do dalszych badań nad tym, jak złagodzić poważne wady....

Apple nadal odpowiada na obawy użytkowników dotyczące swoich planów, publikowanie dodatkowych dokumentów oraz strona z najczęściej zadawanymi pytaniami . Apple nadal wierzy, że jego system wykrywania CSAM, który będzie działał na urządzeniu użytkownika, jest zgodny z jego długoletnimi wartościami prywatności.

Tagi: Prywatność Apple , WashingtonPost.com , Funkcje bezpieczeństwa Apple dla dzieci