Wiadomości Apple

Craig Federighi przyznaje się do zamieszania wokół funkcji bezpieczeństwa Apple dla dzieci i wyjaśnia nowe szczegóły dotyczące zabezpieczeń

Piątek 13 sierpnia 2021 7:33 PDT przez Hartley Charlton

Starszy wiceprezes Apple ds. inżynierii oprogramowania, Craig Federighi, bronił dziś kontrowersyjnego planu firmy funkcje bezpieczeństwa dzieci w znaczącym wywiadzie z Dziennik Wall Street , ujawniając szereg nowych szczegółów na temat zabezpieczeń wbudowanych w system Apple do skanowania bibliotek zdjęć użytkowników pod kątem materiałów związanych z wykorzystywaniem seksualnym dzieci (CSAM).





Craig wwdc 2021 prywatność
Federighi przyznał, że Apple zajęło się w zeszłym tygodniu zapowiedź kiepsko z dwóch nowych funkcji, związanych z wykrywaniem treści o charakterze jednoznacznie seksualnym w Wiadomościach dla dzieci oraz treści CSAM przechowywanych w Zdjęcia iCloud bibliotekach i przyznał się do powszechnego zamieszania wokół narzędzi:

To naprawdę jasne, że wiele wiadomości zostało źle pomieszanych, jeśli chodzi o to, jak rzeczy zostały zrozumiane. Chcielibyśmy, żeby wszystkim wyszło to nieco jaśniej, ponieważ czujemy się bardzo pozytywnie i mocno w związku z tym, co robimy.



jak wyczyścić ekrany na iPhonie 11

[...]

Z perspektywy czasu wprowadzenie tych dwóch funkcji jednocześnie było receptą na tego rodzaju zamieszanie. Wypuszczając je w tym samym czasie, ludzie technicznie je połączyli i bardzo się przestraszyli: co się dzieje z moimi wiadomościami? Odpowiedź brzmi... nic się nie dzieje z twoimi wiadomościami.

Funkcja bezpieczeństwa komunikacji oznacza, że ​​jeśli dzieci wyślą lub otrzymają wyraźne obrazy za pośrednictwem iMessage, zostaną ostrzeżone przed ich wyświetleniem, obraz będzie rozmazany, a ich rodzice będą mogli zostać ostrzeżeni. Z drugiej strony skanowanie CSAM próbuje dopasować zdjęcia użytkowników do zahaszowanych obrazów znanych CSAM przed przesłaniem ich do iCloud . Konta, na których wykryto CSAM, zostaną następnie poddane ręcznemu przeglądowi przez Apple i mogą zostać zgłoszone do National Center for Missing and Exploited Children (NCMEC).

jak zrobić zrzut ekranu na iPadzie?

Nowe funkcje spotkały się z dużą krytyką ze strony użytkowników, badacze bezpieczeństwa , ten Electronic Frontier Foundation (EFF) i Edward Snowden , Były szef ochrony Facebooka , i nawet Pracownicy Apple .

Wśród tej krytyki Federighi odniósł się do jednego z głównych obszarów zainteresowania, podkreślając, że system Apple będzie chroniony przed wykorzystaniem przez rządy lub inne strony trzecie z „wieloma poziomami kontroli”.


Federighi ujawnił również szereg nowych szczegółów dotyczących zabezpieczeń systemu, takich jak fakt, że użytkownik będzie musiał spełnić około 30 dopasowań treści CSAM w swoim Zdjęcia bibliotekę, zanim Apple zostanie ostrzeżony, po czym potwierdzi, czy te obrazy wydają się być prawdziwymi wystąpieniami CSAM.

Wtedy i tylko wtedy, gdy osiągniesz próg rzędu 30 dopasowanych znanych obrazów pornografii dziecięcej, tylko wtedy Apple wie coś o Twoim koncie i wie coś o tych obrazach, i w tym momencie wie tylko o tych obrazach, a nie o dowolny z twoich innych obrazów. To nie jest analiza, bo czy miałeś zdjęcie swojego dziecka w wannie? Lub, jeśli o to chodzi, czy miałeś zdjęcie jakiejś innej pornografii? Dosłownie pasuje to tylko do dokładnych odcisków palców określonych znanych obrazów z pornografią dziecięcą.

Zwrócił również uwagę na korzyści związane z bezpieczeństwem, wynikające z umieszczenia procesu dopasowywania na iPhone bezpośrednio, a nie na serwerach ‌iCloud‌.

Ponieważ jest na [telefonie], analitycy bezpieczeństwa są w stanie stale introspekować, co dzieje się w oprogramowaniu Apple [telefon]. Więc jeśli wprowadzono jakiekolwiek zmiany, które miałyby w jakiś sposób rozszerzyć zakres tego – w sposób, którego zobowiązaliśmy się nie robić – istnieje weryfikowalność, mogą zauważyć, że to się dzieje.

Zapytany, czy baza danych obrazów wykorzystywanych do dopasowania treści CSAM na urządzeniach użytkowników może zostać naruszona przez umieszczenie innych materiałów, takich jak treści polityczne w niektórych regionach, Federighi wyjaśnił, że baza danych jest zbudowana ze znanych obrazów CSAM pochodzących z wielu organizacji zajmujących się bezpieczeństwem dzieci. przy czym co najmniej dwa znajdują się „w odrębnych jurysdykcjach”, aby chronić przed nadużyciami systemu.

jak wyczyścić pliki cookie na safari na Macu

Według Federighi te organizacje zajmujące się ochroną dzieci, a także niezależny audytor, będą w stanie zweryfikować, czy baza danych obrazów składa się wyłącznie z treści pochodzących od tych podmiotów.

Wywiad Federighi jest jednym z największych odepchnięć PR ze strony Apple po mieszanej reakcji opinii publicznej na ogłoszenie funkcji bezpieczeństwa dzieci, ale firma wielokrotnie próbowała rozwiej wątpliwości użytkowników , publikowanie FAQ i bezpośrednio odnosząc się do obaw w wywiady z mediami .

Tagi: The Wall Street Journal , Craig Federighi , Funkcje bezpieczeństwa Apple dla dzieci