Wiadomości Apple

Apple potwierdza, że ​​wykrywanie materiałów związanych z wykorzystywaniem seksualnym dzieci jest wyłączone, gdy wyłączone są zdjęcia iCloud

Czwartek 5 sierpnia 2021 15:16 PDT przez Juli Clover

jabłko dzisiaj ogłoszone że iOS 15 oraz iPad 15 zobaczymy wprowadzenie nowej metody wykrywania materiałów związanych z wykorzystywaniem seksualnym dzieci (CSAM) na iPhone'ach i iPadach w Stanach Zjednoczonych.





Ogólna funkcja iCloud
Urządzenia użytkownika pobiorą nieczytelną bazę danych znanych skrótów obrazów CSAM i wykonają na urządzeniu porównanie z własnymi zdjęciami użytkownika, oznaczając je jako znane materiały CSAM, zanim zostaną przesłane do Zdjęcia iCloud . Apple twierdzi, że jest to bardzo dokładna metoda wykrywania CSAM i ochrony dzieci.

Skanowanie obrazów CSAM nie jest funkcją opcjonalną i odbywa się automatycznie, ale firma Apple potwierdziła, że Wieczny że nie może wykryć znanych obrazów CSAM, jeśli ‌iCloud Photos‌ funkcja jest wyłączona.



jak usunąć konto Apple ID

Metoda firmy Apple działa, identyfikując znane zdjęcie CSAM na urządzeniu, a następnie oznaczając je po przesłaniu do ‌iCloud Photos‌ z dołączonym voucherem. Po przesłaniu określonej liczby kuponów (tzw. oznaczonych zdjęć) do ‌iCloud Photos‌, Apple może je zinterpretować i przeprowadzić ręczną recenzję. Jeśli zostanie znaleziona zawartość CSAM, konto użytkownika zostanie wyłączone, a National Center for Missing and Exploited Children zostanie powiadomiony.

Ponieważ Apple skanuje ‌iCloud Photos‌ w przypadku flag CSAM sensowne jest, że ta funkcja nie działa z ‌iCloud Photos‌ wyłączone. Apple potwierdził również, że nie może wykryć znanych obrazów CSAM w kopiach zapasowych iCloud, jeśli ‌iCloud Photos‌ jest wyłączona na urządzeniu użytkownika.

Warto zauważyć, że Apple skanuje specjalnie w poszukiwaniu skrótów znanych materiałów związanych z wykorzystywaniem seksualnym dzieci i nie sprawdza na szeroką skalę biblioteki zdjęć użytkownika ani nie skanuje osobistych obrazów, które nie krążą jeszcze wśród osób, które wykorzystują dzieci. Mimo to użytkownicy, którzy mają obawy dotyczące prywatności w związku z wysiłkami Apple w zakresie skanowania bibliotek zdjęć użytkowników, mogą wyłączyć ‌iCloud Photos‌.

Badacze bezpieczeństwa wyrażone obawy nad inicjatywą CSAM firmy Apple i martw się, że w przyszłości może być w stanie wykryć inne rodzaje treści, które mogą mieć konsekwencje polityczne i związane z bezpieczeństwem, ale na razie wysiłki Apple są ograniczone w poszukiwaniu sprawców przemocy wobec dzieci.

Uwaga: ze względu na polityczny lub społeczny charakter dyskusji na ten temat, wątek dyskusji znajduje się w naszym Wiadomości polityczne forum. Wszyscy członkowie forum i odwiedzający witrynę mogą czytać i śledzić wątek, ale publikowanie jest ograniczone do członków forum, którzy mają co najmniej 100 postów.

Tagi: Prywatność Apple , Funkcje bezpieczeństwa Apple dla dzieci