Wiadomości Apple

Badacze bezpieczeństwa wyrażają zaniepokojenie planami Apple dotyczącymi skanowania obrazów iCloud, ale praktyka jest już powszechna

Czwartek 5 sierpnia 2021 14:04 PDT przez Juli Clover

jabłko dzisiaj ogłoszone że wraz z uruchomieniem iOS 15 oraz iPad 15 , rozpocznie skanowanie Zdjęcia iCloud w Stanach Zjednoczonych w celu poszukiwania znanych materiałów dotyczących wykorzystywania seksualnego dzieci (CSAM), z planami zgłoszenia wyników do National Center for Missing and Exploited Children (NCMEC).





Funkcja bezpieczeństwa dzieci
Zanim Apple szczegółowo przedstawił swoje plany, wyciekły wiadomości o inicjatywie CSAM, a badacze bezpieczeństwa już zaczęli wyrażać obawy dotyczące tego, jak nowy protokół skanowania obrazów Apple może być używany w przyszłości, jak zauważył Czasy finansowe .

Apple używa systemu „NeuralHash” do porównywania znanych obrazów CSAM ze zdjęciami użytkownika iPhone zanim zostaną przesłane do iCloud . Jeśli jest dopasowanie, zdjęcie jest przesyłane z kuponem bezpieczeństwa kryptograficznego, a po osiągnięciu pewnego progu uruchamiany jest przegląd, aby sprawdzić, czy dana osoba ma CSAM na swoich urządzeniach.



iPhone 12 lub 12 pro max

W chwili obecnej Apple używa swojej technologii skanowania i dopasowywania obrazów do poszukiwania wykorzystywania dzieci, ale naukowcy obawiają się, że w przyszłości może zostać przystosowany do skanowania innych rodzajów obrazów, które są bardziej niepokojące, takich jak znaki antyrządowe na protesty.

W serii tweetów badacz kryptografii Johns Hopkins Mateusz Green powiedział, że skanowanie CSAM to „naprawdę zły pomysł”, ponieważ w przyszłości może rozszerzyć się na skanowanie zaszyfrowanych zdjęć typu end-to-end, a nie tylko treści przesyłanych do ‌iCloud‌. Dla dzieci, Apple jest wdrożenie oddzielnej funkcji skanowania, która wyszukuje treści o charakterze erotycznym bezpośrednio w iMessages, które są szyfrowane od końca do końca.

Green zgłosił również obawy dotyczące skrótów, które Apple planuje wykorzystać, ponieważ potencjalnie mogą wystąpić „kolizji”, w której ktoś wysyła nieszkodliwy plik, który dzieli skrót z CSAM i może spowodować fałszywą flagę.

Apple ze swojej strony twierdzi, że jego technologia skanowania ma „niezwykle wysoki poziom dokładności”, aby upewnić się, że konta nie są nieprawidłowo oznaczane, a raporty są ręcznie sprawdzane przed ‌iCloud‌ konto jest wyłączone, a raport jest wysyłany do NCMEC.

Green uważa, że ​​wdrożenie Apple zmusi inne firmy technologiczne do przyjęcia podobnych technik. „To zniszczy tamę” – napisał. „Rządy będą tego wymagać od wszystkich”. Porównał tę technologię do 'narzędzi stosowanych przez represyjne reżimy'.


Badacz bezpieczeństwa Alec Muffett, który wcześniej pracował w Facebooku, powiedział, że decyzja Apple o wdrożeniu tego rodzaju skanowania obrazów była „ogromnym i regresywnym krokiem w kierunku prywatności”. „Apple wraca do prywatności, aby umożliwić rok 1984”, powiedział.

Ross Anderson, profesor inżynierii bezpieczeństwa na Uniwersytecie w Cambridge, powiedział, że nazwał to „absolutnie przerażającym pomysłem”, który może prowadzić do „rozproszonego masowego nadzoru” urządzeń.

Jak wielu wskazało na Twitterze, wiele firm technologicznych już skanuje obrazy dla CSAM. Google, Twitter, Microsoft, Facebook i inne używają metod mieszania obrazów, aby wyszukiwać i zgłaszać znane obrazy przedstawiające wykorzystywanie dzieci.


Warto również zauważyć, że Apple było już skanowanie niektórych treści zdjęć przedstawiających wykorzystywanie dzieci przed wprowadzeniem nowej inicjatywy CSAM. W 2020 r. dyrektor Apple ds. ochrony prywatności, Jane Horvath, powiedziała, że ​​firma Apple wykorzystała technologię przesiewową do wyszukiwania nielegalnych obrazów, a następnie wyłącza konta, jeśli zostaną wykryte dowody CSAM.

jak usunąć konto Apple ID?

Apple w 2019 roku zaktualizował swoją politykę prywatności należy zauważyć, że przeskanuje przesłane treści pod kątem „potencjalnie nielegalnych treści, w tym materiałów związanych z seksualnym wykorzystywaniem dzieci”, więc dzisiejsze ogłoszenia nie są całkowicie nowe.

Uwaga: ze względu na polityczny lub społeczny charakter dyskusji na ten temat, wątek dyskusji znajduje się w naszym Wiadomości polityczne forum. Wszyscy członkowie forum i odwiedzający witrynę mogą czytać i śledzić wątek, ale publikowanie jest ograniczone do członków forum, którzy mają co najmniej 100 postów.

Tagi: Prywatność Apple , Funkcje bezpieczeństwa Apple dla dzieci