jabłko dzisiaj ogłoszone że wraz z uruchomieniem iOS 15 oraz iPad 15 , rozpocznie skanowanie Zdjęcia iCloud w Stanach Zjednoczonych w celu poszukiwania znanych materiałów dotyczących wykorzystywania seksualnego dzieci (CSAM), z planami zgłoszenia wyników do National Center for Missing and Exploited Children (NCMEC).
Zanim Apple szczegółowo przedstawił swoje plany, wyciekły wiadomości o inicjatywie CSAM, a badacze bezpieczeństwa już zaczęli wyrażać obawy dotyczące tego, jak nowy protokół skanowania obrazów Apple może być używany w przyszłości, jak zauważył Czasy finansowe .
Apple używa systemu „NeuralHash” do porównywania znanych obrazów CSAM ze zdjęciami użytkownika iPhone zanim zostaną przesłane do iCloud . Jeśli jest dopasowanie, zdjęcie jest przesyłane z kuponem bezpieczeństwa kryptograficznego, a po osiągnięciu pewnego progu uruchamiany jest przegląd, aby sprawdzić, czy dana osoba ma CSAM na swoich urządzeniach.
iPhone 12 lub 12 pro max
W chwili obecnej Apple używa swojej technologii skanowania i dopasowywania obrazów do poszukiwania wykorzystywania dzieci, ale naukowcy obawiają się, że w przyszłości może zostać przystosowany do skanowania innych rodzajów obrazów, które są bardziej niepokojące, takich jak znaki antyrządowe na protesty.
W serii tweetów badacz kryptografii Johns Hopkins Mateusz Green powiedział, że skanowanie CSAM to „naprawdę zły pomysł”, ponieważ w przyszłości może rozszerzyć się na skanowanie zaszyfrowanych zdjęć typu end-to-end, a nie tylko treści przesyłanych do iCloud. Dla dzieci, Apple jest wdrożenie oddzielnej funkcji skanowania, która wyszukuje treści o charakterze erotycznym bezpośrednio w iMessages, które są szyfrowane od końca do końca.
Green zgłosił również obawy dotyczące skrótów, które Apple planuje wykorzystać, ponieważ potencjalnie mogą wystąpić „kolizji”, w której ktoś wysyła nieszkodliwy plik, który dzieli skrót z CSAM i może spowodować fałszywą flagę.
Apple ze swojej strony twierdzi, że jego technologia skanowania ma „niezwykle wysoki poziom dokładności”, aby upewnić się, że konta nie są nieprawidłowo oznaczane, a raporty są ręcznie sprawdzane przed iCloud konto jest wyłączone, a raport jest wysyłany do NCMEC.
Green uważa, że wdrożenie Apple zmusi inne firmy technologiczne do przyjęcia podobnych technik. „To zniszczy tamę” – napisał. „Rządy będą tego wymagać od wszystkich”. Porównał tę technologię do 'narzędzi stosowanych przez represyjne reżimy'.
To są złe rzeczy. Nieszczególnie chcę być po stronie pornografii dziecięcej i nie jestem terrorystą. Problem polega jednak na tym, że szyfrowanie jest potężnym narzędziem zapewniającym prywatność, a tak naprawdę nie można mieć silnej prywatności, jednocześnie monitorując każdy wysłany obraz. — Matthew Green (@matthew_d_green) 5 sierpnia 2021
Badacz bezpieczeństwa Alec Muffett, który wcześniej pracował w Facebooku, powiedział, że decyzja Apple o wdrożeniu tego rodzaju skanowania obrazów była „ogromnym i regresywnym krokiem w kierunku prywatności”. „Apple wraca do prywatności, aby umożliwić rok 1984”, powiedział.
Ross Anderson, profesor inżynierii bezpieczeństwa na Uniwersytecie w Cambridge, powiedział, że nazwał to „absolutnie przerażającym pomysłem”, który może prowadzić do „rozproszonego masowego nadzoru” urządzeń.
Jak wielu wskazało na Twitterze, wiele firm technologicznych już skanuje obrazy dla CSAM. Google, Twitter, Microsoft, Facebook i inne używają metod mieszania obrazów, aby wyszukiwać i zgłaszać znane obrazy przedstawiające wykorzystywanie dzieci.
A jeśli zastanawiasz się, czy Google skanuje obrazy pod kątem wykorzystywania dzieci, odpowiedziałem, że w historii, którą napisałem osiem lat temu: robi to **OD 2008 ROKU**. Może wszyscy usiądą i włożą z powrotem kapelusze. pic.twitter.com/ruJ4Z8SceY - Karol Artur (@charlesarthur) 5 sierpnia 2021
Warto również zauważyć, że Apple było już skanowanie niektórych treści zdjęć przedstawiających wykorzystywanie dzieci przed wprowadzeniem nowej inicjatywy CSAM. W 2020 r. dyrektor Apple ds. ochrony prywatności, Jane Horvath, powiedziała, że firma Apple wykorzystała technologię przesiewową do wyszukiwania nielegalnych obrazów, a następnie wyłącza konta, jeśli zostaną wykryte dowody CSAM.
jak usunąć konto Apple ID?
Apple w 2019 roku zaktualizował swoją politykę prywatności należy zauważyć, że przeskanuje przesłane treści pod kątem „potencjalnie nielegalnych treści, w tym materiałów związanych z seksualnym wykorzystywaniem dzieci”, więc dzisiejsze ogłoszenia nie są całkowicie nowe.
Uwaga: ze względu na polityczny lub społeczny charakter dyskusji na ten temat, wątek dyskusji znajduje się w naszym Wiadomości polityczne forum. Wszyscy członkowie forum i odwiedzający witrynę mogą czytać i śledzić wątek, ale publikowanie jest ograniczone do członków forum, którzy mają co najmniej 100 postów.
Tagi: Prywatność Apple , Funkcje bezpieczeństwa Apple dla dzieci
Popularne Wiadomości