Wiadomości Apple

Apple wprowadza nowe funkcje bezpieczeństwa dzieci, w tym skanowanie bibliotek zdjęć użytkowników w poszukiwaniu znanych materiałów związanych z wykorzystywaniem seksualnym

Czwartek 5 sierpnia 2021, 13:00 PDT, Joe Rossignol

Jabłko dzisiaj podgląd nowych funkcji bezpieczeństwa dzieci które pojawią się na jej platformach wraz z aktualizacjami oprogramowania jeszcze w tym roku. Firma poinformowała, że ​​funkcje będą dostępne w Stanach Zjednoczonych dopiero w momencie premiery i z czasem zostaną rozszerzone na inne regiony.





funkcja bezpieczeństwa komunikacji iphone

Bezpieczeństwo komunikacji

Po pierwsze, aplikacja Wiadomości na iPhonie, iPadzie i Macu otrzyma nową funkcję bezpieczeństwa komunikacji, aby ostrzegać dzieci i ich rodziców podczas odbierania lub wysyłania zdjęć o charakterze erotycznym. Apple powiedział, że aplikacja Wiadomości będzie wykorzystywać uczenie maszynowe na urządzeniu do analizowania załączników graficznych, a jeśli zdjęcie zostanie uznane za erotyczne, zdjęcie zostanie automatycznie zamazane, a dziecko zostanie ostrzeżone.



jak znaleźć etui na airpod bez strąków

Gdy dziecko spróbuje wyświetlić zdjęcie oznaczone jako poufne w aplikacji Wiadomości, zostanie ostrzeżone, że zdjęcie może zawierać prywatne części ciała i może być szkodliwe. W zależności od wieku dziecka, będzie również dostępna opcja dla rodziców, aby otrzymać powiadomienie, jeśli ich dziecko przejdzie do oglądania wrażliwego zdjęcia lub jeśli zdecyduje się wysłać zdjęcie o charakterze erotycznym do innego kontaktu po otrzymaniu ostrzeżenia.

Apple powiedział, że nowa funkcja bezpieczeństwa komunikacji pojawi się w aktualizacjach iOS 15, iPadOS 15 i macOS Monterey jeszcze w tym roku dla kont skonfigurowanych jako rodziny w iCloud. Apple zapewnił, że konwersacje iMessage pozostaną chronione za pomocą pełnego szyfrowania, dzięki czemu prywatna komunikacja będzie nieczytelna dla Apple.

Skanowanie zdjęć w poszukiwaniu materiałów związanych z wykorzystywaniem seksualnym dzieci (CSAM)

Po drugie, począwszy od tego roku od iOS 15 i iPadOS 15, Apple będzie w stanie wykrywać znane obrazy materiałów związanych z wykorzystywaniem seksualnym dzieci (CSAM) przechowywane w Zdjęciach iCloud, umożliwiając Apple zgłaszanie tych przypadków do National Center for Missing and Exploited Children (NCMEC) , organizacja non-profit, która współpracuje z amerykańskimi organami ścigania.

Apple powiedział, że jego metoda wykrywania znanych CSAM została zaprojektowana z myślą o prywatności użytkownika. Zamiast skanować obrazy w chmurze, Apple powiedział, że system wykona dopasowanie na urządzeniu do bazy danych znanych skrótów obrazów CSAM dostarczonych przez NCMEC i inne organizacje zajmujące się bezpieczeństwem dzieci. Apple powiedział, że jeszcze bardziej przekształci tę bazę danych w nieczytelny zestaw skrótów, który jest bezpiecznie przechowywany na urządzeniach użytkowników.

Według Apple technologia haszowania, zwana NeuralHash, analizuje obraz i konwertuje go na unikalny numer charakterystyczny dla tego obrazu.

„Głównym celem skrótu jest zapewnienie, że identyczne i wizualnie podobne obrazy dają ten sam skrót, podczas gdy obrazy różniące się od siebie dają różne skróty” – powiedział Apple w nowym dokumencie „Rozszerzona ochrona dla dzieci”. „Na przykład obraz, który został lekko przycięty, przeskalowany lub przekonwertowany z kolorowego na czarno-biały, jest traktowany identycznie jak oryginał i ma ten sam skrót”.

Schemat blokowy Apple Csam
Apple powiedział, że zanim obraz zostanie zapisany w Zdjęciach iCloud, przeprowadzany jest proces dopasowywania na urządzeniu dla tego obrazu z nieczytelnym zestawem znanych skrótów CSAM. W przypadku dopasowania urządzenie tworzy kryptograficzny kupon bezpieczeństwa. Ten kupon jest przesyłany do usługi Zdjęcia iCloud wraz z obrazem, a po przekroczeniu nieujawnionego progu dopasowań firma Apple może zinterpretować zawartość kuponów dotyczących dopasowań CSAM. Apple następnie ręcznie sprawdza każdy raport, aby potwierdzić, że istnieje dopasowanie, wyłącza konto iCloud użytkownika i wysyła raport do NCMEC. Apple nie udostępnia swojego dokładnego progu, ale zapewnia „niezwykle wysoki poziom dokładności”, aby konta nie były nieprawidłowo oflagowane.

Apple powiedział, że jego metoda wykrywania znanych CSAM zapewnia „znaczące korzyści w zakresie prywatności” w porównaniu z istniejącymi technikami:

• Ten system jest skutecznym sposobem identyfikacji znanych CSAM przechowywanych na kontach iCloud Photos, jednocześnie chroniąc prywatność użytkowników.
• W ramach tego procesu użytkownicy nie mogą również dowiedzieć się niczego o zestawie znanych obrazów CSAM używanych do dopasowywania. Chroni to zawartość bazy danych przed złośliwym użyciem.
• System jest bardzo dokładny, z wyjątkowo niskim poziomem błędu, wynoszącym mniej niż jedno na bilion kont rocznie.
• System znacznie bardziej chroni prywatność niż skanowanie w chmurze, ponieważ zgłasza tylko użytkowników, którzy mają kolekcję znanych CSAM przechowywaną w Zdjęciach iCloud.

Technologia leżąca u podstaw systemu Apple jest dość złożona i została opublikowana: podsumowanie techniczne więcej szczegółów.

„Rozszerzona ochrona Apple dla dzieci zmienia zasady gry. Przy tak wielu osobach korzystających z produktów Apple, te nowe środki bezpieczeństwa mogą uratować życie dzieciom, które są kuszone w Internecie i których przerażające obrazy krążą w materiałach przedstawiających wykorzystywanie seksualne dzieci” – powiedział John Clark, prezes i dyrektor generalny National Center for Missing. i wykorzystywane dzieci. „W Krajowym Centrum Dzieci Zaginionych i Wykorzystywanych wiemy, że tę zbrodnię można zwalczać tylko wtedy, gdy jesteśmy niezłomni w naszym zaangażowaniu w ochronę dzieci. Możemy to zrobić tylko dlatego, że partnerzy technologiczni, tacy jak Apple, robią krok naprzód i ujawniają swoje zaangażowanie. W rzeczywistości prywatność i ochrona dzieci mogą współistnieć. Gratulujemy Apple i nie możemy się doczekać współpracy, aby uczynić ten świat bezpieczniejszym miejscem dla dzieci”.

Rozszerzone wskazówki CSAM w Siri i wyszukiwarce

iphone csam siri
Po trzecie, Apple poinformowało, że rozszerzy wytyczne dotyczące Siri i Spotlight Search na różnych urządzeniach, zapewniając dodatkowe zasoby, aby pomóc dzieciom i rodzicom zachować bezpieczeństwo w Internecie i uzyskać pomoc w niebezpiecznych sytuacjach. Na przykład użytkownicy, którzy zapytają Siri, w jaki sposób mogą zgłosić CSAM lub wykorzystywanie dzieci, zostaną skierowani do zasobów dotyczących tego, gdzie i jak złożyć zgłoszenie.

Według Apple aktualizacje Siri i Search pojawią się jeszcze w tym roku w aktualizacji iOS 15, iPadOS 15, watchOS 8 i macOS Monterey.

Uwaga: ze względu na polityczny lub społeczny charakter dyskusji na ten temat, wątek dyskusji znajduje się w naszym Wiadomości polityczne forum. Wszyscy członkowie forum i odwiedzający witrynę mogą czytać i śledzić wątek, ale publikowanie jest ograniczone do członków forum, którzy mają co najmniej 100 postów.

Tagi: Prywatność Apple , Funkcje bezpieczeństwa Apple dla dzieci