Na początku sierpnia Apple uznało, że zdjęcia użytkowników powinny być skanowane pod kątem dziecięcej pornografii - teraz producent daje sobie więcej czasu na doszlifowanie tego systemu i zmierzenie się z licznymi zarzutami o próby naruszania prywatności użytkowników.
Apple zdecydowało się na opóźnienie wdrożenia systemu skanowania zdjęć pod kątem dziecięcej pornografii w związku z licznymi protestami, dotyczącymi potencjalnego naruszenia prywatności. Niektórzy określali to nawet jako początek wprowadzenia globalnej cenzury i nadzoru nad treściami udostępnianymi przez użytkowników. Oto fragment oświadczenia:
Based on feedback from customers, advocacy groups, researchers, and others, we have decided to take additional time over the coming months to collect input and make improvements before releasing these critically important child safety features.
Przypomnijmy, że Apple chciało wprowadzić funkcję w której zdjęcia w telefonach i tabletach, a także te, które przesyłane będą do chmury, by skanowane pod kątem zdjęć związanych z wykorzystywaniem seksualnym dzieci. Po sprawdzeniu przez pracowników Apple informacja trafiałaby do policji. Jednak chęć ochrony dzieci spotkała się z diametralnie inną reakcją - użytkownicy uznali, że to narzędzie może być początkiem infrastruktury nadzoru i cenzury.
Być może za kilka miesięcy ten temat znowu wypłynie - oświadczenie sugeruje, że Apple daje sobie kilka miesięcy na zebranie dodatkowych danych i ulepszenie systemu. Tymczasem oficjalnie ogłosił wprowadzenie nowych funkcji bezpieczeństwa dzieci w trzech głównych obszarach:
- Nowe narzędzia komunikacji, które umożliwiają rodzicom oglądanie treści, z którymi mają kontakt dzieci.
- Nowe zastosowania kryptografii w iOS i iPadOS, które ograniczą rozpowszechnianie materiałów do wykorzystywania seksualnego dzieci (Child Sexual Abuse Material, CSAM) online.
- Siri i Search poinformują rodziców o sytuacjach, gdy dzieci spróbują wyszukać tematy związane z CSAM.
Źródło: Albawaba