Nowa funkcja kontroli rodzicielskiej Apple w systemach iOS: Rodzice w Wielkiej Brytanii będą mogli wkrótce aktywować nową funkcję kontroli rodzicielskiej w iPhone’ach swoich dzieci. Jeśli nieletni otrzymają zdjęcia przedstawiające „nagość”, zostaną one zapikselowane – informuje Spiegel.
Już jesienią ubiegłego roku firma Apple chciała wprowadzić do swoich systemów operacyjnych kilka nowych funkcji kontroli rodzicielskiej. Jednak po protestach, w tym ze strony obrońców praw obywatelskich, producent iPhone’ów odłożył ten plan na czas nieokreślony. Teraz jednak pomysł powrócił i ma być realizowany na arenie międzynarodowej, początkowo stopniowo i w okrojonej formie. Jak donoszą serwisy „The Verge” i „Guardian”, nowe opcje pojawiły się już w grudniu w Stanach Zjednoczonych, a teraz dołączą do nich Wielka Brytania, Kanada, Australia i Nowa Zelandia. Sam Apple potwierdził w rozmowie z portalem Spiegel, że „w ciągu najbliższych kilku tygodni” nowa funkcja pojawi się na wyspach, a „jeszcze w tym roku w kolejnych krajach”. Na razie nie wiadomo, czy wśród nich znajdą się Niemcy.
Nowa funkcja kontroli rodzicielskiej Apple w systemach iOS
Najważniejsza nowość dotyczy aplikacji „Wiadomości” w systemach iOS, iPadOS i macOS, czyli opracowanej przez firmę Apple alternatywy – iMessage.
Jeśli rodzice zarządzają telefonem dziecka za pomocą „nadzoru rodzicielskiego”, będą mogli w przyszłości aktywować w tym miejscu nową funkcję ostrzegawczą: W przypadku gdy dziecko otrzyma zdjęcie przedstawiające „nagość” za pośrednictwem aplikacji iMessage, obraz zostanie zamazany i pojawią się przy nim opcje pomocy, w tym możliwość zablokowania kontaktu lub poinformowania innej osoby. Ponadto, jeśli dziecko spróbuje samodzielnie wysłać podobne zdjęcie, najpierw otrzyma ostrzeżenie.
>>>Przemoc wobec dzieci w Niemczech. Ciche ofiary pandemii
Według firmy Apple obrazy są skanowane wyłącznie lokalnie w telefonie iPhone. Jest to tzw. skanowanie po stronie klienta. Z opisu nie wynik jednak jasno, co zalicza się do „nagości”, a co nie. Jesienią 2021 r. mówiło się natomiast o „zdjęciach o wyraźnym kontekście seksualnym”.
Apple podobno planuje także dalsze rozwijanie funkcji w Spotlight, Safari i wyszukiwarce Siri, która wskazuje oferty pomocy w przypadku wyszukiwania terminów związanych z obrazami przedstawiającymi wykorzystywanie dzieci.
Spiegel, PolskiObserwator.de