Wielka Brytania – Platformy muszą ograniczyć toksyczne algorytmy, by chronić dzieci w Internecie. Brytyjski regulator szykuje rewolucję w zakresie bezpieczeństwa dzieci.
Ofcom, organ regulacyjny i ochrony konkurencji z Wielkiej Brytanii, opublikował kompleksowy plan działania mający na celu zwiększenie bezpieczeństwa dzieci w Internecie (Children’s Safety Codes of Practice). Raport zawiera ponad 40 praktycznych kroków, które muszą podjąć platformy, aby zapewnić dzieciom większe bezpieczeństwo. Obejmują one wdrożenie wiarygodnych środków do weryfikacji wieku, aby zapobiec dostępowi do szkodliwych treści, takich jak samobójstwa, samookaleczenia i pornografia. Platformy muszą dostosować algorytmy do filtrowania lub obniżania rangi szkodliwych treści i wprowadzić skuteczne systemy moderacji. Ofcom odnosi się również do ustawy o bezpieczeństwie online (online safety Bill), która nakłada ścisłą odpowiedzialność za usługi, do których dostęp mają dzieci, wymagając od nich oceny ryzyka i wdrożenia odpowiednich środków bezpieczeństwa. Proponowane środki mają na celu wzmocnienie pozycji dzieci i rodziców przy jednoczesnym ustaleniu globalnych standardów bezpieczeństwa w Internecie. Przepisy, które są przedmiotem konsultacji, mają na celu egzekwowanie wyższego standardu ochrony dzieci w Internecie, a firmy nieprzestrzegające przepisów będą musiały przygotować się na wysokie kary.
Bezpieczeństwo od momentu projektowania usługi
Podsumowując, projekt kodeksu bezpieczeństwa dzieci – który idzie znacznie dalej niż obecna praktyka branżowa – wymaga od firm technologicznych radykalnej zmiany w sposobie ochrony dzieci w Wielkiej Brytanii w Internecie. Rekomendacje wskazują że platformy by chronić dzieci muszą zostać przeprojektowane, a wybory funkcji stać się znacznie prostsze i bezpieczniejsze dla użytkowników.
Ofcom oczekuje, że platformy:
1. Bedą przeprowadzać wiarygodną kontrolę wieku, aby uniemożliwić dzieciom dostęp do szkodliwych treści
Projekt zakłada znacznie większego wykorzystania wysoce skutecznej weryfikacji wieku, aby platformy wiedziały, którzy z ich użytkowników są dziećmi, aby zapewnić im większe bezpieczeństwo.
W praktyce oznacza to, że wszystkie serwisy, które nie zakazują udostępniania szkodliwych treści, a także te, które są bardziej narażone na ryzyko ich udostępniania, będą musiały wdrożyć wysoce skuteczne kontrole wieku, aby uniemożliwić dzieciom ich oglądanie. W niektórych przypadkach będzie to oznaczać uniemożliwienie dzieciom dostępu do całej witryny lub aplikacji. W innych może to oznaczać ograniczenie wiekowe części witryny lub aplikacji tylko dla dorosłych lub ograniczenie dostępu dzieci do zidentyfikowanych szkodliwych treści.
Jak Ofcom rozumie wiarygodną weryfikację wieku? To wszelkie techniczne narzędzia które są dokładne, solidne, niezawodne i uczciwe. Przykładem metody weryfikacji wieku, która może być wysoce skuteczna jeśli spełnia powyższe kryteria, obejmuje photo-id matching (porównanie twarzy z fotografią w legitymacji, dowodzie czy paszporcie), szacowanie wieku twarzy (facial age estimation) czy użycie usług cyfrowej tożsamości (coś podobnego do mObywatel w Polsce, a w przyszłości Cyfrowy Portfel). Przykładem metody weryfikacji wieku, która nie mogą być wysoce skuteczna, jest metoda weryfikacji wieku na bazie płatności, która nie wymaga od użytkownika ukończenia 18 roku życia. Podobnie jak samodzielna deklaracja wieku i ogólne ograniczenia umowne czy deklaratywne dotyczące korzystania z usługi przez dzieci.
2. Bedą upewniać się, że algorytmy rekomendujące treści nie działają w sposób szkodliwy dla dzieci.
Systemy rekomendacji – algorytmy, które zapewniają spersonalizowane rekomendacje dla użytkowników – są głównym narzędziem do wyrządzenia krzywdy dzieciom w Internecie. Algorytmy pozostawione bez kontroli, mogą spowodować wyświetlanie dużych ilości niechcianych i niebezpiecznych treści dzieciom w ich spersonalizowanych kanałach informacyjnych lub na stronach “Dla Ciebie”. Skumulowany efekt oglądania szkodliwych treści może mieć katastrofalne konsekwencje.
Zgodnie z propozycjami Ofcom, każda usługa, która obsługuje system rekomendacji i jest bardziej narażona na szkodliwe treści, musi również korzystać z metod o wysokiej skuteczności sprawdzenia wieku, aby zidentyfikować, kim są ich nieletni użytkownicy. Następnie dostawcy usług muszą skonfigurować swoje algorytmy tak, aby odfiltrowywały najbardziej szkodliwe treści z kanałów tych dzieci oraz zmniejszały widoczność i znaczenie innych szkodliwych treści.
Dzieci muszą mieć również możliwość przekazywania negatywnych opinii bezpośrednio do kanału rekomendacji, aby mógł on lepiej dowiedzieć się, jakich treści nie chcą oglądać.
3. Wprowadzą lepszą moderację treści szkodliwych dla dzieci.
Wszelkie dowody wskazują, że szkodliwe treści są dla dzieci dostępne w wielu usługach na masową skalę, co sugeruje, że obecne działania platform mających na celu moderowanie szkodliwych treści jest niewystarczające.
W okresie czterech tygodni 62% dzieci w wieku 13-17 lat zgłosiło w Wielkiej Brytanii, że spotkało się ze szkodliwymi treściami w Internecie, ale wiele z nich uważa to za “nieuniknioną” część ich życia online. Badania Ofcom sugerują, że narażenie na brutalne i złe treści zaczyna się w szkole podstawowej. Dzieci, które napotykają treści promujące samobójstwo lub samookaleczenie, wskazują że skala tego typu informacji rośnie. Masowa ekspozycja na tego typu treści powoduje też znieczulenie i obojętność na krzywdę.
Zgodnie z projektem kodeksu proponowanym przez Ofcom wszystkie usługi muszą mieć systemy i procesy moderowania treści, które zapewniają szybkie podejmowanie działań przeciwko treściom szkodliwym dla dzieci. Oczekuje się, że wyszukiwarki podejmą podobne działania – a w przypadku, gdy uważa się, że użytkownik jest dzieckiem, znane wyszukiwarki muszą wdrożyć ustawienie “bezpiecznego wyszukiwania”, którego nie można wyłączyć, aby odfiltrować najbardziej szkodliwe treści.
W innych rekomendacjach wymaga się od platform jasnych zasad dotyczących tego, jakie treści są dozwolone, w jaki sposób treści są traktowane priorytetowo do przeglądu, a zespoły moderujące treści muszą być dobrze wyposażone i przeszkolone.
Ofcom rozpocznie dodatkowe konsultacje jeszcze w tym roku na temat tego, w jaki sposób sztuczna inteligencja, może być wykorzystywane do proaktywnego wykrywania nielegalnych treści i treści najbardziej szkodliwych dla dzieci – w tym wcześniej niewykrytych materiałów przedstawiających seksualne wykorzystywanie dzieci oraz treści zachęcających do samobójstwa i samookaleczenia.
Większa odpowiedzialność platform i wsparcie dla dzieci i rodziców
Projekt Ofcom obejmuje również środki mające na celu zapewnienie silnego nadzoru nad bezpieczeństwem dzieci w firmach technologicznych. Obejmują one wyznaczenie osoby odpowiedzialnej za przestrzeganie obowiązków w zakresie bezpieczeństwa dzieci; coroczny przegląd wszystkich działań związanych z zarządzaniem ryzykiem w zakresie bezpieczeństwa dzieci; oraz kodeks postępowania pracowników, który określa standardy dla pracowników w zakresie ochrony dzieci.
Szereg innych proponowanych środków bezpieczeństwa koncentruje się na zapewnieniu większego wyboru i wsparcia dla dzieci i dorosłych, którzy się nimi opiekują. Obejmują one posiadanie jasnych i dostępnych warunków świadczenia usług oraz upewnienie się, że dzieci mogą łatwo zgłaszać treści i składać skargi.
Należy również zapewnić narzędzia wsparcia, aby dać dzieciom większą kontrolę nad ich interakcjami online – takie jak opcja odrzucania zaproszeń do grup, blokowania i wyciszania kont użytkowników lub wyłączania komentarzy do własnych postów.
Ofcom chce ustalić standard ochrony dzieci w internecie
Głosy dzieci były podstawą podejścia Ofcom do zaprojektowania kodeksu działania platform. W ciągu ostatnich 12 miesięcy ofcom usłyszał od ponad 15,000 młodych ludzi o ich życiu online oraz przeprowadzono rozmowy z ponad 7,000 rodzicami, a także profesjonalistami pracującymi z dziećmi. W ramach procesu konsultacji prowadzono serię ukierunkowanych dyskusji z dziećmi z całej Wielkiej Brytanii, aby poznać ich opinie na temat propozycji działania w bezpiecznym środowisku. Ofcom chce również usłyszeć komentarz od innych grup, w tym rodziców i opiekunów, branży technologicznej i organizacji społeczeństwa obywatelskiego – takich jak organizacje charytatywne i specjaliści zaangażowani w ochronę i promowanie interesów dzieci.
Odpowiedzi na konsultacje należy przesłać do 17 lipca 2024 roku. Ofcom spodziewa się opublikować ostateczny kodeks postępowania w zakresie bezpieczeństwa dzieci w ciągu najbliższego roku. Następnie platformy będą miały trzy miesiące na przeprowadzenie oceny ryzyka dla dzieci, biorąc pod uwagę wytyczne, które opublikował Ofcom w wersji roboczej. Po zatwierdzeniu kodeksu przez Parlament, kodeks zachowania platform wejdzie w życie i będzie mógł być egzekwowany.
Dostępny jest “krótki przewodnik” po propozycjach konsultacyjnych Ofcom, wraz z podsumowaniem proponowanych przez Ofcom środków. Umieszczam też link PDF.
W mojej ocenie wyżej opisany projekt to świetny pomysł na Polską Prezydencję w Unii Europejskiej w zakresie cyfryzacji. Można to połączyć z działaniami Prezydenta Macrona i szukać sojuszników, którzy chcą ochronić dzieci w Internecie.
Na koniec zachęcam też do zapoznania się z artykułem pt “Rząd Brytyjski wprowadza niewiążące zalecenia dla szkół celem ograniczenia smartfonów w szkołach“
Comments
Leave a Comment