Organizator
Fundacja Nowoczesna Polska
Avatar

Stanowisko: bezprawne treści w internecie

16 kwietnia 2018 12:57
Krzysztof Siewicz

Jeszcze tylko do dziś można przesyłać Ministerstwu Cyfryzacji stanowiska w konsultacjach Zaleceń Komisji Europejskiej dotyczącego walki z bezprawnymi treściami w Internecie. Poniżej publikujemy nasze stanowisko.

Ministerstwo zadało internautom 6 pytań, m.in. o „zaufanych sygnalistów”, anonimowość oraz zakres sprawozdawczości usługodawców. W Fundacji Nowoczesna Polska uważamy, że poza odpowiedzią na te pytania konieczne jest przeprowadzenie pogłębionej dyskusji o bardziej ogólnych zasadach organizacji internetu, a zwłaszcza roli pośredników. W naszej opinii taka dyskusja powinna czerpać m.in. z materiałów przygotowanych w ramach prac the Electronic Frontier Foundation, gdzie postuluje się zwiększanie transparentności „platform” w zakresie informowania użytkowników kto i jak decyduje o prezentowanych im treściach, zarówno od strony obowiązków sprawozdawczych wobec państwa, jak i od strony udostępniania tej informacji użytkownikom wraz z narzędziami pomagającymi im samemu to kontrolować.

1. W jaki sposób działania podejmowane przez dostawców usług hostingowych w zakresie skutecznego zwalczania nielegalnych treści w Internecie, powinny wpływać na wyłączenie ich odpowiedzialności (art. 14 Dyrektywy 2000/31/WE)?

W powyższym pytaniu zawarto dwa bardzo upraszczające założenia, których wyjaśnienie jest niezbędne dla udzielenia pełnej odpowiedzi. Pierwsze z nich zakłada istnienie „nielegalnych treści”, a drugie zakłada istnienie konsensusu co do znaczenia pojęcia „dostawcy usług hostingowych”.

Pojęcia „nielegalnych treści” i „treści o charakterze terrorystycznym” używane w zaleceniach nie są ścisłe i utrudniają ustalenie właściwego sposobu postępowania. Treści same w sobie nie są nielegalne (ani terrorystyczne). Zwykle nielegalne jest jedynie określone działanie podejmowane w związku z określoną treścią (publikowanie jej, namawianie do określonego działania/zaniechania za pomocą treści, wykorzystanie treści do wprowadzania w błąd itd.). Legalność zależy zatem od kontekstu wykorzystania treści, a jedynie w wyjątkowych przypadkach każde lub większość działań związanych z treścią będą nielegalne (np. wtedy, gdy kulturowy kontekst określonej treści uzasadnia jej całkowitą delegalizację, czego przykładem jest funkcjonujący w Niemczech zakaz wydawania „Mein Kampf”). Podejście, według którego nielegalne są treści, a nie związane z nimi działania prowadzi do pomijania kontekstu, w jakim treści funkcjonują i powoduje, że projektowane są mechanizmy zwalczania treści, a nie samych działań. To z kolei powoduje, że mechanizmy te są z góry podatne na tzw. „overblocking”, czyli niesłuszne zwalczanie treści, których kontekst jest neutralny lub wręcz pożądany.

Założenie istnienia treści nielegalnych samych w sobie doprowadziło autorów zaleceń do zbyt optymistycznej wizji co do możliwości ich automatycznego blokowania (pkt 18, 19 i 20 zaleceń) oraz propozycji procedury zgłaszania naruszeń zbytnio faworyzującej zgłaszających kosztem „dostawców treści”. Proponowana procedura automatycznego blokowania zakłada ocenę kontekstu jedynie w niektórych przypadkach. Zgodnie z pkt 20 in fine kontekst ma być wtedy badany przez „ludzi”, bez żadnych gwarancji co do bezstronności i kompetencji tych osób. Powinno być natomiast jasno stwierdzone, że badanie kontekstu musi następować zawsze (choć w niektórych przypadkach może nie wymagać specjalistycznej wiedzy), a dokonywać tego powinny jedyne zdolne do tego w demokratycznym państwie prawnym organy, czyli sądy (choć w niektórych przypadkach może to być kontrola następcza, tj. po wstępnym zablokowaniu na wniosek organów ściagania bądź wyjątkowo zaufanych sygnalistów). Ale nawet wtedy procedura nie powinna polegać na ocenie legalności samych treści, lecz właśnie działań z tymi treściami związanymi, a w konsekwencji prowadzić do zaniechania, usunięcia skutków, ścigania itd. sprawców działań. Może wiązać się z blokowaniem dostępu do treści, ale nie jest to ani wystarczające, ani konieczne działanie.

Na marginesie, kolejnym nieporozumieniem terminologicznym jest powtarzane w wielu miejscach zaleceń sformułowanie „usuwanie treści”. Powoduje to wręcz zabawne konsekwencje, gdy w pkt 12 mowa jest o „cofnięciu decyzji o usunięciu” – co pokazuje, że chodzi tak naprawdę o usuwanie lecz tylko o blokowanie dostępu. Należy w każdym razie jasno określić w zaleceniach, że żadne treści nie powinny być usuwane, a pomimo zablokowania powinny być dostępne co najmniej na potrzeby takie jak statystyki i badania naukowe – obowiązek zachowywania takich treści na te potrzeby powinien zostać wyraźnie dodany do zaleceń. Generalnie, poza skrajnymi przypadkami, zmiana kontekstu treści legalizuje jej wykorzystanie, więc w wiekszości przypadków ich usuwanie lub całkowite blokowanie nie jest właściwym rozwiązaniem.

Zalecenia przewidują blokowanie (usuwanie) treści po otrzymaniu zawiadomienia i następcze informowanie o tym dostawcy, który może wtedy złożyć sprzeciw. Jest to kolejna podatność tych procedur na „overblocking”. Co więcej, według zaleceń w „oczywistych” przypadkach dostawca w ogóle nie otrzyma informacji o zablokowaniu (pkt 10), a co za tym idzie w praktyce będzie miał bardzo ograniczoną możliwość zgłaszania sprzeciwu, dochodzenia innych roszczeń. Taka procedura jest bardzo niekorzystna dla dostawców treści, którzy niesłusznie zostaną zablokowani, a ponadto stawia usługodawcę w roli prywatnego cenzora.

Prawo sprzeciwu nie jest tu wystarczające – decyzja w sprawie sprzeciwu zajmuje czas, więc w wielu przypadkach możliwość sprzeciwu w żaden sposób nie zadośćuczyni negatywnym skutkom niesłusznego blokowania. Pamiętajmy, że zwłaszcza w internecie, dostępność aktualnej informacji jest istotna, więc niesłuszne zablokowanie informacji będzie w większości przypadków prowadziło do uszczerbku, którego nie da się naprawić przez późniejsze odblokowanie informacji. Ponadto, prawo do sprzeciwu jest iluzoryczne. W praktyce sprzeciw wymagać będzie poniesienia określonych nakładów (w tym np. konsultacji prawnych). Nie wszyscy dostawcy treści mogą łatwo ponieść te nakłady. Co więcej, sprzeciw polega na udowadnianiu, że dana treść nie jest nielegalna, co jest odwróceniem ogólnej zasady ciężaru dowodu nie wspominając już o logicznej niemożliwości przeprowadzenia dowodu negatywnego.

Z kolei oddanie decyzji o blokowaniu w ręce usługodawcy, w reakcji na zgłoszenie kierowane praktycznie przez kogokolwiek powoduje, że nawet legalna treść może spotkać się z blokadą, a bezstronna ocena sytuacji zostanie jeszcze dalej odsunięta w czasie lub w ogóle wyłączona (z uwagi np. na jurysdykcję i prawo właściwe). Powoduje to też sytuację, w której usługodawcy, chcąc uniknąć ponoszenia nakładów na rzetelne rozpoznawanie zgłoszeń i sprzeciwów zdecydują się blokować treści niespełniające ich własnych kryteriów, a nie tylko tych, które związane są z naruszeniami powszechnie obowiązującego prawa.

W przypadku automatycznego blokowania treści (o którym mowa w pkt 18) skorzystanie ze sprzeciwu może być w ogóle niemożliwe. Skoro przecież treść zostanie automatycznie zablokowana zanim zostanie opublikowana, to w ogóle nie dojdzie do procedury opisanej w pkt 9 i nast. Co więcej, enigmatyczna wzmianka w pkt 19 „bez uszczerbku dla warunków świadczenia usług” otwiera usługodawcom pole do wprowadzania dowolnego automatycznego filtrowania wszędzie tam, gdzie zechcą to zrobić zgodnie ze swoim regulaminem (czyli ponad to, co wymaga prawo, dla własnej wygody i oszczędności). Spowoduje ono dalsze pogorszenie pozycji dostawców niesłusznie blokowanych wiadomości, którzy w obliczu iluzoryczności możliwości sprzeciwu będą raczej dostosowywać swoje działania tak, aby przejść przez automatyczne filtry. Jest to zatem prosta droga do wprowadzenia automatycznie kontrolowanej listy dozwolonych tematów i opinii, a kontrola nad zawartością tej listy zostanie oddana w prywatne ręce.

KE zdecydowanie nie powinna zachęcać (a tym bardziej wymagać) od usługodawców stosowania automatycznych, prywatnych filtrów. Wszelkie narzędzia ułatwiające zidentyfikowanie nielegalnej działalności związane z treściami powinny być poddane społecznej kontroli.

W związku z powyższym, proponowana w zaleceniach procedura powinna zostać gruntownie przebudowana, w celu wprowadzenia większej równowagi pomiędzy wszystkimi zaangażowanymi stronami. Zablokowanie treści przez usługodawcę powinno mieć miejsce jedynie wtedy, gdy nielegalne działanie związane z treścią jest oczywiste, a wszelkie sposoby ustalania oczywistości powinny podlegać kontroli sądu (uprzedniej, a w szczególnych przypadkach następczej, tj. wtedy gdy zgłaszającym jest organ państwowy lub zaufany sygnalista, o czym jednak poniżej). Natomiast wszędzie tam, gdzie naruszenie prawa nie jest oczywiste (czyli, gdy zgłaszający nie ma statusu pozwalającego przyznać mu szczególne społeczne zaufanie), usługodawca nie powinien samodzielnie decydować o blokowaniu, a jedynie informować dostawcę treści o otrzymanym zgłoszeniu, pozostawiając zablokowanie treści jego decyzji, a ostatecznie decyzji sądu. Wtedy bowiem dopiero będzie też możliwość skutecznego przeciwdziałania nadużyciom przy zgłoszeniach (o czym obecnie bardzo enigmatycznie wspomina pkt 21).

Osobnym problemem jest kwestia wyłączenia odpowiedzialności dostawców usług hostingowych. Istniejące od kilkunastu lat rozwiązanie, zawarte w art. 14 Dyrektywy 2000/31/WE zaprojektowano w czasach, w których wiele obecnych usług nie istniało, lub było w początkowej fazie rozwoju. Art. 14 był projektowany z myślą o „klasycznej” usłudze hostingowej, podczas gdy obecnie mechanizm ten jest wykorzystywany także przez rozmaitych innych usługodawców. Zamiast rzetelnej oceny rzeczywistości i zasadności dalszego stosowania art. 14 prowadzi się jednak działania takie jak wydawanie konsultowanych zaleceń lub wprowadzanie obowiązku filtrowania (art. 13 projektowanej dyrektywy o prawie autorskim w jednolitym rynku cyfrowym, zawierający karkołomne konstrukcje prawne usiłujące zachować wyłączenie odpowiedzialności a jednocześnie wyłączyć je).

Nie należy wobec tego pytać, jak zastosowanie zaleceń ma wpłynąć na wyłączenie odpowiedzialności, lecz podjąć odważną dyskusję nad kształtem samego wyłączenia odpowiedzialności i dostosowaniem go do obecnej rzeczywistości cyfrowej, w której podmioty powołujące się na nie zdecydowanie nie świadczą „klasycznych” usług hostingowych. Nie oznacza to jeszcze oczywiście, że odpowiedzialność tych usługodawców nie może być wyłączona lub ograniczona, jednak nie może ona być regulowana przez rozwiązanie zaprojektowane dla innych usług. Niewątpliwie jednak duże tzw. „platformy” pośredniczące w komunikacji przestały już dawno pełnić rolę wyłącznie podmiotów prywatnych – dostarczane przez nie usługi należałoby postrzegać przez pryzmat usług publicznych, co powinno pociągać za sobą konieczność zapewnienia większej przejrzystości i rozliczalności wobec społeczeństwa, a także większej społecznej kontroli. Tym bardziej oznacza to, że decyzje o zwalczaniu określonych treści nie powinny znajdować się w rękach „platform”, lecz państwa i odpowiednich jego organów.

2. W jaki sposób należy określić przez dostawców usług hostingowych warunki i kryteria uznania zaufanych podmiotów tzw.„trusted flaggers”, aby osiągnąć pluralizm podmiotów?

Zaufane podmioty sygnalizujące (pkt 25 i nast.) powinny być wybierane w transparentnej procedurze, nadzorowanej zgodnie z zasadami demokratycznego państwa prawnego i z możliwością odebrania statusu podmiotowi, który go nadużywa lub nie spełnia kryteriów. Podmioty te powinny wykazać się stosownym potencjałem i doświadczeniem. Państwa członkowskie powinny też przeznaczyć stosowne środki na wsparcie ich funkcjonowania, a jednocześnie wymagać od tych podmiotów rozliczenia się z ich wykorzystania. Powinien ponadto istnieć organ nadzorczy lub kontrolny, ze stosownymi uprawnieniami władczymi w stosunku do zaufanych sygnalistów.

Zaufani sygnaliści nie powinni mieć legitymacji do działania w odniesieniu do treści dowolnego rodzaju. Powinna ona korespondować ze specyfiką działalności danego sygnalisty i z wynikającym z tego doświadczeniem oraz kompetencjami. Społeczne zaufanie powinno być udzielane sygnalistom specjalizującym się w określonych tematach, związanych naruszeniami o szczególnej społecznie wadze, takich jak np. mowa nienawiści, pornografia dziecięca, a nie kwestiami związanymi wyłącznie z interesem prywatnym.

Nawet w przypadku wprowadzenia zaufanych sygnalistów, prawa użytkowników przeciwdziałające nieuzasadnionemu blokowaniu treści powinny być zagwarantowane.

3. Czy w sytuacji występowania nielegalnych treści w Internecie jest możliwa skuteczna ochrona, jeśli mamy do czynienia z anonimowym zawiadomieniem i na jakim etapie powinno być ono zgłaszane? W jaki sposób zapobiegać nadużywaniu składania zawiadomień?

Gwarancje anonimowości zgłaszających postulowane w pkt 7 zaleceń to dobre rozwiązanie, a zapobieganie nadużywaniu składania zawiadomień to problem, który należy rozwiązać na innym poziomie – poprzez dopuszczenie możliwości blokowania jedynie w przypadku zawiadomień składanych w oczywistych sprawach, przez zgłaszających o szczególnym statusie (organy państwowe, zaufani sygnaliści), pod kontrolą sądu. Można natomiast zastanowić się nad rozwiązaniem, w którym duża liczba anonimowych zgłoszeń, lub odpowiednia jakość takich zgłoszeń kwalifikowałaby się do szybszego przekazania sprawy zgłaszającym o szczególnym statusie (tj. usługodawca miałby np. obowiązek proaktywnego informowania organów lub zaufanych sygnalistów o takich anonimowych zgłoszeniach).

W zaleceniach brak jest natomiast analogicznych gwarancji anonimowości dla „dostawców treści” wtedy, gdy zechcą zgłosić sprzeciw wobec blokowania ich treści. Obie strony powinny mieć taką gwarancję. Anonimowość dostawców treści jest ważna z punktu widzenia ochrony sygnalistów, dziennikarstwa obywatelskiego, ochrony tajemnicy źródła informacji, dostawców treści przebywających w sytuacjach zagrażających zdrowiu lub życiu. Dane dostawców powinny być chronione przed dostępem osób, które mogą im zagrozić (kompleksowe omówienie kwestii braku anonimowości: https://blog.coralproject.net/the-real-name-fallacy/ ).

4. Jak powinien funkcjonować wzorcowy model pozasądowego rozstrzyganie sporów?

Arbitraż, o którym mowa w pkt 14 i 15 to tylko pozornie atrakcyjne rozwiązanie. Wiele procedur arbitrażowych jest drogich i z uwagi na specyfikę niedostępnych dla zwykłych obywateli. W ich przypadku najlepszą gwarancją poszanowania praw pozostaje sąd. Nie wyklucza to jednak całkowicie korzystania z procedur pozasądowych, jednak zalecenia powinny wyraźnie precyzować, że chodzi o procedury realnie dostępne dla wszystkich. Trzeba zwrócić uwagę, że zalecenia postulują, aby państwa członkowskie ułatwiały procedury pozasądowe, więc wdrożenie zaleceń nie powinno ograniczyć się do prostego przepisania wzmianki o arbitrażu do prawa krajowego. Państwa członkowskie powinny zatem przeznaczyć konkretne środki na wsparcie lub stworzenie procedur spełniających kryteria określone w pkt 14 i nadzór nad spełnianiem tych kryteriów w przyszłości.

Warto natomiast wprowadzić do zaleceń postulat współpracy pomiędzy usługodawcami a organami państwowymi i zaufanymi sygnalistami nad stworzeniem środków (w tym technicznych) pozwalających uniknąć sporów, a nawet zapobiegać nielegalnym działaniom. Istnieją w szczególności rozwiązania techniczne pozwalające wstępnie określić, czy dana treść może stanowić tzw. „mowę nienawiści”. Można zatem zachęcać usługodawców do instalowania takich rozwiązań, a w przypadku wykrycia próby wysłania lub publikacji tego typu komunikatu, do wymagania od użytkownika podjęcia określonych działań przed publikacją (ale nie blokowania samej publikacji). Można np. wymagać wtedy od użytkownika wykonania określonego testu wiedzy lub świadomości, przeprowadzenia go przez proces odbudowy empatycznego kontaktu ze sobą i otoczeniem, przedstawić propozycje przeformułowania wypowiedzi itd.

5. Jakie zalecenia KE (poza wskazanymi w w/w zaleceniu) powinny być podejmowane przez dostawców usług hostingowych do skutecznego zwalczania nielegalnych treści w Internecie?

Jak już wskazywaliśmy powyżej, uważamy za konieczne podjęcie kompleksowej dyskusji o roli usługodawców w internecie.

6. Jaka jest najbardziej dogodna formuła zbierania przez właściwy organ sprawozdań dot. zgłoszeń i decyzji dostawców usług hostingowych ws. nielegalnych treści w Internecie?

Uważamy, że kluczowa jest transparentność i społeczna kontrola nad omawianymi wyżej procedurami realizowana na bieżąco. Publiczna dostępność otwartych danych o stosowanych przez usługodawców rozwiązaniach itd. pozwoliłaby generować odpowiednie statystyki i sprawozdania każdemu zainteresowanemu, pozwalając na ich ocenę z wielu różnych punktów widzenia. Usługodawcy powinni być wobec tego stymulowani do takiego projektowania swoich usług, aby można z nich było korzystać za pomocą dowolnego oprogramowania. Natomiast określenie z góry zamkniętego katalogu informacji mających znaleźć się w sprawozdaniu wraz z nałożeniem obowiązku sprawozdawczości na usługodawcę może nie osiągnąć zamierzonego celu – usługodawcy raczej nie będą dążyli do przedstawiania samych siebie w negatywnym świetle ani do przedstawiania bardziej konkretnych informacji niż te, które są od nich wymagane. Obowiązki sprawozdawcze mogą być ponadto zbyt daleko idącym obciążeniem dla usługodawców mniejszych lub działających na zasadzie non-profit, więc muszą one być zróżnicowane w zależności od statusu usługodawcy, skali jego działań itd.

Komentarze

Dodaj komentarz