Akt o usługach cyfrowych (DSA)
opublikowano: 2024-04-11 przez: Więckowska Milena
Katarzyna Chałubińska-Jentkiewicz
1. Wprowadzenie
Internet z natury ma charakter transgraniczny, a w konsekwencji działania regulujące e-commerce na szczeblu krajowym utrudniały stosowanie reguł dochodzenia odpowiedzialności za działania w sieci i powodowały nieskuteczność w zapewnieniu bezpieczeństwa i jednakowego poziomu ochrony praw obywateli Unii Europejskiej (dalej: „UE”) i unijnych przedsiębiorców działających online.
1. Wprowadzenie
Internet z natury ma charakter transgraniczny, a w konsekwencji działania regulujące e-commerce na szczeblu krajowym utrudniały stosowanie reguł dochodzenia odpowiedzialności za działania w sieci i powodowały nieskuteczność w zapewnieniu bezpieczeństwa i jednakowego poziomu ochrony praw obywateli Unii Europejskiej (dalej: „UE”) i unijnych przedsiębiorców działających online.
Prawodawca uznał, że harmonizacja warunków rozwoju innowacyjnych transgranicznych usług cyfrowych w UE z zachowaniem bezpiecznego środowiska internetowego jest możliwa wyłącznie na szczeblu unijnym. W rozporządzeniu w sprawie jednolitego rynku usług cyfrowych (akt o usługach cyfrowych)[1] zachowano zasady odpowiedzialności dostawców usług oraz pośredników określone w dyrektywie 2000/31/WE o handlu elektronicznym[2], uznane już za podstawę gospodarki cyfrowej. Niemniej, aby zapewnić skuteczną harmonizację w całej UE i uniknąć fragmentacji regulacji, wskazano na konieczność włączenia tych przepisów do rozporządzenia. DSA zapewnia ponadto spójne monitorowanie praw i obowiązków oraz równoważne sankcje we wszystkich państwach członkowskich, a także skuteczną współpracę między organami nadzorczymi poszczególnych państw członkowskich.
DSA wprowadza następujące regulacje:
1) środki służące zwalczaniu nielegalnych towarów, usług lub treści w internecie, np. mechanizm sygnalizowania takich treści przez użytkowników, a w przypadku platform – mechanizm współpracy z „zaufanymi podmiotami sygnalizującymi”;
2) nowe obowiązki dotyczące identyfikowalności użytkowników biznesowych na internetowych platformach handlowych, aby pomóc w identyfikowaniu sprzedawców nielegalnych towarów;
3) skuteczne zabezpieczenia dla użytkowników, w tym możliwość zakwestionowania decyzji platform w zakresie moderowania treści;
4) szeroko zakrojone środki na rzecz przejrzystości funkcjonowania platform internetowych, w tym w sprawie algorytmów stosowanych w podpowiedziach;
5) obowiązki bardzo dużych platform w zakresie zapobiegania niewłaściwemu wykorzystywaniu ich systemów poprzez podejmowanie działań opartych na ocenie ryzyka oraz poprzez przeprowadzanie niezależnych kontroli zarządzania ryzykiem związanym z tymi systemami;
6) udostępnianie naukowcom najważniejszych danych przez największe platformy, aby mogli oni badać, jak ewoluują zagrożenia w sieci;
7) struktura nadzorcza odpowiadająca złożoności przestrzeni internetowej: państwa członkowskie UE będą odgrywać główną rolę, przy wsparciu nowej Europejskiej Rady ds. Usług Cyfrowych, w przypadku bardzo dużych platform – wzmocniony nadzór i egzekwowanie przepisów przez Komisję Europejską.
Prawodawca unijny określa w DSA trzy podstawowe rodzaje usług świadczonych przez pośredników, od których zależy trzystopniowy zakres odpowiedzialności. Istotne są także obowiązki odnoszące się do transparentności i raportowania, które nie powinny naruszać tajemnicy przedsiębiorstwa, poufności umów handlowych i prywatności użytkowników. Transparentność nie musi być równoznaczna z podawaniem szerokich danych i wszystkich żądanych informacji do wiadomości publicznej w zakresie, w którym informacje dotykają tajemnicy handlowej i poufności. Mają być one przekazywane wyłącznie poprzez raporty kierowane do organów nadzorujących i Komisji Europejskiej. Natomiast Komisja Europejska ma zadbać o to, aby obowiązujące zasady raportowania były sprawiedliwe, proporcjonalne i jednolite we wszystkich państwach członkowskich UE.
2. Jurysdykcja
Regulacja ma szczególne znaczenie w obszarze jurysdykcji. Zwrócono uwagę, że platformy zobowiązane do stosowania przepisów DSA to te, które docierają do ponad 10% Europejczyków, czyli 450 mln konsumentów. Jak wskazuje pkt 42 preambuły dyrektywy o handlu elektronicznym, wyłączenia odpowiedzialności dotyczą sytuacji, w których działalność usługodawcy jest ograniczona do technicznego procesu obsługi i udzielania dostępu do sieci komunikacyjnej, w której informacje udostępniane przez osoby trzecie są przekazywane lub przechowywane czasowo, a więc działanie takie przybiera charakter czysto techniczny. Oznacza to, że podmiot świadczący usługi społeczeństwa informacyjnego nie ma wpływu na przechowywane dane ani nie posiada nad nimi kontroli. Dotychczas dyrektywa 2000/31/WE ustanawiała zasadę, według której operatorzy tych usług objęci są przepisami wyłącznie w państwie członkowskim UE, w którym znajduje się ich główna siedziba – nie zaś w państwie, w którym znajdują się wykorzystywane przez nich serwery, adresy e-mail lub skrzynki pocztowe. Państwa członkowskie UE musiały zapewnić, aby usługodawcy publikowali podstawowe informacje na temat swojej działalności (nazwę, adres, numer rejestru handlowego itp.), w trwałej i łatwo dostępnej formie. W dyrektywie 2000/31/WE zwrócono uwagę, że państwa członkowskie UE muszą zapewnić szybkie i skuteczne rozwiązania problemów natury prawnej w środowisku internetowym oraz zagwarantować, aby sankcje były skuteczne, stosowne i odstraszające. W regulacji zawartej w DSA sytuacja jurysdykcji i ustaleń co do prawa właściwego zasadniczo się zmienia.
Określanie porządku prawnego właściwego dla podmiotów pośredników zobowiązanych na gruncie przepisów DSA wiąże się w dużej mierze z tymi samymi problemami, co określanie właściwego prawa. Główną kwestią sporną pozostaje przede wszystkim aspekt terytorialny, który bywa decydujący w rozstrzyganiu odpowiedzialności za działania w sieci. Jak wskazano, w opozycji do cechy terytorialności stoi globalny charakter sieci. Doktryna nakazuje stosowanie systemu prawnego państwa, z którym umowa ma ścisły związek. Podobnie jak ma to miejsce przy określaniu sądu właściwego, tak i przy określaniu prawa, strony przy zawieraniu umowy mają możliwość dokonania wyboru, z jakiego prawa będą korzystać. Jednak nie jest to regułą w przypadku korzystania z usług świadczonych drogą elektroniczną, zwłaszcza w przypadku platform udostępniających użytkownikom miejsce do komunikowania w sieci społecznościowej. Zasada państwa pochodzenia (ang. country of origin principle) została uregulowana w art. 3 dyrektywy 2000/31/WE. Zgodnie z tym artykułem „Każde państwo członkowskie zapewnia, aby usługi społeczeństwa informacyjnego świadczone przez usługodawcę mającego siedzibę na jego terytorium były zgodne z przepisami krajowymi stosowanymi w tym państwie członkowskim i wchodzącymi w zakres koordynowanej dziedziny”. Usługodawca musi spełnić wszelkie te wymagania – związane ze świadczeniem usług drogą elektroniczną – które nakłada na niego państwo, w którym ma on miejsce zamieszkania lub siedzibę. Należy jednak pamiętać, że mowa tu tylko o państwie-siedzibie usługodawcy, w którym prowadzi on rzeczywistą działalność gospodarczą, co potwierdził wyrok Trybunału Sprawiedliwości Unii Europejskiej (dalej: „TSUE”) z 15 marca 2012 r. w sprawie C-292/10[3]. Dotychczasowe reguły ustalenia prawa właściwego w obliczu zmian wnikających z przepisów DSA stały się nieaktualne. Rewolucyjna zmiana polega na zastosowaniu jurysdykcji ochronnej, zgodnie z którą uprawnione do wykonywania jurysdykcji są państwa, dla których działania prowadzone w cyberprzestrzeni stanowią bezpośrednie zagrożenie, czy w które bezpośrednio wymierzone są treści stron internetowych. Wprowadzenie tego typu jurysdykcji jest uzasadniane względami bezpieczeństwa i interesu publicznego. Jednak może dojść do sytuacji, że polski obywatel, działający z terytorium Polski, niezależnie od przepisów obowiązujących w państwie jego obywatelstwa lub zamieszkania, pociągnięty zostanie do odpowiedzialności za przestępne skutki swoich działań powstałe za granicą, o których to skutkach lub ich przestępnym charakterze mógł on nie wiedzieć[4]. Wskazana w DSA zasada, że rozporządzenie ma zastosowanie do usług pośrednich, które są oferowane odbiorcom usługi, którzy mają siedzibę lub znajdują się w UE, niezależnie od miejsca siedziby dostawców tych usług pośrednich, rozwiązuje problem właściwości prawa w kontekście regulacji treści udostępnianych w sieci. Sieci nowych mediów powodują, że coraz częściej usługi świadczone w sposób tradycyjny przechodzą „metamorfozę cyfrową”, a poszukiwanie odbiorcy odbywa się dwutorowo: w świecie rzeczywistym i w świecie wirtualnym. Dzieje się tak, ponieważ dostęp do rynku globalnego promuje treści cyfrowe, ich twórców, producentów i wydawców.
3. Zakres przedmiotowy
DSA stanowi uzupełnienie obowiązujących przepisów sektorowych i zdaniem unijnego prawodawcy nie wpływa na stosowanie obowiązujących przepisów prawa UE regulujących określone aspekty świadczenia usług społeczeństwa informacyjnego, które mają zastosowanie jako lex specialis. Przykładowo, nadal mają zastosowanie obowiązki dotyczące treści audiowizualnych i handlowych przekazów audiowizualnych określone w dyrektywie 2010/13/WE, zmienionej dyrektywą (UE) 2018/1808, dotyczącej dostawców platformy udostępniania wideo[5]. DSA ma jednak zastosowanie do takich dostawców w stopniu, w jakim nie mają do nich zastosowania bardziej szczegółowe przepisy określone w dyrektywie o audiowizualnych usługach medialnych lub innych unijnych aktach prawnych, takich jak rozporządzenie w sprawie zapobiegania rozpowszechnianiu w internecie treści o charakterze terrorystycznym[6]. Ramy ustanowione w rozporządzeniu (UE) 2019/1150 w sprawie propagowania sprawiedliwości i przejrzystości dla użytkowników biznesowych korzystających z usług pośrednictwa internetowego[7] w celu zapewnienia, aby użytkownikom biznesowym korzystającym z takich usług i użytkownikom korzystającym ze strony internetowej w celach biznesowych w odniesieniu do wyszukiwarek internetowych zapewniono odpowiednią przejrzystość, sprawiedliwość i możliwości skutecznego dochodzenia roszczeń, będą miały zastosowanie jako lex specialis. Dodatkowo przepisy DSA stanowią uzupełnienie dorobku prawnego UE w zakresie ochrony konsumentów, w szczególności w odniesieniu do dyrektywy (UE) 2019/2161, która ustanawia przepisy szczegółowe w celu zwiększenia przejrzystości w zakresie niektórych funkcji oferowanych w ramach określonych usług społeczeństwa informacyjnego[8].
DSA nie narusza także przepisów rozporządzenia (UE) 2016/679[9] ani innych przepisów UE dotyczących ochrony danych osobowych i prywatności w zakresie łączności. Przykładowo, środki dotyczące reklam zamieszczanych na platformach internetowych stanowią uzupełnienie, ale nie zmieniają obowiązujących przepisów dotyczących zgody na przetwarzanie danych osobowych i prawa sprzeciwu wobec przetwarzania danych osobowych. W drodze takich środków nakłada się obowiązki w zakresie przejrzystości wobec użytkowników platform internetowych, którzy, uzyskując takie informacje, będą w stanie skorzystać z praw przysługujących im jako osobom, których dane dotyczą. Ponadto środki takie umożliwiają organom i zweryfikowanym badaczom nadzorowanie sposobu wyświetlania i ukierunkowania reklam.
Dodatkowo DSA bazuje na zaleceniu z 2018 roku dotyczącym nielegalnych treści[10]. W DSA uwzględnia się doświadczenia zdobyte w ramach działań samoregulacyjnych prowadzonych przy wsparciu Komisji Europejskiej, takich jak system dobrowolnych zobowiązań do zapewnienia bezpieczeństwa produktów (Product Safety Pledge)[11], kodeks postępowania dotyczący nielegalnego nawoływania do nienawiści w internecie[12] oraz Forum UE ds. Internetu w odniesieniu do treści o charakterze terrorystycznym.
4. Usługobiorca-konsument
Pojęcie to oznacza osobę fizyczną lub prawną, która korzysta z usługi pośredniej, w szczególności w celu poszukiwania informacji lub udostępnienia jej, a zatem prawodawca unijny zdecydował, że jeśli mowa w DSA o odbiorcy, dotyczy to podmiotów korzystających z usług pośrednich. Użytkownikiem sieci, czyli użytkownikiem końcowym, jest podmiot korzystający z publicznie dostępnej usługi telekomunikacyjnej lub żądający świadczenia takiej usługi, dla zaspokojenia własnych potrzeb. Zgodnie z tą definicją odbiorcą usługi to usługobiorca usługi pośredniej. W rozumieniu DSA za „odbiorców usługi” uważa się użytkowników biznesowych, konsumentów i innych użytkowników (motyw 2 preambuły DSA). Pojęcie „usługobiorca” zawarte w art. 2 lit. d dyrektywy 2000/31/WE obejmuje podmioty korzystające z usługi społeczeństwa informacyjnego: w szczególności w celu poszukiwania informacji lub uzyskania do niej dostępu. Konstrukcja pojęcia usługobiorcy wskazuje na potrzebę ustalenia, że obejmuje ona również działania polegające na korzystaniu z cudzych usług w celu udostępniania informacji w sieci.
5. Podstawowe reguły
Odpowiedzialność
W kontekście odpowiedzialności, o której mowa w art. 4, art. 5 i art. 6 (mere conduit, caching, hosting) DSA szczególnie problematyczna jest kwestia przesłanki wiedzy, która decyduje o odpowiedzialności pośrednika. Dostawca usług pośrednich może powołać się na fakt, że ze względu na obszerność forum jego odbiorców nie jest w stanie powziąć wiedzy o każdym nielegalnym charakterze treści, a tym bardziej ją usunąć. Systemy automatycznego filtrowania również nie są w stanie cenzurować całego zasobu cyfrowego. Nie analizują kontekstu, szczególnie tego ukrytego, ośmieszającego lub obraźliwego, ale wyrażonego np. w podstępny sposób. Wskazani powyżej pośrednicy jako pierwsi zostają obciążeni odpowiedzialnością za brak modyfikacji lub usunięcia treści, a nie użytkownik, który daną informację udostępnił. Nakładane na użytkowników obowiązków pozostaje kwestią krajową. Oczywiście regulacje w tym obszarze w jednym państwie mogą być dość ogólne, w innym bardziej szczegółowe. Wciąż wyciąganie konsekwencji wobec anonimowo pozostawionych komentarzy jest trudne do zrealizowania, dlatego często nie podejmowane. Z perspektywy osoby pomawianej, np. w komentarzach, na forach, ta odpowiedzialność może wydawać się znikoma i nie jest pewne czy np. ochrona dobrego imienia osób w sieci będzie bardziej skuteczna. Trzeba też zaznaczyć, że jednocześnie każde działanie związane z odpowiedzialnością w sieci dotyka kwestii konstytucyjnego i konwencyjnego prawa do komunikowania, czyli prawa do pozyskiwania i rozpowszechniania informacji. Z tych powodów prawodawca unijny przesądził, że pośrednicy pozostają uprawnieni do korzystania ze zwolnienia z odpowiedzialności według zasad opisanych w art. 4, art. 5 i art. 6 DSA, jeśli z własnej inicjatywy podejmują dobrowolne czynności sprawdzające lub podejmują inne środki mające na celu wykrycie, identyfikację i usunięcie nielegalnych treści lub uniemożliwienie do nich dostępu lub podejmują inne niezbędne środki, aby zrealizować obowiązki postępowanie zgodnie z prawem UE, w tym DSA. Zgodnie z motywem 22 preambuły DSA „usuwanie lub uniemożliwianie dostępu powinno być przeprowadzane z poszanowaniem praw podstawowych odbiorców usługi, w tym prawa do wolności wypowiedzi i informacji. Dostawca może uzyskać taką faktyczną wiedzę lub wiadomość o nielegalnym charakterze treści między innymi w drodze czynności sprawdzających prowadzonych z własnej inicjatywy lub zgłoszeń przekazanych mu przez osoby lub podmioty zgodnie z niniejszym rozporządzeniem, o ile takie zgłoszenia są wystarczająco precyzyjne i odpowiednio uzasadnione, aby umożliwić działającemu z należytą starannością podmiotowi gospodarczemu rozsądną identyfikację i ocenę potencjalnie nielegalnych treści oraz, w stosownych przypadkach, podjęcie przeciwko nim działań. Takiej faktycznej wiedzy lub wiadomości nie można jednak uznać za uzyskane wyłącznie na podstawie tego, że dostawca jest ogólnie świadomy faktu, że jego usługa jest również wykorzystywana do przechowywania nielegalnych treści. Co więcej, fakt, że dostawca dokonuje automatycznej indeksacji informacji zamieszczonych w ramach jego usługi, że usługa ta zawiera funkcję wyszukiwania lub, że rekomenduje informacje na podstawie profilu lub ustawień odbiorców usługi, nie jest wystarczający, aby uznać, że dostawca ten posiada „konkretną” wiedzę o nielegalnych działaniach podejmowanych za pośrednictwem tej platformy lub o przechowywaniu na niej nielegalnych treści”.
Nowy system notice and action wprowadza wymóg aktywności ze strony platform w zakresie identyfikacji bezprawnych treści, a także automatycznego wykrywania bezprawnych treści. Taki system powinien przewidywać odpowiednie ramy czasowe, które umożliwią osobom poszkodowanym skorzystanie z prawa do sądu i innych praw podstawowych, chociaż trzeba zaznaczyć szczególną trudność z ustaleniem takich ram czasowych, które będą odpowiednie dla interaktywnego środowiska internetowego. Samo blokowanie bądź usuwanie treści cyfrowych wymaga zastosowania trybu odwoławczego od decyzji operatorów platform o usunięciu treści, z uwzględnieniem drogi sądowej przystosowanej do rozpatrywania takich spraw – tak jak to ma miejsce w przypadku odpowiedzialności operatorów platform udostępniania video działających na terytorium RP.
Klauzula dobrego Samarytanina
Wprowadzenie tzw. klauzuli dobrego Samarytanina, o której mowa w motywie 25 preambuły i art. 8 DSA, pozwala na uznanie, że pośrednik nie powinien być karany za samo podejmowanie w dobrej wierze aktywnych działań w celu usuwania nielegalnych treści ponad obowiązki wynikające z ustaw i rozporządzeń. Pośrednicy powinni być do takich działań wręcz zachęcani. Niemniej warto jeszcze wyraźniej wskazać, że zasada ta nie zwalnia pośrednika z odpowiedzialności związanej z obowiązkiem należytego reagowania w ramach procedury notice and action oraz wskutek otrzymania nakazu od uprawnionego organu. Z przepisów musi wyraźnie wynikać, że fakt stosowania zasady dobrego Samarytanina przez danego pośrednika nie jest automatycznie równoznaczny ze zwolnieniem go od jakiejkolwiek odpowiedzialności w każdej sytuacji. Stosowanie przez pośrednika proaktywnych działań w ramach tej zasady nie powinno co do zasady uniemożliwiać mu korzystania z wyłączenia odpowiedzialności, ale nie może prowadzić do sytuacji, gdy pośrednik powołuje się na zasadę dobrego Samarytanina, aby uchylić się od odpowiedzialności, mimo że podejmuje on inne działania, które kwalifikowałyby się normalnie pod zasady odpowiedzialności określone w przepisach. Zgodnie z motywem 25 preambuły DSA: „Aby stworzyć pewność prawa i nie zniechęcać do działań mających na celu wykrywanie, identyfikację i zwalczanie nielegalnych treści, które to działania dostawcy usług pośrednich mogą podejmować dobrowolnie, należy wyjaśnić, że sam fakt, że dostawcy podejmują takie działania, nie prowadzi do niedostępności wyłączeń odpowiedzialności określonych w niniejszym rozporządzeniu, pod warunkiem że działania te są prowadzone w dobrej wierze i z zachowaniem należytej staranności. Ponadto należy wyjaśnić, że sam fakt, że dostawcy ci przyjmują w dobrej wierze środki w celu spełnienia wymogów prawa Unii, w tym wymogów określonych w rozporządzeniu w odniesieniu do wdrożenia warunków korzystania z ich usług, nie powinien prowadzić do niedostępności tych wyłączeń odpowiedzialności”.
Treści nielegalne
W DSA nie zdefiniowano szczegółowo, czym jest „treść nielegalna”. Zgodnie z art. 3 lit. h tego rozporządzenia „nielegalne treści” oznaczają informacje, które same w sobie lub przez odniesienie do działania, w tym sprzedaży produktów lub świadczenia usług, nie są zgodne z prawem UE lub z prawem jakiegokolwiek państwa członkowskiego, które jest zgodne z prawem UE, niezależnie od konkretnego przedmiotu lub charakteru tego prawa.
To oznacza, że ustalenie, czy dana treść jest nielegalna, będzie determinowane przez przyjęty w danym państwie członkowskim system rozwiązań prawnych podyktowanych także wspólnymi zakresami takiego definiowania, które zostało przeprowadzone na gruncie np. przepisów dyrektywy o audiowizualnych usługach medialnych i dyrektywy o prawie autorskim na jednolitym rynku cyfrowym.
W związku z powyższym należy odnotować, że zgodnie z art. 47o ustawy z dnia 29 grudnia 1992 r. o radiofonii i telewizji[13]:
„Zabronione jest umieszczanie na platformach udostępniania wideo audycji, wideo stworzonych przez użytkowników lub innych przekazów:
1) zagrażających prawidłowemu fizycznemu, psychicznemu lub moralnemu rozwojowi małoletnich, w szczególności zawierających treści pornograficzne lub w sposób nieuzasadniony eksponujących przemoc, bez stosowania skutecznych zabezpieczeń technicznych, o których mowa w art. 47p ust. 1;
2) zawierających nawoływanie do przemocy lub nienawiści wobec grupy osób ze względu na płeć, rasę, kolor skóry, pochodzenie etniczne lub społeczne, cechy genetyczne, język, religię lub przekonania, poglądy polityczne lub wszelkie inne poglądy, przynależność państwową, przynależność do mniejszości narodowej, majątek, urodzenie, niepełnosprawność, wiek lub orientację seksualną;
3) zawierających treści mogące ułatwić popełnienie przestępstwa o charakterze terrorystycznym, treści pornograficzne z udziałem małoletniego, treści nawołujące do znieważania grupy ludności albo poszczególnej osoby z powodu jej przynależności narodowej, etnicznej, rasowej, wyznaniowej albo z powodu jej bezwyznaniowości.”
Kryteria służące ustalaniu czy treść jest nielegalna zgodnie z brzmieniem art. 47o u.r.tv., które obecnie mają zastosowanie do użytkowników platform VSP, powinny mieć zastosowanie do działalności platform internetowych, w tym również transgranicznych.
Monitorowanie treści
Zgodnie z art. 8 DSA podmioty świadczące usługi mere conduit, cachingu i hostingu nie są zobowiązane do sprawdzania przekazywanych, przechowywanych lub udostępnianych przez nich danych. W ten sposób wyłączono możliwość nakładania na dostawców usług sieciowych, o których mowa w art. 4, art. 5 i art. 6 DSA generalnego obowiązku monitorowania danych w ramach swojej sieci. W zależności od systemu prawnego każdego państwa członkowskiego i odnośnej dziedziny prawa krajowe organy sądowe lub administracyjne mogą nakazać dostawcom usług pośrednich podjęcie działań przeciwko określonym nielegalnym treściom. Takie nakazy, w szczególności gdy dotyczą one zapobiegania przez dostawcę ponownemu pojawieniu się danych nielegalnych treści, należy wydawać zgodnie z prawem UE, zwłaszcza z zakazem nakładania ogólnych obowiązków nadzoru, zgodnie z wykładnią TSUE[14]. Zgodnie z art. 3 lit. t DSA „moderowanie treści” oznacza działania, bez względu na to czy są one zautomatyzowane, podejmowane przez dostawców usług pośrednich, których celem jest, w szczególności, wykrywanie, identyfikowanie i zwalczanie nielegalnych treści lub informacji niezgodnych z warunkami korzystania z ich usług, przekazywanych przez odbiorców usługi, w tym wdrażane środki, które wpływają na dostępność, widoczność i osiągalność takich nielegalnych treści lub informacji, takie jak depozycjonowanie takich treści lub informacji, demonetyzacja, uniemożliwienie dostępu do nich lub ich usunięcie, lub które wpływają na możliwość przekazywania takich informacji przez odbiorców usługi, takie jak zamknięcie lub zawieszenie konta odbiorcy.” Zakaz ten odnosi się w szczególności do przepisów krajowych, które nakładałyby na dostawcę usług sieciowych obowiązek prowadzenia aktywnego nadzoru nad wszystkimi danymi każdego z usługobiorców w celu zapobieżenia przyszłym naruszeniom prawa. Zagadnieniem dyskusyjnym było to, czy przyjęcie możliwości ustanowienia takiego obowiązku (np. w postaci postanowienia zabezpieczającego) nie stanowiłoby dopuszczenia cenzury prewencyjnej w sieci, ograniczającej wolność słowa, wyrażania swoich poglądów oraz wolność ekspresji i naruszenia prawa do prywatności (ponadto obowiązek taki byłby nie do pogodzenia z zasadą, aby stosowane środki wkraczające w prawa i wolności a stanowiące środki zwalczania treści nielegalnych były słuszne i proporcjonalne). Tymczasem nakaz ustanowienia systemu filtrowania oznacza nadzorowanie, w interesie podmiotów, których prawa zostałyby naruszone. W tych warunkach nakaz monitorowania należałoby uznać za niespełniający wymogu zapewnienia odpowiedniej równowagi między ochroną praw użytkowników sieci, a z drugiej strony ochroną wolności, jaką jest prowadzenie działalności gospodarczej, z której korzystają podmioty gospodarcze – dostawcy usług – pośrednicy. Nakaz taki naruszyłby wolność informacji, ponieważ system ten mógłby nie rozróżniać w wystarczającym stopniu treści niezgodnej z prawem i treści zgodnej z prawem, skutkiem czego jego wdrożenie mogłoby doprowadzić do blokady połączeń o treści zgodnej z prawem. Nie budzi bowiem wątpliwości okoliczność, że odpowiedź na pytanie dotyczące zgodności z prawem danego przekazu zależy również od stosowania ustawowych wyjątków, które różnią się od siebie w poszczególnych państwach członkowskich. Jednak standard zachowania, profesjonalizm i zasady odpowiedzialności wymagają, aby moderator (a w istocie administrator – pośrednik) na bieżąco filtrował i usuwał wypowiedzi naruszające prawo lub mogące naruszać prawo w obiektywnym przekonaniu. Brak takiej reakcji, wszelkiego rodzaju zaniedbania w tym zakresie, problemy techniczne czy inne nie uwalniają właściciela portalu od odpowiedzialności za ewentualne skutki działań użytkowników portalu. Prawodawca unijny wprowadzając zasadę braku ogólnego obowiązku monitorowania przez pośredników internetowych treści zamieszczanych przez użytkowników, nie wykluczył obowiązku monitorowania w szczególnych przypadkach, aczkolwiek czyni to niestety jedynie na poziomie motywu 26 preambuły DSA, a nie przepisu tego aktu.
Nakaz podejmowania czynności
Wprowadzenie nowych reguł w ramach DSA, zmieniło zasadniczo reguły zwalczania treści nielegalnych. Rozporządzenie to m.in. określa minimalne warunki, jakie musi spełnić nakaz, by mógł być wykonany w innym państwie członkowskim niż państwo jego wydania oraz tworzy sieć narodowych koordynatorów usług cyfrowych, którzy mają ułatwić ponadgraniczne wykonywanie środków ochrony prawnej w internecie, a więc także nakazów blokujących. W DSA nie zdefiniowano szczegółowo, czym jest „treść nielegalna”. W art. 9 ust. 2 DSA wskazuje się, że państwa członkowskie mają zapewnić, aby nakazy spełniały poniższe warunki. Nakaz musi zawierać następujące elementy: 1) uzasadnienie wyjaśniające, dlaczego odnośne informacje stanowią nielegalne treści, przez odniesienie do naruszonego przepisu szczegółowego UE lub prawa krajowego; 2) co najmniej jeden dokładny ujednolicony adres zasobów (URL) oraz, w stosownych przypadkach, dodatkowe informacje umożliwiające identyfikację odnośnych nielegalnych treści; 3) informacje na temat środków zaskarżenia przysługujących dostawcy usługi i odbiorcy usługi, który przekazał treści; 4) zakres terytorialny nakazu na podstawie mających zastosowanie przepisów UE i prawa krajowego, w tym Karty praw podstawowych UE, oraz – w stosownych przypadkach – ogólnych zasad prawa międzynarodowego, nie może wykraczać poza zakres ściśle niezbędny do osiągnięcia celu nakazu; 5) nakaz musi zostać sporządzony w języku zadeklarowanym przez dostawcę i wysłany do punktu kontaktowego wyznaczonego przez dostawcę.
Koordynator ds. usług cyfrowych z państwa członkowskiego organu sądowego lub administracyjnego wydającego nakaz niezwłocznie przekazuje kopię nakazów wszystkim pozostałym koordynatorom ds. usług cyfrowych za pośrednictwem systemu działającego na podstawie art. 85 DSA, czyli ustanowionego przez Komisję Europejską systemu wymiany informacji, wspierającego komunikację między koordynatorami ds. usług cyfrowych, Komisją i Radą. Koordynatorzy ds. usług cyfrowych, Komisja i Rada korzystają z tego systemu wymiany informacji do celów całej komunikacji, a Komisja przyjmuje akty wykonawcze określające rozwiązania praktyczne i operacyjne na potrzeby funkcjonowania systemu wymiany informacji i jego interoperacyjności z pozostałymi odpowiednimi systemami. Przy tym trzeba zaznaczyć, że prawodawca UE zaznaczył, że warunki i wymogi określone w art. 9 DSA pozostają bez uszczerbku dla wymogów na mocy krajowych przepisów krajowego prawa cywilnego procesowego i krajowego prawa karnego procesowego. W DSA nie sprecyzowano, czy koordynator ds. usług cyfrowych może stosować środki tymczasowe. Nie jest jasne, czy o zastosowaniu środka tymczasowego ma decydować koordynator ds. usług cyfrowych, do którego odwoła się użytkownik, czy sąd krajowy. Biorąc pod uwagę konsekwencje wynikające z zastosowania środka tymczasowego, czyli np. braku dostępności w internecie danych treści przez określony czas, a także mając na względzie dynamiczny charakter obiegu informacji w internecie, zastosowanie tego rodzaju środka może rodzić bardzo istotne konsekwencje po stronie użytkownika. Z tych przyczyn wydaje się, że rozstrzygnięcie tego rodzaju powinno mieć formę postanowienia sądowego, a nie decyzji administracyjnej. Ponadto, użytkownik musi mieć prawo do szybkiej ścieżki sądowej, tzn. odwołania się od decyzji platformy bezpośrednio do krajowego sądu w państwie, w którym mieszka lub przebywa na stałe.
Na podstawie art. 9 DSA przewiduje się, że organ z jednego państwa członkowskiego będzie mógł nakazać usunięcie treści wobec pośrednika mającego siedzibę w innym państwie członkowskim. W tym aspekcie w rozporządzeniu tym nie została zapisana możliwość ograniczenia zasięgu terytorialnego wydanego nakazu usunięcia, odpowiednio do przesłanek nielegalności obowiązujących w poszczególnych państwach. Możliwość wskazania jasnych dróg odwoławczych dla odbiorcy usługi, którego treść została zablokowana lub usunięta, w wyniku nakazu została ustalona w sposób bardzo ogólny. Prawodawca unijny stwierdził bowiem, że informacje przekazane odbiorcy usługi obejmują uzasadnienie, istniejące możliwości odwołania się oraz opis terytorialnego zakresu stosowania nakazu. W kontekście przedmiotu regulacji DSA należy zwrócić uwagę, że to, co nielegalne w jednym państwie członkowskim, może być legalne w innym i powinno to znaleźć odzwierciedlenie w wydawanych nakazach na podstawie art. 9 DSA.
Podobnie platformy powinny oferować swoim użytkownikom proste mechanizmy umożliwiające zakwestionowanie decyzji o usunięciu treści, które oni umieścili, a w przypadku braku porozumienia w tym zakresie sprawa powinna być rozpatrzona przez sąd. Oferowane powinny być także pozasądowe mechanizmy rozstrzygania sporów. Takim mechanizmem jest procedura art. 21 DSA, zgodnie z którą użytkownicy mają prawo wyboru dowolnego mechanizmu pozasądowego rozstrzygania sporów certyfikowanego w celu rozstrzygnięcia sporów dotyczących tych decyzji, w tym w odniesieniu do skarg, których rozstrzygnięcie nie jest możliwe w ramach wewnętrznego systemu rozpatrywania skarg. Platformy internetowe podejmują współpracę w dobrej wierze z wybranym organem w celu rozstrzygnięcia sporu, a decyzje podjęte przez ten organ są dla nich wiążące. Trzeba podkreślić, że kluczowe w tym zakresie jest pojęcie „moderowanie treści”, o którym była mowa powyżej. Ponadto platformy internetowe mają wprowadzić niezbędne środki techniczne i organizacyjne w celu zapewnienia priorytetowego i niezwłocznego przetwarzania zgłoszeń składanych przez zaufane podmioty sygnalizujące oraz priorytetowego i niezwłocznego podejmowania decyzji w odniesieniu do tych zgłoszeń.
Należy również zaznaczyć, że DSA przewiduje należyte zabezpieczenie praw użytkowników poprzez uregulowanie ścieżki odwoławczej dotyczącej zarówno zablokowania, jak i decyzji o nieuwzględnieniu żądania zablokowania treści przez dostawcę usługi hostingu, w tym platformy internetowej. W ramach dokonywanej przez organy lub sądy weryfikacji decyzji podejmowanych przez dostawców usług powinien być również – w konkretnych stanach faktycznych – uwzględniany „kontekst społeczno-kulturowy kraju użytkownika”. Chociaż przesłanka uwzględnienia „kontekstu społeczno-kulturowego” nie posiada definicji legalnej, nie występuje też w innych aktach prawnych, co istotnie zwiększa ryzyko prawne działalności dostawców usług pośrednich i wystąpienia sporów interpretacyjnych związanych z jej wykładnią, należy przyjąć, że jest ona kluczowa w systemie regulacji treści cyfrowych.
Zgodnie z motywem 13 preambuły DSA dostawców usług hostingu nie należy uznawać za platformy internetowe, w przypadku gdy publiczne rozpowszechnianie jest zaledwie nieznaczną i wyłącznie poboczną cechą, która jest nierozerwalnie powiązana z inną usługą, lub nieznaczną funkcją głównej usługi, której to cechy lub funkcji z obiektywnych względów technicznych nie można wykorzystywać bez tej innej lub głównej usługi, a włączenie takiej cechy lub funkcji nie jest sposobem na obejście stosowania przepisów niniejszego rozporządzenia mających zastosowanie do platform internetowych. Przykładem może być sekcja gazety internetowej przeznaczona na komentarze. Natomiast przechowywanie komentarzy w sieci społecznościowej należy uznać za usługę platformy internetowej. Z kolei usługi przetwarzania w chmurze lub usługi hostingu internetowego nie powinny być uznawane za platformę internetową, jeżeli publiczne rozpowszechnianie określonych informacji stanowi nieznaczną i poboczną cechę lub nieznaczną funkcję takich usług.
W przypadku usług hostingu tylko brak wiedzy o bezprawnym charakterze informacji (oznacza to, że usługodawca nie może mieć wiedzy o tym, że przechowywane przez niego dane są sprzeczne z prawem lub zasadami współżycia społecznego) uzasadnia brak odpowiedzialności za przechowywane informacje. Sąd Najwyższy (dalej: „SN”) w wyroku z 10 stycznia 2014 r.[15] uznał, że uzyskanie wiedzy usługodawcy o bezprawnym charakterze danych wyłącza od tej chwili brak jego odpowiedzialności na gruncie tego unormowania za dalsze udostępnianie tych wpisów, bez względu na to, co jest źródłem tej wiedzy – czy to żądanie osoby dotkniętej takim bezprawnym wpisem, czy też uzyskanie tej wiedzy przez administratora portalu samoistnie, np. na skutek działania moderatora lub nawet w inny sposób. Dla SN nieprzekonywujący był argument pozwanej, że ogrom komentarzy umieszczonych na serwisach administrowanych przez pozwaną wykluczał, aby moderatorzy pozwanej byli w stanie zapoznać się z tymi konkretnymi dotyczącymi powoda i że to wymagałoby zatrudnienia „armii” moderatorów. SN przyjął, że sytuacja obywateli obrażanych i zniesławionych takimi anonimowymi wpisami, a więc wyłączającymi odpowiedzialność ich bezpośrednich sprawców jest trudniejsza, ponieważ pokrzywdzony nie ma żadnego obowiązku nawet posiadać dostępu do internetu czy poświęcać swój czas na sprawdzanie, czy na serwisach nie jest obrażany, zniesławiany bądź podważany jest jego autorytet. Według SN internet to medium, które z założenia ma być przyjazne społeczeństwu informatycznemu, a zatem powinny istnieć skuteczne mechanizmy prawne, które będą zapobiegać wykorzystywaniu go dla działań naruszających godność oraz cześć obywateli i to bez żadnych skutków prawnych dla sprawców. Podobne stanowisko przyjęto w wyroku Sądu Apelacyjnego w Katowicach z 13 lutego 2014 r.[16] w sprawie odpowiedzialności za naruszenie cudzych dóbr osobistych przez usługodawcę świadczącego usługę polegającą na udostępnieniu możliwości bezpłatnego korzystania z internetu oraz zamieszczania wpisów na uruchomionym przez siebie portalu dyskusyjnym: „Usługodawca (…) odpowiada za naruszenie tą drogą cudzych dóbr osobistych wtedy, gdy wiedział, że wpis narusza takie dobro i mimo to nie uniemożliwił niezwłocznie dostępu do wpisu, a więc nie usunął go niezwłocznie. Usługodawca nie ma wprawdzie obowiązku monitorowania sieci, jednakże sytuacja, w której po stronie usługodawcy istnieje stan wiedzy o fakcie naruszenia czy też bezprawnym charakterze tego naruszenia, prowadzi do wystąpienia odpowiedzialności po stronie usługodawcy”.
6. Podsumowanie
DSA jest aktem bezpośrednio stosowanym, natomiast w określonym zakresie każde z państw członkowskich jest zobowiązane do zapewnienia jego skutecznego stosowania w swoim porządku prawnym poprzez przyjęcie przepisów wewnętrznych. W DSA do uregulowania na poziomie krajowym przekazano wyznaczenie organu pełniącego rolę koordynatora do spraw usług cyfrowych, tj. regulatora odpowiadającego za przestrzeganie DSA oraz nadanie mu odpowiednich uprawnień z tym związanych. Z tego względu nowelizacja ustawy o świadczeniu usług drogą elektroniczną oraz opracowanie procedur krajowych wynikających z DSA, tj. w sprawach certyfikacji, przyznawania statusu zaufanego podmiotu sygnalizującego i zweryfikowanego badacza, wprowadzenie przepisów dotyczących przeprowadzania kontroli, opracowanie katalogu kar pieniężnych jest koniecznym zabiegiem legislacyjnym. Warto przy tym zauważyć, że zgodnie z zasadami dobrej legislacji należy zastosować konsekwentny i szczegółowy podział kompetencji i zadań pomiędzy organami właściwymi a koordynatorem – podział odnoszący się do wyraźnie przywołanych w poszczególnych przepisach DSA zadań podmiotów objętych regulacją albo czytelny podział sektorowy.
Kluczowym celem wskazanych powyżej regulacji powinien zaś być jasny status najważniejszego beneficjenta zmian – użytkownika sieci. Chociaż jak podkreśla Timothy Garton Ash, „Bogiem a prawdą, najbardziej skutecznym ograniczeniem mediów powinniśmy być my sami – czytelnicy, widzowie i użytkownicy”[17].
Katarzyna Chałubińska-Jentkiewicz
radca prawny, dr hab. nauk prawnych, profesor uczelni i kierownik Katedry Prawa Informatycznego na Wydziale Prawa i Administracji w Akademii Sztuki Wojennej w Warszawie; dyrektor Pionu DNS w NASK PIB; prowadzi prace badawcze dotyczące regulacji prawnych w obszarze mediów, cyberbezpieczeństwa, zagrożeń bezpieczeństwa informacyjnego, ochrony własności intelektualnej, procesów cyfryzacji i wpływu nowych technologii na rozwój państwa i sytuację prawną jednostki
DSA wprowadza następujące regulacje:
1) środki służące zwalczaniu nielegalnych towarów, usług lub treści w internecie, np. mechanizm sygnalizowania takich treści przez użytkowników, a w przypadku platform – mechanizm współpracy z „zaufanymi podmiotami sygnalizującymi”;
2) nowe obowiązki dotyczące identyfikowalności użytkowników biznesowych na internetowych platformach handlowych, aby pomóc w identyfikowaniu sprzedawców nielegalnych towarów;
3) skuteczne zabezpieczenia dla użytkowników, w tym możliwość zakwestionowania decyzji platform w zakresie moderowania treści;
4) szeroko zakrojone środki na rzecz przejrzystości funkcjonowania platform internetowych, w tym w sprawie algorytmów stosowanych w podpowiedziach;
5) obowiązki bardzo dużych platform w zakresie zapobiegania niewłaściwemu wykorzystywaniu ich systemów poprzez podejmowanie działań opartych na ocenie ryzyka oraz poprzez przeprowadzanie niezależnych kontroli zarządzania ryzykiem związanym z tymi systemami;
6) udostępnianie naukowcom najważniejszych danych przez największe platformy, aby mogli oni badać, jak ewoluują zagrożenia w sieci;
7) struktura nadzorcza odpowiadająca złożoności przestrzeni internetowej: państwa członkowskie UE będą odgrywać główną rolę, przy wsparciu nowej Europejskiej Rady ds. Usług Cyfrowych, w przypadku bardzo dużych platform – wzmocniony nadzór i egzekwowanie przepisów przez Komisję Europejską.
Prawodawca unijny określa w DSA trzy podstawowe rodzaje usług świadczonych przez pośredników, od których zależy trzystopniowy zakres odpowiedzialności. Istotne są także obowiązki odnoszące się do transparentności i raportowania, które nie powinny naruszać tajemnicy przedsiębiorstwa, poufności umów handlowych i prywatności użytkowników. Transparentność nie musi być równoznaczna z podawaniem szerokich danych i wszystkich żądanych informacji do wiadomości publicznej w zakresie, w którym informacje dotykają tajemnicy handlowej i poufności. Mają być one przekazywane wyłącznie poprzez raporty kierowane do organów nadzorujących i Komisji Europejskiej. Natomiast Komisja Europejska ma zadbać o to, aby obowiązujące zasady raportowania były sprawiedliwe, proporcjonalne i jednolite we wszystkich państwach członkowskich UE.
2. Jurysdykcja
Regulacja ma szczególne znaczenie w obszarze jurysdykcji. Zwrócono uwagę, że platformy zobowiązane do stosowania przepisów DSA to te, które docierają do ponad 10% Europejczyków, czyli 450 mln konsumentów. Jak wskazuje pkt 42 preambuły dyrektywy o handlu elektronicznym, wyłączenia odpowiedzialności dotyczą sytuacji, w których działalność usługodawcy jest ograniczona do technicznego procesu obsługi i udzielania dostępu do sieci komunikacyjnej, w której informacje udostępniane przez osoby trzecie są przekazywane lub przechowywane czasowo, a więc działanie takie przybiera charakter czysto techniczny. Oznacza to, że podmiot świadczący usługi społeczeństwa informacyjnego nie ma wpływu na przechowywane dane ani nie posiada nad nimi kontroli. Dotychczas dyrektywa 2000/31/WE ustanawiała zasadę, według której operatorzy tych usług objęci są przepisami wyłącznie w państwie członkowskim UE, w którym znajduje się ich główna siedziba – nie zaś w państwie, w którym znajdują się wykorzystywane przez nich serwery, adresy e-mail lub skrzynki pocztowe. Państwa członkowskie UE musiały zapewnić, aby usługodawcy publikowali podstawowe informacje na temat swojej działalności (nazwę, adres, numer rejestru handlowego itp.), w trwałej i łatwo dostępnej formie. W dyrektywie 2000/31/WE zwrócono uwagę, że państwa członkowskie UE muszą zapewnić szybkie i skuteczne rozwiązania problemów natury prawnej w środowisku internetowym oraz zagwarantować, aby sankcje były skuteczne, stosowne i odstraszające. W regulacji zawartej w DSA sytuacja jurysdykcji i ustaleń co do prawa właściwego zasadniczo się zmienia.
Określanie porządku prawnego właściwego dla podmiotów pośredników zobowiązanych na gruncie przepisów DSA wiąże się w dużej mierze z tymi samymi problemami, co określanie właściwego prawa. Główną kwestią sporną pozostaje przede wszystkim aspekt terytorialny, który bywa decydujący w rozstrzyganiu odpowiedzialności za działania w sieci. Jak wskazano, w opozycji do cechy terytorialności stoi globalny charakter sieci. Doktryna nakazuje stosowanie systemu prawnego państwa, z którym umowa ma ścisły związek. Podobnie jak ma to miejsce przy określaniu sądu właściwego, tak i przy określaniu prawa, strony przy zawieraniu umowy mają możliwość dokonania wyboru, z jakiego prawa będą korzystać. Jednak nie jest to regułą w przypadku korzystania z usług świadczonych drogą elektroniczną, zwłaszcza w przypadku platform udostępniających użytkownikom miejsce do komunikowania w sieci społecznościowej. Zasada państwa pochodzenia (ang. country of origin principle) została uregulowana w art. 3 dyrektywy 2000/31/WE. Zgodnie z tym artykułem „Każde państwo członkowskie zapewnia, aby usługi społeczeństwa informacyjnego świadczone przez usługodawcę mającego siedzibę na jego terytorium były zgodne z przepisami krajowymi stosowanymi w tym państwie członkowskim i wchodzącymi w zakres koordynowanej dziedziny”. Usługodawca musi spełnić wszelkie te wymagania – związane ze świadczeniem usług drogą elektroniczną – które nakłada na niego państwo, w którym ma on miejsce zamieszkania lub siedzibę. Należy jednak pamiętać, że mowa tu tylko o państwie-siedzibie usługodawcy, w którym prowadzi on rzeczywistą działalność gospodarczą, co potwierdził wyrok Trybunału Sprawiedliwości Unii Europejskiej (dalej: „TSUE”) z 15 marca 2012 r. w sprawie C-292/10[3]. Dotychczasowe reguły ustalenia prawa właściwego w obliczu zmian wnikających z przepisów DSA stały się nieaktualne. Rewolucyjna zmiana polega na zastosowaniu jurysdykcji ochronnej, zgodnie z którą uprawnione do wykonywania jurysdykcji są państwa, dla których działania prowadzone w cyberprzestrzeni stanowią bezpośrednie zagrożenie, czy w które bezpośrednio wymierzone są treści stron internetowych. Wprowadzenie tego typu jurysdykcji jest uzasadniane względami bezpieczeństwa i interesu publicznego. Jednak może dojść do sytuacji, że polski obywatel, działający z terytorium Polski, niezależnie od przepisów obowiązujących w państwie jego obywatelstwa lub zamieszkania, pociągnięty zostanie do odpowiedzialności za przestępne skutki swoich działań powstałe za granicą, o których to skutkach lub ich przestępnym charakterze mógł on nie wiedzieć[4]. Wskazana w DSA zasada, że rozporządzenie ma zastosowanie do usług pośrednich, które są oferowane odbiorcom usługi, którzy mają siedzibę lub znajdują się w UE, niezależnie od miejsca siedziby dostawców tych usług pośrednich, rozwiązuje problem właściwości prawa w kontekście regulacji treści udostępnianych w sieci. Sieci nowych mediów powodują, że coraz częściej usługi świadczone w sposób tradycyjny przechodzą „metamorfozę cyfrową”, a poszukiwanie odbiorcy odbywa się dwutorowo: w świecie rzeczywistym i w świecie wirtualnym. Dzieje się tak, ponieważ dostęp do rynku globalnego promuje treści cyfrowe, ich twórców, producentów i wydawców.
3. Zakres przedmiotowy
DSA stanowi uzupełnienie obowiązujących przepisów sektorowych i zdaniem unijnego prawodawcy nie wpływa na stosowanie obowiązujących przepisów prawa UE regulujących określone aspekty świadczenia usług społeczeństwa informacyjnego, które mają zastosowanie jako lex specialis. Przykładowo, nadal mają zastosowanie obowiązki dotyczące treści audiowizualnych i handlowych przekazów audiowizualnych określone w dyrektywie 2010/13/WE, zmienionej dyrektywą (UE) 2018/1808, dotyczącej dostawców platformy udostępniania wideo[5]. DSA ma jednak zastosowanie do takich dostawców w stopniu, w jakim nie mają do nich zastosowania bardziej szczegółowe przepisy określone w dyrektywie o audiowizualnych usługach medialnych lub innych unijnych aktach prawnych, takich jak rozporządzenie w sprawie zapobiegania rozpowszechnianiu w internecie treści o charakterze terrorystycznym[6]. Ramy ustanowione w rozporządzeniu (UE) 2019/1150 w sprawie propagowania sprawiedliwości i przejrzystości dla użytkowników biznesowych korzystających z usług pośrednictwa internetowego[7] w celu zapewnienia, aby użytkownikom biznesowym korzystającym z takich usług i użytkownikom korzystającym ze strony internetowej w celach biznesowych w odniesieniu do wyszukiwarek internetowych zapewniono odpowiednią przejrzystość, sprawiedliwość i możliwości skutecznego dochodzenia roszczeń, będą miały zastosowanie jako lex specialis. Dodatkowo przepisy DSA stanowią uzupełnienie dorobku prawnego UE w zakresie ochrony konsumentów, w szczególności w odniesieniu do dyrektywy (UE) 2019/2161, która ustanawia przepisy szczegółowe w celu zwiększenia przejrzystości w zakresie niektórych funkcji oferowanych w ramach określonych usług społeczeństwa informacyjnego[8].
DSA nie narusza także przepisów rozporządzenia (UE) 2016/679[9] ani innych przepisów UE dotyczących ochrony danych osobowych i prywatności w zakresie łączności. Przykładowo, środki dotyczące reklam zamieszczanych na platformach internetowych stanowią uzupełnienie, ale nie zmieniają obowiązujących przepisów dotyczących zgody na przetwarzanie danych osobowych i prawa sprzeciwu wobec przetwarzania danych osobowych. W drodze takich środków nakłada się obowiązki w zakresie przejrzystości wobec użytkowników platform internetowych, którzy, uzyskując takie informacje, będą w stanie skorzystać z praw przysługujących im jako osobom, których dane dotyczą. Ponadto środki takie umożliwiają organom i zweryfikowanym badaczom nadzorowanie sposobu wyświetlania i ukierunkowania reklam.
Dodatkowo DSA bazuje na zaleceniu z 2018 roku dotyczącym nielegalnych treści[10]. W DSA uwzględnia się doświadczenia zdobyte w ramach działań samoregulacyjnych prowadzonych przy wsparciu Komisji Europejskiej, takich jak system dobrowolnych zobowiązań do zapewnienia bezpieczeństwa produktów (Product Safety Pledge)[11], kodeks postępowania dotyczący nielegalnego nawoływania do nienawiści w internecie[12] oraz Forum UE ds. Internetu w odniesieniu do treści o charakterze terrorystycznym.
4. Usługobiorca-konsument
Pojęcie to oznacza osobę fizyczną lub prawną, która korzysta z usługi pośredniej, w szczególności w celu poszukiwania informacji lub udostępnienia jej, a zatem prawodawca unijny zdecydował, że jeśli mowa w DSA o odbiorcy, dotyczy to podmiotów korzystających z usług pośrednich. Użytkownikiem sieci, czyli użytkownikiem końcowym, jest podmiot korzystający z publicznie dostępnej usługi telekomunikacyjnej lub żądający świadczenia takiej usługi, dla zaspokojenia własnych potrzeb. Zgodnie z tą definicją odbiorcą usługi to usługobiorca usługi pośredniej. W rozumieniu DSA za „odbiorców usługi” uważa się użytkowników biznesowych, konsumentów i innych użytkowników (motyw 2 preambuły DSA). Pojęcie „usługobiorca” zawarte w art. 2 lit. d dyrektywy 2000/31/WE obejmuje podmioty korzystające z usługi społeczeństwa informacyjnego: w szczególności w celu poszukiwania informacji lub uzyskania do niej dostępu. Konstrukcja pojęcia usługobiorcy wskazuje na potrzebę ustalenia, że obejmuje ona również działania polegające na korzystaniu z cudzych usług w celu udostępniania informacji w sieci.
5. Podstawowe reguły
Odpowiedzialność
W kontekście odpowiedzialności, o której mowa w art. 4, art. 5 i art. 6 (mere conduit, caching, hosting) DSA szczególnie problematyczna jest kwestia przesłanki wiedzy, która decyduje o odpowiedzialności pośrednika. Dostawca usług pośrednich może powołać się na fakt, że ze względu na obszerność forum jego odbiorców nie jest w stanie powziąć wiedzy o każdym nielegalnym charakterze treści, a tym bardziej ją usunąć. Systemy automatycznego filtrowania również nie są w stanie cenzurować całego zasobu cyfrowego. Nie analizują kontekstu, szczególnie tego ukrytego, ośmieszającego lub obraźliwego, ale wyrażonego np. w podstępny sposób. Wskazani powyżej pośrednicy jako pierwsi zostają obciążeni odpowiedzialnością za brak modyfikacji lub usunięcia treści, a nie użytkownik, który daną informację udostępnił. Nakładane na użytkowników obowiązków pozostaje kwestią krajową. Oczywiście regulacje w tym obszarze w jednym państwie mogą być dość ogólne, w innym bardziej szczegółowe. Wciąż wyciąganie konsekwencji wobec anonimowo pozostawionych komentarzy jest trudne do zrealizowania, dlatego często nie podejmowane. Z perspektywy osoby pomawianej, np. w komentarzach, na forach, ta odpowiedzialność może wydawać się znikoma i nie jest pewne czy np. ochrona dobrego imienia osób w sieci będzie bardziej skuteczna. Trzeba też zaznaczyć, że jednocześnie każde działanie związane z odpowiedzialnością w sieci dotyka kwestii konstytucyjnego i konwencyjnego prawa do komunikowania, czyli prawa do pozyskiwania i rozpowszechniania informacji. Z tych powodów prawodawca unijny przesądził, że pośrednicy pozostają uprawnieni do korzystania ze zwolnienia z odpowiedzialności według zasad opisanych w art. 4, art. 5 i art. 6 DSA, jeśli z własnej inicjatywy podejmują dobrowolne czynności sprawdzające lub podejmują inne środki mające na celu wykrycie, identyfikację i usunięcie nielegalnych treści lub uniemożliwienie do nich dostępu lub podejmują inne niezbędne środki, aby zrealizować obowiązki postępowanie zgodnie z prawem UE, w tym DSA. Zgodnie z motywem 22 preambuły DSA „usuwanie lub uniemożliwianie dostępu powinno być przeprowadzane z poszanowaniem praw podstawowych odbiorców usługi, w tym prawa do wolności wypowiedzi i informacji. Dostawca może uzyskać taką faktyczną wiedzę lub wiadomość o nielegalnym charakterze treści między innymi w drodze czynności sprawdzających prowadzonych z własnej inicjatywy lub zgłoszeń przekazanych mu przez osoby lub podmioty zgodnie z niniejszym rozporządzeniem, o ile takie zgłoszenia są wystarczająco precyzyjne i odpowiednio uzasadnione, aby umożliwić działającemu z należytą starannością podmiotowi gospodarczemu rozsądną identyfikację i ocenę potencjalnie nielegalnych treści oraz, w stosownych przypadkach, podjęcie przeciwko nim działań. Takiej faktycznej wiedzy lub wiadomości nie można jednak uznać za uzyskane wyłącznie na podstawie tego, że dostawca jest ogólnie świadomy faktu, że jego usługa jest również wykorzystywana do przechowywania nielegalnych treści. Co więcej, fakt, że dostawca dokonuje automatycznej indeksacji informacji zamieszczonych w ramach jego usługi, że usługa ta zawiera funkcję wyszukiwania lub, że rekomenduje informacje na podstawie profilu lub ustawień odbiorców usługi, nie jest wystarczający, aby uznać, że dostawca ten posiada „konkretną” wiedzę o nielegalnych działaniach podejmowanych za pośrednictwem tej platformy lub o przechowywaniu na niej nielegalnych treści”.
Nowy system notice and action wprowadza wymóg aktywności ze strony platform w zakresie identyfikacji bezprawnych treści, a także automatycznego wykrywania bezprawnych treści. Taki system powinien przewidywać odpowiednie ramy czasowe, które umożliwią osobom poszkodowanym skorzystanie z prawa do sądu i innych praw podstawowych, chociaż trzeba zaznaczyć szczególną trudność z ustaleniem takich ram czasowych, które będą odpowiednie dla interaktywnego środowiska internetowego. Samo blokowanie bądź usuwanie treści cyfrowych wymaga zastosowania trybu odwoławczego od decyzji operatorów platform o usunięciu treści, z uwzględnieniem drogi sądowej przystosowanej do rozpatrywania takich spraw – tak jak to ma miejsce w przypadku odpowiedzialności operatorów platform udostępniania video działających na terytorium RP.
Klauzula dobrego Samarytanina
Wprowadzenie tzw. klauzuli dobrego Samarytanina, o której mowa w motywie 25 preambuły i art. 8 DSA, pozwala na uznanie, że pośrednik nie powinien być karany za samo podejmowanie w dobrej wierze aktywnych działań w celu usuwania nielegalnych treści ponad obowiązki wynikające z ustaw i rozporządzeń. Pośrednicy powinni być do takich działań wręcz zachęcani. Niemniej warto jeszcze wyraźniej wskazać, że zasada ta nie zwalnia pośrednika z odpowiedzialności związanej z obowiązkiem należytego reagowania w ramach procedury notice and action oraz wskutek otrzymania nakazu od uprawnionego organu. Z przepisów musi wyraźnie wynikać, że fakt stosowania zasady dobrego Samarytanina przez danego pośrednika nie jest automatycznie równoznaczny ze zwolnieniem go od jakiejkolwiek odpowiedzialności w każdej sytuacji. Stosowanie przez pośrednika proaktywnych działań w ramach tej zasady nie powinno co do zasady uniemożliwiać mu korzystania z wyłączenia odpowiedzialności, ale nie może prowadzić do sytuacji, gdy pośrednik powołuje się na zasadę dobrego Samarytanina, aby uchylić się od odpowiedzialności, mimo że podejmuje on inne działania, które kwalifikowałyby się normalnie pod zasady odpowiedzialności określone w przepisach. Zgodnie z motywem 25 preambuły DSA: „Aby stworzyć pewność prawa i nie zniechęcać do działań mających na celu wykrywanie, identyfikację i zwalczanie nielegalnych treści, które to działania dostawcy usług pośrednich mogą podejmować dobrowolnie, należy wyjaśnić, że sam fakt, że dostawcy podejmują takie działania, nie prowadzi do niedostępności wyłączeń odpowiedzialności określonych w niniejszym rozporządzeniu, pod warunkiem że działania te są prowadzone w dobrej wierze i z zachowaniem należytej staranności. Ponadto należy wyjaśnić, że sam fakt, że dostawcy ci przyjmują w dobrej wierze środki w celu spełnienia wymogów prawa Unii, w tym wymogów określonych w rozporządzeniu w odniesieniu do wdrożenia warunków korzystania z ich usług, nie powinien prowadzić do niedostępności tych wyłączeń odpowiedzialności”.
Treści nielegalne
W DSA nie zdefiniowano szczegółowo, czym jest „treść nielegalna”. Zgodnie z art. 3 lit. h tego rozporządzenia „nielegalne treści” oznaczają informacje, które same w sobie lub przez odniesienie do działania, w tym sprzedaży produktów lub świadczenia usług, nie są zgodne z prawem UE lub z prawem jakiegokolwiek państwa członkowskiego, które jest zgodne z prawem UE, niezależnie od konkretnego przedmiotu lub charakteru tego prawa.
To oznacza, że ustalenie, czy dana treść jest nielegalna, będzie determinowane przez przyjęty w danym państwie członkowskim system rozwiązań prawnych podyktowanych także wspólnymi zakresami takiego definiowania, które zostało przeprowadzone na gruncie np. przepisów dyrektywy o audiowizualnych usługach medialnych i dyrektywy o prawie autorskim na jednolitym rynku cyfrowym.
W związku z powyższym należy odnotować, że zgodnie z art. 47o ustawy z dnia 29 grudnia 1992 r. o radiofonii i telewizji[13]:
„Zabronione jest umieszczanie na platformach udostępniania wideo audycji, wideo stworzonych przez użytkowników lub innych przekazów:
1) zagrażających prawidłowemu fizycznemu, psychicznemu lub moralnemu rozwojowi małoletnich, w szczególności zawierających treści pornograficzne lub w sposób nieuzasadniony eksponujących przemoc, bez stosowania skutecznych zabezpieczeń technicznych, o których mowa w art. 47p ust. 1;
2) zawierających nawoływanie do przemocy lub nienawiści wobec grupy osób ze względu na płeć, rasę, kolor skóry, pochodzenie etniczne lub społeczne, cechy genetyczne, język, religię lub przekonania, poglądy polityczne lub wszelkie inne poglądy, przynależność państwową, przynależność do mniejszości narodowej, majątek, urodzenie, niepełnosprawność, wiek lub orientację seksualną;
3) zawierających treści mogące ułatwić popełnienie przestępstwa o charakterze terrorystycznym, treści pornograficzne z udziałem małoletniego, treści nawołujące do znieważania grupy ludności albo poszczególnej osoby z powodu jej przynależności narodowej, etnicznej, rasowej, wyznaniowej albo z powodu jej bezwyznaniowości.”
Kryteria służące ustalaniu czy treść jest nielegalna zgodnie z brzmieniem art. 47o u.r.tv., które obecnie mają zastosowanie do użytkowników platform VSP, powinny mieć zastosowanie do działalności platform internetowych, w tym również transgranicznych.
Monitorowanie treści
Zgodnie z art. 8 DSA podmioty świadczące usługi mere conduit, cachingu i hostingu nie są zobowiązane do sprawdzania przekazywanych, przechowywanych lub udostępnianych przez nich danych. W ten sposób wyłączono możliwość nakładania na dostawców usług sieciowych, o których mowa w art. 4, art. 5 i art. 6 DSA generalnego obowiązku monitorowania danych w ramach swojej sieci. W zależności od systemu prawnego każdego państwa członkowskiego i odnośnej dziedziny prawa krajowe organy sądowe lub administracyjne mogą nakazać dostawcom usług pośrednich podjęcie działań przeciwko określonym nielegalnym treściom. Takie nakazy, w szczególności gdy dotyczą one zapobiegania przez dostawcę ponownemu pojawieniu się danych nielegalnych treści, należy wydawać zgodnie z prawem UE, zwłaszcza z zakazem nakładania ogólnych obowiązków nadzoru, zgodnie z wykładnią TSUE[14]. Zgodnie z art. 3 lit. t DSA „moderowanie treści” oznacza działania, bez względu na to czy są one zautomatyzowane, podejmowane przez dostawców usług pośrednich, których celem jest, w szczególności, wykrywanie, identyfikowanie i zwalczanie nielegalnych treści lub informacji niezgodnych z warunkami korzystania z ich usług, przekazywanych przez odbiorców usługi, w tym wdrażane środki, które wpływają na dostępność, widoczność i osiągalność takich nielegalnych treści lub informacji, takie jak depozycjonowanie takich treści lub informacji, demonetyzacja, uniemożliwienie dostępu do nich lub ich usunięcie, lub które wpływają na możliwość przekazywania takich informacji przez odbiorców usługi, takie jak zamknięcie lub zawieszenie konta odbiorcy.” Zakaz ten odnosi się w szczególności do przepisów krajowych, które nakładałyby na dostawcę usług sieciowych obowiązek prowadzenia aktywnego nadzoru nad wszystkimi danymi każdego z usługobiorców w celu zapobieżenia przyszłym naruszeniom prawa. Zagadnieniem dyskusyjnym było to, czy przyjęcie możliwości ustanowienia takiego obowiązku (np. w postaci postanowienia zabezpieczającego) nie stanowiłoby dopuszczenia cenzury prewencyjnej w sieci, ograniczającej wolność słowa, wyrażania swoich poglądów oraz wolność ekspresji i naruszenia prawa do prywatności (ponadto obowiązek taki byłby nie do pogodzenia z zasadą, aby stosowane środki wkraczające w prawa i wolności a stanowiące środki zwalczania treści nielegalnych były słuszne i proporcjonalne). Tymczasem nakaz ustanowienia systemu filtrowania oznacza nadzorowanie, w interesie podmiotów, których prawa zostałyby naruszone. W tych warunkach nakaz monitorowania należałoby uznać za niespełniający wymogu zapewnienia odpowiedniej równowagi między ochroną praw użytkowników sieci, a z drugiej strony ochroną wolności, jaką jest prowadzenie działalności gospodarczej, z której korzystają podmioty gospodarcze – dostawcy usług – pośrednicy. Nakaz taki naruszyłby wolność informacji, ponieważ system ten mógłby nie rozróżniać w wystarczającym stopniu treści niezgodnej z prawem i treści zgodnej z prawem, skutkiem czego jego wdrożenie mogłoby doprowadzić do blokady połączeń o treści zgodnej z prawem. Nie budzi bowiem wątpliwości okoliczność, że odpowiedź na pytanie dotyczące zgodności z prawem danego przekazu zależy również od stosowania ustawowych wyjątków, które różnią się od siebie w poszczególnych państwach członkowskich. Jednak standard zachowania, profesjonalizm i zasady odpowiedzialności wymagają, aby moderator (a w istocie administrator – pośrednik) na bieżąco filtrował i usuwał wypowiedzi naruszające prawo lub mogące naruszać prawo w obiektywnym przekonaniu. Brak takiej reakcji, wszelkiego rodzaju zaniedbania w tym zakresie, problemy techniczne czy inne nie uwalniają właściciela portalu od odpowiedzialności za ewentualne skutki działań użytkowników portalu. Prawodawca unijny wprowadzając zasadę braku ogólnego obowiązku monitorowania przez pośredników internetowych treści zamieszczanych przez użytkowników, nie wykluczył obowiązku monitorowania w szczególnych przypadkach, aczkolwiek czyni to niestety jedynie na poziomie motywu 26 preambuły DSA, a nie przepisu tego aktu.
Nakaz podejmowania czynności
Wprowadzenie nowych reguł w ramach DSA, zmieniło zasadniczo reguły zwalczania treści nielegalnych. Rozporządzenie to m.in. określa minimalne warunki, jakie musi spełnić nakaz, by mógł być wykonany w innym państwie członkowskim niż państwo jego wydania oraz tworzy sieć narodowych koordynatorów usług cyfrowych, którzy mają ułatwić ponadgraniczne wykonywanie środków ochrony prawnej w internecie, a więc także nakazów blokujących. W DSA nie zdefiniowano szczegółowo, czym jest „treść nielegalna”. W art. 9 ust. 2 DSA wskazuje się, że państwa członkowskie mają zapewnić, aby nakazy spełniały poniższe warunki. Nakaz musi zawierać następujące elementy: 1) uzasadnienie wyjaśniające, dlaczego odnośne informacje stanowią nielegalne treści, przez odniesienie do naruszonego przepisu szczegółowego UE lub prawa krajowego; 2) co najmniej jeden dokładny ujednolicony adres zasobów (URL) oraz, w stosownych przypadkach, dodatkowe informacje umożliwiające identyfikację odnośnych nielegalnych treści; 3) informacje na temat środków zaskarżenia przysługujących dostawcy usługi i odbiorcy usługi, który przekazał treści; 4) zakres terytorialny nakazu na podstawie mających zastosowanie przepisów UE i prawa krajowego, w tym Karty praw podstawowych UE, oraz – w stosownych przypadkach – ogólnych zasad prawa międzynarodowego, nie może wykraczać poza zakres ściśle niezbędny do osiągnięcia celu nakazu; 5) nakaz musi zostać sporządzony w języku zadeklarowanym przez dostawcę i wysłany do punktu kontaktowego wyznaczonego przez dostawcę.
Koordynator ds. usług cyfrowych z państwa członkowskiego organu sądowego lub administracyjnego wydającego nakaz niezwłocznie przekazuje kopię nakazów wszystkim pozostałym koordynatorom ds. usług cyfrowych za pośrednictwem systemu działającego na podstawie art. 85 DSA, czyli ustanowionego przez Komisję Europejską systemu wymiany informacji, wspierającego komunikację między koordynatorami ds. usług cyfrowych, Komisją i Radą. Koordynatorzy ds. usług cyfrowych, Komisja i Rada korzystają z tego systemu wymiany informacji do celów całej komunikacji, a Komisja przyjmuje akty wykonawcze określające rozwiązania praktyczne i operacyjne na potrzeby funkcjonowania systemu wymiany informacji i jego interoperacyjności z pozostałymi odpowiednimi systemami. Przy tym trzeba zaznaczyć, że prawodawca UE zaznaczył, że warunki i wymogi określone w art. 9 DSA pozostają bez uszczerbku dla wymogów na mocy krajowych przepisów krajowego prawa cywilnego procesowego i krajowego prawa karnego procesowego. W DSA nie sprecyzowano, czy koordynator ds. usług cyfrowych może stosować środki tymczasowe. Nie jest jasne, czy o zastosowaniu środka tymczasowego ma decydować koordynator ds. usług cyfrowych, do którego odwoła się użytkownik, czy sąd krajowy. Biorąc pod uwagę konsekwencje wynikające z zastosowania środka tymczasowego, czyli np. braku dostępności w internecie danych treści przez określony czas, a także mając na względzie dynamiczny charakter obiegu informacji w internecie, zastosowanie tego rodzaju środka może rodzić bardzo istotne konsekwencje po stronie użytkownika. Z tych przyczyn wydaje się, że rozstrzygnięcie tego rodzaju powinno mieć formę postanowienia sądowego, a nie decyzji administracyjnej. Ponadto, użytkownik musi mieć prawo do szybkiej ścieżki sądowej, tzn. odwołania się od decyzji platformy bezpośrednio do krajowego sądu w państwie, w którym mieszka lub przebywa na stałe.
Na podstawie art. 9 DSA przewiduje się, że organ z jednego państwa członkowskiego będzie mógł nakazać usunięcie treści wobec pośrednika mającego siedzibę w innym państwie członkowskim. W tym aspekcie w rozporządzeniu tym nie została zapisana możliwość ograniczenia zasięgu terytorialnego wydanego nakazu usunięcia, odpowiednio do przesłanek nielegalności obowiązujących w poszczególnych państwach. Możliwość wskazania jasnych dróg odwoławczych dla odbiorcy usługi, którego treść została zablokowana lub usunięta, w wyniku nakazu została ustalona w sposób bardzo ogólny. Prawodawca unijny stwierdził bowiem, że informacje przekazane odbiorcy usługi obejmują uzasadnienie, istniejące możliwości odwołania się oraz opis terytorialnego zakresu stosowania nakazu. W kontekście przedmiotu regulacji DSA należy zwrócić uwagę, że to, co nielegalne w jednym państwie członkowskim, może być legalne w innym i powinno to znaleźć odzwierciedlenie w wydawanych nakazach na podstawie art. 9 DSA.
Podobnie platformy powinny oferować swoim użytkownikom proste mechanizmy umożliwiające zakwestionowanie decyzji o usunięciu treści, które oni umieścili, a w przypadku braku porozumienia w tym zakresie sprawa powinna być rozpatrzona przez sąd. Oferowane powinny być także pozasądowe mechanizmy rozstrzygania sporów. Takim mechanizmem jest procedura art. 21 DSA, zgodnie z którą użytkownicy mają prawo wyboru dowolnego mechanizmu pozasądowego rozstrzygania sporów certyfikowanego w celu rozstrzygnięcia sporów dotyczących tych decyzji, w tym w odniesieniu do skarg, których rozstrzygnięcie nie jest możliwe w ramach wewnętrznego systemu rozpatrywania skarg. Platformy internetowe podejmują współpracę w dobrej wierze z wybranym organem w celu rozstrzygnięcia sporu, a decyzje podjęte przez ten organ są dla nich wiążące. Trzeba podkreślić, że kluczowe w tym zakresie jest pojęcie „moderowanie treści”, o którym była mowa powyżej. Ponadto platformy internetowe mają wprowadzić niezbędne środki techniczne i organizacyjne w celu zapewnienia priorytetowego i niezwłocznego przetwarzania zgłoszeń składanych przez zaufane podmioty sygnalizujące oraz priorytetowego i niezwłocznego podejmowania decyzji w odniesieniu do tych zgłoszeń.
Należy również zaznaczyć, że DSA przewiduje należyte zabezpieczenie praw użytkowników poprzez uregulowanie ścieżki odwoławczej dotyczącej zarówno zablokowania, jak i decyzji o nieuwzględnieniu żądania zablokowania treści przez dostawcę usługi hostingu, w tym platformy internetowej. W ramach dokonywanej przez organy lub sądy weryfikacji decyzji podejmowanych przez dostawców usług powinien być również – w konkretnych stanach faktycznych – uwzględniany „kontekst społeczno-kulturowy kraju użytkownika”. Chociaż przesłanka uwzględnienia „kontekstu społeczno-kulturowego” nie posiada definicji legalnej, nie występuje też w innych aktach prawnych, co istotnie zwiększa ryzyko prawne działalności dostawców usług pośrednich i wystąpienia sporów interpretacyjnych związanych z jej wykładnią, należy przyjąć, że jest ona kluczowa w systemie regulacji treści cyfrowych.
Zgodnie z motywem 13 preambuły DSA dostawców usług hostingu nie należy uznawać za platformy internetowe, w przypadku gdy publiczne rozpowszechnianie jest zaledwie nieznaczną i wyłącznie poboczną cechą, która jest nierozerwalnie powiązana z inną usługą, lub nieznaczną funkcją głównej usługi, której to cechy lub funkcji z obiektywnych względów technicznych nie można wykorzystywać bez tej innej lub głównej usługi, a włączenie takiej cechy lub funkcji nie jest sposobem na obejście stosowania przepisów niniejszego rozporządzenia mających zastosowanie do platform internetowych. Przykładem może być sekcja gazety internetowej przeznaczona na komentarze. Natomiast przechowywanie komentarzy w sieci społecznościowej należy uznać za usługę platformy internetowej. Z kolei usługi przetwarzania w chmurze lub usługi hostingu internetowego nie powinny być uznawane za platformę internetową, jeżeli publiczne rozpowszechnianie określonych informacji stanowi nieznaczną i poboczną cechę lub nieznaczną funkcję takich usług.
W przypadku usług hostingu tylko brak wiedzy o bezprawnym charakterze informacji (oznacza to, że usługodawca nie może mieć wiedzy o tym, że przechowywane przez niego dane są sprzeczne z prawem lub zasadami współżycia społecznego) uzasadnia brak odpowiedzialności za przechowywane informacje. Sąd Najwyższy (dalej: „SN”) w wyroku z 10 stycznia 2014 r.[15] uznał, że uzyskanie wiedzy usługodawcy o bezprawnym charakterze danych wyłącza od tej chwili brak jego odpowiedzialności na gruncie tego unormowania za dalsze udostępnianie tych wpisów, bez względu na to, co jest źródłem tej wiedzy – czy to żądanie osoby dotkniętej takim bezprawnym wpisem, czy też uzyskanie tej wiedzy przez administratora portalu samoistnie, np. na skutek działania moderatora lub nawet w inny sposób. Dla SN nieprzekonywujący był argument pozwanej, że ogrom komentarzy umieszczonych na serwisach administrowanych przez pozwaną wykluczał, aby moderatorzy pozwanej byli w stanie zapoznać się z tymi konkretnymi dotyczącymi powoda i że to wymagałoby zatrudnienia „armii” moderatorów. SN przyjął, że sytuacja obywateli obrażanych i zniesławionych takimi anonimowymi wpisami, a więc wyłączającymi odpowiedzialność ich bezpośrednich sprawców jest trudniejsza, ponieważ pokrzywdzony nie ma żadnego obowiązku nawet posiadać dostępu do internetu czy poświęcać swój czas na sprawdzanie, czy na serwisach nie jest obrażany, zniesławiany bądź podważany jest jego autorytet. Według SN internet to medium, które z założenia ma być przyjazne społeczeństwu informatycznemu, a zatem powinny istnieć skuteczne mechanizmy prawne, które będą zapobiegać wykorzystywaniu go dla działań naruszających godność oraz cześć obywateli i to bez żadnych skutków prawnych dla sprawców. Podobne stanowisko przyjęto w wyroku Sądu Apelacyjnego w Katowicach z 13 lutego 2014 r.[16] w sprawie odpowiedzialności za naruszenie cudzych dóbr osobistych przez usługodawcę świadczącego usługę polegającą na udostępnieniu możliwości bezpłatnego korzystania z internetu oraz zamieszczania wpisów na uruchomionym przez siebie portalu dyskusyjnym: „Usługodawca (…) odpowiada za naruszenie tą drogą cudzych dóbr osobistych wtedy, gdy wiedział, że wpis narusza takie dobro i mimo to nie uniemożliwił niezwłocznie dostępu do wpisu, a więc nie usunął go niezwłocznie. Usługodawca nie ma wprawdzie obowiązku monitorowania sieci, jednakże sytuacja, w której po stronie usługodawcy istnieje stan wiedzy o fakcie naruszenia czy też bezprawnym charakterze tego naruszenia, prowadzi do wystąpienia odpowiedzialności po stronie usługodawcy”.
6. Podsumowanie
DSA jest aktem bezpośrednio stosowanym, natomiast w określonym zakresie każde z państw członkowskich jest zobowiązane do zapewnienia jego skutecznego stosowania w swoim porządku prawnym poprzez przyjęcie przepisów wewnętrznych. W DSA do uregulowania na poziomie krajowym przekazano wyznaczenie organu pełniącego rolę koordynatora do spraw usług cyfrowych, tj. regulatora odpowiadającego za przestrzeganie DSA oraz nadanie mu odpowiednich uprawnień z tym związanych. Z tego względu nowelizacja ustawy o świadczeniu usług drogą elektroniczną oraz opracowanie procedur krajowych wynikających z DSA, tj. w sprawach certyfikacji, przyznawania statusu zaufanego podmiotu sygnalizującego i zweryfikowanego badacza, wprowadzenie przepisów dotyczących przeprowadzania kontroli, opracowanie katalogu kar pieniężnych jest koniecznym zabiegiem legislacyjnym. Warto przy tym zauważyć, że zgodnie z zasadami dobrej legislacji należy zastosować konsekwentny i szczegółowy podział kompetencji i zadań pomiędzy organami właściwymi a koordynatorem – podział odnoszący się do wyraźnie przywołanych w poszczególnych przepisach DSA zadań podmiotów objętych regulacją albo czytelny podział sektorowy.
Kluczowym celem wskazanych powyżej regulacji powinien zaś być jasny status najważniejszego beneficjenta zmian – użytkownika sieci. Chociaż jak podkreśla Timothy Garton Ash, „Bogiem a prawdą, najbardziej skutecznym ograniczeniem mediów powinniśmy być my sami – czytelnicy, widzowie i użytkownicy”[17].
Katarzyna Chałubińska-Jentkiewicz
radca prawny, dr hab. nauk prawnych, profesor uczelni i kierownik Katedry Prawa Informatycznego na Wydziale Prawa i Administracji w Akademii Sztuki Wojennej w Warszawie; dyrektor Pionu DNS w NASK PIB; prowadzi prace badawcze dotyczące regulacji prawnych w obszarze mediów, cyberbezpieczeństwa, zagrożeń bezpieczeństwa informacyjnego, ochrony własności intelektualnej, procesów cyfryzacji i wpływu nowych technologii na rozwój państwa i sytuację prawną jednostki
[1] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2022/2065 z dnia 19 października 2022 r. w sprawie jednolitego rynku usług cyfrowych (akt o usługach cyfrowych) i zmieniające dyrektywę 2000/31/WE (Dz. Urz. UE L 277 z 27.10.2022, s. 1), dalej: „DSA”.
[2] Dyrektywa 2000/31/WE Parlamentu Europejskiego i Rady z dnia 8 czerwca 2000 r. w sprawie niektórych aspektów prawnych usług społeczeństwa informacyjnego, w szczególności handlu elektronicznego w ramach rynku wewnętrznego (dyrektywa o handlu elektronicznym) (Dz. Urz. UE L 178 z 17.07.2000, s. 1), dalej: „dyrektywa 2000/31/WE”.
[3] Zob. J. Olszewska-Taczkowska, K. Chałubińska-Jentkiewicz, Komentarz do ustawy oświadczeniu usług drogą elektroniczą, Warszawa 2018.
[4] Zob. K. Chałubińska-Jentkiewicz, Prawna ochrona treści cyfrowych, Warszawa 2022.
[5] Dyrektywa Parlamentu Europejskiego i Rady (UE) 2018/1808 z dnia 14 listopada 2018 r. zmieniająca dyrektywę 2010/13/UE w sprawie koordynacji niektórych przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących świadczenia audiowizualnych usług medialnych (dyrektywa o audiowizualnych usługach medialnych) ze względu na zmianę sytuacji na rynku (Dz. Urz. UE L 303 z 28.11.2018, s. 69).
[6] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2021/784 z dnia 29 kwietnia 2021 r. w sprawie przeciwdziałania rozpowszechnianiu w internecie treści o charakterze terrorystycznym (Dz. Urz. UE L 172 z 17.05.2021, s. 1).
[7] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2019/1150 z dnia 20 czerwca 2019 r. w sprawie propagowania sprawiedliwości i przejrzystości dla użytkowników biznesowych korzystających z usług pośrednictwa internetowego (Dz. Urz. UE L 186 z 11.07.2019, s. 57).
[8] Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/2161 z dnia 27 listopada 2019 r. zmieniająca dyrektywę Rady 93/13/EWG i dyrektywy Parlamentu Europejskiego i Rady 98/6/WE, 2005/29/WE oraz 2011/83/UE w odniesieniu do lepszego egzekwowania i unowocześnienia unijnych przepisów dotyczących ochrony konsumenta (Dz. Urz. UE L 328 z 18.12.2019, s. 7).
[9] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz. Urz. UE L 119 z 4.05.2016, s. 1).
[10] Zalecenie Komisji z dnia 1 marca 2018 r. w sprawie działań na rzecz skutecznego zwalczania nielegalnych treści w internecie (Dz. Urz. UE L 63 z 6.03.2018, s. 50).
[11] https://ec.europa.eu/info/business-economy-euro/product-safety-and-requirements/product-safety/product-safety-pledge_en), (Protokół ustaleń w sprawie sprzedaży podrobionych towarów w internecie https://ec.europa.eu/growth/industry/policy/intellectualproperty/enforcement/memorandum-understanding-sale-counterfeit-goods-internet_en) (dostęp: 21.02.2024).
[12] https://ec.europa.eu/info/policies/justice-and-fundamental-rights/combatting-discrimination/racism-and-xenophobia/eu-code-conduct-countering-illegal-hate-speech-online_en (dostęp: 21.02.2024).
[13] Dz. U. z 2022 r. poz. 1722, dalej: „u.r.tv.”.
[14] Zob. np. wyrok TSUE z 3 października 2019 r. w sprawie C-18/18, Eva Glawischnig-Piesczek przeciwko Facebook Ireland Limited.
[15] Wyrok SN z 10 stycznia 2014 r., I CSK 128/13, LEX nr 1526612.
[16] Wyrok Sądu Apelacyjnego w Katowicach z 13 lutego 2014 r., I ACa 1086/13, LEX nr 1437961.
[17] T.G. Ash, Wolne słowo, Kraków 2018, s. 379.