Platformy internetowe (których definicję przybliżyłem w tym wpisie) są usługami o kluczowym znaczeniu z punktu widzenia celów, które zrealizować ma akt o usługach cyfrowych (DSA). Publiczne udostępnianie treści przez ich odbiorców oznacza, że treści nielegalne lub niezgodne z warunkami świadczenia usług mają potencjalnie nieograniczony zasięg, przez co mogą wyrządzić szczególnie dotkliwe społecznie szkody.
Wobec tego, to właśnie na dostawcach platform internetowych spoczywać będzie szczególny ciężar ich dostosowania do nowych przepisów – zarówno pod względem nowych procedur, jak i odpowiedniego projektu usługi. Dostawcy powinni więc liczyć się z koniecznością zmiany projektu usługi, co może okazać się szczególnie czasochłonne.
Dostawcy wszystkich platform internetowych posiadają dodatkowe obowiązki związane z moderacją treści, mające zapewnić bardziej efektywny system moderacji treści oraz dostęp do skuteczniejszych narzędzi odwoławczych dla odbiorców.
Spis treści
Obowiązki w zakresie moderacji treści
Na początku warto wspomnieć o wyłączeniu obejmującym tych dostawców platform internetowych, którzy są mikro- lub małymi przedsiębiorcami lub przestali nimi być co najmniej 12 miesięcy wcześniej. Roczny bufor nie obejmuje dostawców bardzo dużych platform internetowych. Wyłączenie to obejmuje wszystkie obowiązki przewidziane dla dostawców platform internetowych, poza koniecznością informowania przez nich o średniej liczbie użytkowników w Unii Europejskiej Komisji lub koordynatora ds. usług cyfrowych na wniosek tych podmiotów.
Priorytet dla zgłoszeń dokonanych przez zaufane podmioty sygnalizujące
Koordynator ds. usług cyfowych – specjalny podmiot wyznaczony przez prawodawcę dla realizacji celów nadzorczych i organizacyjnych przewidzianych przez DSA – tworzy listę zaufanych podmiotów sygnalizujących. Są to niezależne od dostawców usług podmioty o kompetencjach eksperckich w zakresie wykrywania, identyfikowania i zgłaszania nielegalnych treści.
Dostawcy platform internetowych będą musieli dostosować swoje systemy zgłaszania nielegalnych treści (o których szerzej w ostatnim wpisie) w taki sposób, aby umożliwiały one wyróżnienie zgłoszeń dokonywanych przez zaufane podmioty sygnalizujące, których zgłoszenia powinny zostać rozpatrzone w pierwszej kolejności.
DSA wprowadza też zabezpieczenie przed tymi zaufanymi podmiotami sygnalizującymi, których działania nie spełniają wymogów stawianych przez prawo, a świadczą raczej o braku należytej staranności, bądź złej woli w dokonywaniu zgłoszeń. W takich sytuacjach, kiedy nieuzasadnionych zgłoszeń jest „wystarczająco dużo”, dostawca może poinformować o tym koordynatora ds. usług cyfrowych, aby podmiot został poddany stosownej weryfikacji.
Wewnętrzny system rozpoznawania skarg. Pozasądowe rozstrzyganie sporów.
Poza systemem zgłaszania nielegalnych treści, dostawcy platform internetowych zmuszeni będą również implementować wewnętrzny system rozpoznawania skarg, umożliwiający odwoływanie się od decyzji o ograniczeniu lub usunięciu treści, podjętej w ramach procedury notice & take action. Systemy te mają być przyjazne dla użytkownika i przejrzyste, a także umożliwiać formułowanie precyzyjnych i odpowiednio uzasadnionych skarg. Możliwość złożenia skargi powinna być dostępna co najmniej przez 6 miesięcy. W przypadku uwzględnienia skargi, decyzja dostawcy powinna zostać niezwłocznie zmieniona. Skargi nie mogą być rozpatrywane wyłącznie w oparciu o systemy automatycznego podejmowania decyzji.
Jeśli skarga nie zostanie uwzględniona w ramach wewnętrznego systemu, dostawca ma obowiązek poinformować odbiorcę usługi o możliwości skorzystania z metod pozasądowego rozwiązywania sporów. W celu ułatwienia dostępu do tych środków, oraz zapewnienia ich odpowiedniej jakości, koordynator ds. usług cyfrowych powinien certyfikacji organów pozasądowego rozwiązywania sporów, który powinien spełniać szereg wymagań wskazujących na jego profesjonalny i niezależny charakter.
Godna wzmianki jest asymetria między dostawcą, a odbiorcą platformy w zakresie kosztów postępowania, które zobowiązani są oni ponieść po rozstrzygnięciu sprawy przez certyfikowany organ. W przypadku przegranej, dostawca powinien zwrócić odbiorcy wszelkie poniesione koszty postepowania, jednak w analogicznej sytuacji odbiorca nie może zostać zobowiązany do poniesienia tych kosztów po stronie dostawcy.
Sankcje za „recydywę”
Podczas moderacji nielegalnych treści, dostawcy platform internetowych powinni zawieszać świadczenie usług na rzecz podmiotów, które często publikują oczywiście nielegalne treści. Oceniając, czy i na jak długo powinni dokonać zawieszenia, usługodawcy powinni wziąć pod uwagę cztery główne kryteria:
- jak wiele dany podmiot opublikował nielegalnych treści;
- w jak dużym stosunku te treści pozostają do całości treści publikowanych przez podmiot;
- jak szkodliwe są treści nielegalne, w tym jakie konsekwencje pociągnęło za sobą ich opublikowanie;
- jaki zamiar miał publikujący, umieszczając w usłudze treści nielegalne.
Stosowane przez dostawcę platformy kryteria powinny zostać jasno i szczegółowo opisane w warunkach świadczenia usług (o których więcej tutaj).
Z możliwością blokady konta powinni się jednak liczyć również ci, którzy nadmiernie często zgłaszają treści, które nie są niezgodne z prawem lub warunkami świadczenia usług. W ich przypadku dostawca platformy ma obowiązek reagowania w opisany powyżej sposób.
Ochrona małoletnich
Artykuł 28 DSA wprowadza konieczność odpowiedniego standardu ochrony względem małoletnich. Stosuje przy tym dobrze znaną formułę „odpowiednich i proporcjonalnych” środków koniecznych do realizacji tego celu. Aby zapewnić prywatność, bezpieczeństwo i ochronę dzieciom, należy więc odpowiednio dostosować środki do świadczonej przez siebie usługi.
Dobrym początkiem dla realizacji powyższych wytycznych będzie określenie, w jakim stopniu usługa jest adresowana do dzieci, a także ocena wszelkich sytuacji, w których mogłyby one doznać krzywdy, lub podlegać manipulacji skutkującej ujawnieniem swoich danych osobowych. W przypadku znacznego prawdopodobieństwa, że odbiorcami usługi są małoletni, warto dostosować swoje interfejsy, ale również mechanizmy zgłaszania skarg w taki sposób, aby były one zrozumiałe dla osób nieletnich, np. przez większą pomoc w opisie zdarzenia, czy identyfikacji doznanej krzywdy.
Obowiązki sprawozdawcze
Dostawcy Platform internetowych będą musieli również w szerszym zakresie realizować obowiązek sprawozdawczy dotyczący moderacji treści. Powinni oni dodatkowo publikować informacje na temat sporów przekazanych do certyfikowanego podmiotu polubownego rozwiązywania sporów oraz ich wynikach, czasie trwania i wykonaniu. Sprawozdanie powinno też zawierać liczbę zawieszeń świadczenia usług z uwagi na publikowane treści lub nadmierne zgłoszenia.
Co pół roku dostawcy platform i wyszukiwarek powinni też publikować informacje na temat średniej liczby aktywnych odbiorców w Unii. Informacje te powinni też przedstawiać bez zbędnej zwłoki na wniosek koordynatora ds. usług cyfrowych lub Komisji Europejskiej. Ma to służyć monitorowaniu tego, czy platforma nie przekroczyła progu skutkującego uznaniem jej za bardzo dużą platformę internetową.
Realizację obowiązków sprawozdawczych powinno ułatwić opublikowanie przez Komisję Europejską ich wzorów, stosowny akt wykonawczy wciąż pozostaje jednak na etapie legislacyjnym.
Szczególne wyzwania dla MMO
Społeczny charakter gier MMO powoduje, że większość z nich – jeśli nie wszystkie – stanowią przykłady platform internetowych w rozumieniu DSA. Co prawda można twierdzić, że główną cechą gier MMO jest rozgrywka, która może być prowadzona solo, jednak społeczny charakter tych tytułów jest ich cechą wyróżniającą, przyciągającą znaczną część graczy. Publikowanie treści, wymiana, rynki zaprogramowane jako mechanika rozgrywki powodują, że należy liczyć się z uznaniem tytułu MMO za platformę podczas kontroli koordynatora ds. usług cyfrowych.
Szczególnie duże znaczenie dla gamedevu ma art. 28, wprowadzający specjalne wymogi w zakresie ochrony małoletnich odbiorców. W kontekście gier cyfrowych wyzwanie to jest jeszcze trudniejsze dla dostawców. Dynamika rozgrywki, multimedialność produktów oraz trudność w określeniu rzeczywistego wieku użytkowników zmuszają do podjęcia szczególnych środków bezpieczeństwa. Można rozważyć ściślejszą kontrolę wieku użytkownika przy rejestracji konta. Dobrym rozwiązaniem może być również stworzenie specjalnego punktu kontaktowego dla małoletnich do bezpiecznego zgłaszania naruszeń.
W realizacji obowiązków przez twórców gier MMO szczególnie przydatne mogą okazać się zaufane podmioty sygnalizujące, wyspecjalizowane w walce z nielegalnymi treściami w środowiskach cyfrowych tego typu. Taka organizacja, składająca się z aktywnych członków społeczności gry, byłaby w stanie u podstaw identyfikować szczególnie szkodliwe treści i szybko raportować je deweloperowi, korzystając z uprzywilejowanej pozycji. Biorąc pod uwagę kreatywność i zaangażowanie wielu graczy MMO, rozwiązanie byłoby nie tylko realne, ale i stanowiło dużą korzyść zarówno dla graczy, jak i deweloperów.
Pozostałe artykuły
DSA z nutą gamedevu. Obowiązki platform – interfejsy i reklamy
Dostawcy platform internetowych muszą mierzyć się z dostosowaniem swoich usług nie tylko do określonych standardów moderacji treści niedozwolonych (o czym…
DSA z nutą gamedevu. Obowiązki dostawców hostingu
Kontynuując wątek rozpoczęty w ubiegłym tygodniu, poniżej przedstawiam krótkie omówienie obowiązków, które akt o usługach cyfrowych (DSA) od 17 lutego…
DSA z nutą gamedevu. Struktura odpowiedzialności i obowiązki wszystkich dostawców usług pośrednich
Ostatnio, pisząc o założeniach i adresatach aktu o usługach cyfrowych (DSA) zauważyłem, że nakłada on na dostawców usług pośrednich dwie…