Niepokój o ustawę o usługach cyfrowych

Autor, David Thunder

Artykuł 11  Karty praw podstawowych Unii Europejskiej, który stanowi replikę części artykułu 10 Europejskiej  Konwencji Praw Człowieka , chroni prawo obywateli europejskich do „posiadania opinii oraz do otrzymywania i przekazywania informacji i idei bez ingerencji władzy publicznej i bez względu na granic” i stwierdza, że ​​„należy szanować wolność i pluralizm mediów”. Niestety, los wolności słowa w Europie wisi obecnie w dużej mierze pod znakiem zapytania, ponieważ Unia Europejska właśnie przyjęła ustawę, która upoważnia Komisję do znacznego ograniczenia możliwości korzystania przez obywateli z platform cyfrowych w celu angażowania się w zdecydowany i szczery dyskurs demokratyczny .

Zgodnie z niedawno uchwaloną  ustawą o usługach cyfrowych Komisja Europejska może wywierać znaczny nacisk na platformy cyfrowe, aby ograniczyć „mowę nienawiści”, „dezinformację” i zagrożenia dla „dyskursu obywatelskiego”, z których wszystkie stanowią notorycznie niejasne i niejasne kategorie, kategorie, które mają historycznie zostały dokooptowane, aby wzmocnić narrację klasy rządzącej. Dając Komisji Europejskiej szerokie uprawnienia dyskrecjonalne w zakresie nadzorowania polityki moderowania treści Big Tech, ten akt prawny czyni wolność słowa zakładnikiem ideologicznych skłonności niewybranych urzędników europejskich i ich armii „zaufanych sygnalistów”.

Cel ustawy o usługach cyfrowych

Deklarowanym celem  wchodzącej właśnie w życie w Europie ustawy o usługach cyfrowych  (DSA) jest zapewnienie większej „harmonizacji” warunków wpływających na świadczenie „pośrednich” usług cyfrowych, w szczególności platform internetowych, na których udostępniane są treści udostępniane przez ich klientów . Ustawa obejmuje oszałamiający wachlarz zagadnień, od ochrony konsumentów i regulacji algorytmów reklamowych po pornografię dziecięcą i moderację treści. Wśród innych celów pojawiających się w brzmieniu ustawy znajduje się wspieranie „bezpiecznego, przewidywalnego i godnego zaufania środowiska internetowego”, ochrona wolności wypowiedzi obywateli oraz harmonizacja przepisów UE mających wpływ na internetowe platformy cyfrowe, które obecnie zależą od prawa poszczególnych Państw Członkowskich.

DSA nie jest tak niewinne, jak się wydaje

Na pierwszy rzut oka  ustawa o usługach cyfrowych  (DSA) może wydawać się raczej nieszkodliwa. Nakłada dość formalne wymogi na „bardzo duże platformy internetowe”, takie jak Google, Twitter/X, Facebook i TikTok, dotyczące jasnych procedur odwoławczych i przejrzystości w zakresie regulacji dotyczących szkodliwych i nielegalnych treści. Na przykład w art. 45 ustawy jako dość łagodny wymóg dotykowy nałożono, aby dostawcy usług cyfrowych online („usługi pośredniczące”) informowali klientów o warunkach i zasadach firmy:

Dostawcy usług pośrednictwa powinni wyraźnie wskazać i na bieżąco aktualizować w swoim regulaminie informację o podstawach, na podstawie których mogą ograniczyć świadczenie swoich usług. W szczególności powinny zawierać informacje na temat wszelkich polityk, procedur, środków i narzędzi wykorzystywanych do moderacji treści, w tym algorytmicznego podejmowania decyzji i weryfikacji ludzkiej, a także regulaminu wewnętrznego systemu rozpatrywania skarg. Powinny także zapewniać łatwo dostępną informację o prawie do zakończenia korzystania z usługi.

Post aktywisty nie wymaga korzystania z Google — potrzebujemy Twojego wsparcia.
Przekaż zaledwie 1 dolara miesięcznie na Patreonie lub SubscribeStar

Jeśli jednak zaczniesz zagłębiać się w ustawę, szybko odkryjesz, że jest ona szkodliwa dla wolności słowa i niezgodna z duchem art. 11 Karty praw  podstawowych  UE, który gwarantuje obywatelom „wolność posiadania poglądów i otrzymywania oraz przekazywać informacje i idee bez ingerencji władz publicznych i bez względu na granice.” Poniżej szczegółowo opisałem niektóre aspekty ustawy, które łącznie stanowią bezprecedensowe zagrożenie dla wolności słowa w Europie:

1. Ustawa DSA ( ustawa o usługach cyfrowych ) tworzy podmioty zwane „zaufanymi podmiotami zgłaszającymi”, których zadaniem jest zgłaszanie „nielegalnych treści”, które rozpoznają na dużych platformach internetowych. Ustawa nakłada na platformy internetowe obowiązek niezwłocznego reagowania na zgłoszenia dotyczące nielegalnych treści przekazywane przez „zaufane podmioty sygnalizujące” wyznaczone przez „koordynatorów usług cyfrowych” wyznaczonych przez państwa członkowskie. Ustawa nakłada na duże platformy internetowe obowiązek „podjęcia niezbędnych środków w celu zapewnienia priorytetowego traktowania powiadomień przesyłanych przez zaufane podmioty sygnalizujące, działające w wyznaczonym przez nich obszarze specjalizacji, za pośrednictwem mechanizmów powiadamiania i podejmowania działań wymaganych na mocy niniejszego rozporządzenia   .

2. Ściśle rzecz ujmując, chociaż platformy cyfrowe mają obowiązek reagowania na zgłoszenia dotyczące nielegalnych treści przesyłane przez „zaufane podmioty zgłaszające”, z brzmienia ustawy wynika, że ​​platformy mają swobodę decydowania, jak dokładnie postąpić w przypadku takich zgłoszeń. Mogą na przykład nie zgodzić się z opinią prawną „zaufanego podmiotu zgłaszającego” i zdecydować o nieusuwaniu oznaczonych treści. Będą jednak poddawani okresowym kontrolom zgodności swoich działań z ustawą, przeprowadzanym przez audytorów działających w imieniu Komisji Europejskiej, a kontrole te nie wróżą pozytywnie wzorca bierności wobec oznaczonych treści.

3. Ustawa o usługach cyfrowych nakłada również na „bardzo duże platformy internetowe” (platformy takie jak Google, YouTube, Facebook i Twitter) obowiązek przeprowadzania okresowych ocen „ograniczania ryzyka”, w których uwzględnia się „ryzyka systemowe” związane z ich platformami, w tym m.in. nie ogranicza się do dziecięcej pornografii, „przemocy ze względu na płeć” (cokolwiek to oznacza), „dezinformacji” w zakresie zdrowia publicznego oraz „rzeczywistego lub przewidywalnego negatywnego wpływu na procesy demokratyczne, dyskurs obywatelski i procesy wyborcze, a także bezpieczeństwo publiczne”. Na mocy ustawy platformy mają obowiązek dochowania należytej staranności w celu podjęcia odpowiednich środków w celu zarządzania tym ryzykiem. W przeciwieństwie do dobrowolnego kodeksu postępowania, rezygnacja nie jest możliwa, a nieprzestrzeganie obowiązków związanych z „należytą starannością” będzie podlegać surowym sankcjom.

4. Sankcje związane z nieprzestrzeganiem ustawy są godne uwagi. Komisja, jeśli uzna, że ​​duża platforma internetowa, taka jak X/Twitter, nie przestrzega przepisów DSA, może nałożyć na nią karę w wysokości  do 6 procent jej rocznego światowego obrotu . Ponieważ pojęcie nieprzestrzegania przepisów jest trudne do oszacowania i dość niejasne (co dokładnie jest wymagane, aby spełnić „obowiązki należytej staranności” w ramach zarządzania ryzykiem systemowym?), wydaje się prawdopodobne, że firmy, które chcą uniknąć problemów prawnych i finansowych, wolałyby zachować ostrożność i okazywać „przestrzeganie przepisów”, aby uniknąć kary.

5. Okresowe audyty przewidziane w niniejszej ustawie posłużą Komisji jako narzędzie do wywierania presji na duże platformy internetowe, aby podjęły działania mające na celu „zarządzanie” „ryzykiem” dezinformacji i zagrożeniami dla „dyskursu obywatelskiego i procesów wyborczych”, zagrożeniami, które są notorycznie niejasne i prawdopodobnie niemożliwe do zdefiniowania w sposób politycznie bezstronny. W tle tych audytów i związanych z nimi „zaleceń” czai się zagrożenie, że Komisja może nałożyć wielomiliardowe kary na platformy internetowe za nieprzestrzeganie przepisów. Ze względu na dość niejasne pojęcie nieprzestrzegania „obowiązków należytej staranności” oraz dyskrecjonalny charakter sankcji finansowych grożących w DSA, ustawa ta stworzy atmosferę niepewności prawnej zarówno dla platform internetowych, jak  i dla swoich użytkowników. Silnie zachęca platformy internetowe do stosowania przemówień policyjnych w sposób nie dorównujący Komisji Europejskiej i skupiających się wokół niejasnych kategorii, takich jak „dezinformacja” i „mowa nienawiści”, co oczywiście będzie miało konsekwencje dla użytkowników końcowych.

6.  Według Komisji Europejskiej „przestępstwa i wypowiedzi motywowane nienawiścią są nielegalne w świetle prawa UE. Decyzja ramowa z 2008 r. w sprawie zwalczania niektórych form wyrazu rasizmu i ksenofobii wymaga kryminalizacji publicznego nawoływania do przemocy lub nienawiści ze względu na rasę, kolor skóry, religię, pochodzenie albo pochodzenie narodowe lub etniczne. Należy podkreślić, że Komisja Europejska opowiada się za rozszerzeniem kategorii nielegalnej mowy nienawiści na poziomie ogólnoeuropejskim tak, aby obejmowały one nie tylko „rasę, kolor skóry, religię, pochodzenie lub pochodzenie narodowe lub etniczne”, ale także nowe kategorie (prawdopodobnie włączając w to kwestie takie jak tożsamość płciowa). Zatem nielegalne nawoływanie do nienawiści jest „ruchomym celem”, które z biegiem czasu prawdopodobnie stanie się coraz szersze i bardziej nacechowane politycznie. Według własnej strony internetowej Komisji Europejskiej ,

W dniu 9 grudnia 2021 r.  Komisja Europejska przyjęła komunikat , w wyniku którego Rada podjęła decyzję o rozszerzeniu obecnego wykazu „przestępstw UE” zawartego w art. 83 ust. 1 TFUE o przestępstwa z nienawiści i mowę nienawiści. Jeżeli decyzja Rady zostanie przyjęta, Komisja Europejska będzie mogła w drugim etapie zaproponować prawodawstwo wtórne umożliwiające UE kryminalizację innych form mowy nienawiści i przestępstw z nienawiści, oprócz pobudek rasistowskich lub ksenofobicznych.

Ogłoś swoją niezależność!

Zysk poza sfałszowanym systemem! Chroń się przed tyranią i załamaniem gospodarczym. Naucz się żyć wolni i szerz pokój!

Biuletyn dotyczący rynków licznikowych — trendy i strategie zapewniające maksymalną swobodę

Zgłoś swój BEZPŁATNY numer już dziś!Kliknij tutaj, aby pobrać teraz

7. Najbardziej niepokojącym aspektem DSA jest ogromna władza i swoboda, jaką oddaje w ręce Komisji Europejskiej – w szczególności niewybieralnej komisji – w zakresie nadzorowania przestrzegania DSA i decydowania, kiedy platformy internetowe nie przestrzegają swoich zasad „obowiązki należytej staranności” w celu zarządzania ryzykami, których znaczenie jest notorycznie niejasne i podatne na manipulację, takimi jak mowa nienawiści, dezinformacja i dyskurs antyobywatelski. Komisja Europejska przyznaje sobie również uprawnienia do ogłoszenia ogólnoeuropejskiego stanu nadzwyczajnego, co umożliwiłoby jej zażądanie dodatkowych interwencji ze strony platform cyfrowych w celu przeciwdziałania zagrożeniu publicznemu. Nie będzie pewności prawnej co do tego, kiedy Komisja Europejska może ogłosić „stan nadzwyczajny”.

8. Nie jest też jasne, w jaki sposób Komisja mogłaby przeprowadzić kontrolę „ryzyka systemowego” dezinformacji oraz zagrożeń dla dyskursu obywatelskiego i procesów wyborczych, nie uwzględniając w sposób szczególny tego, co jest prawdą, a co nieprawdziwą, pożyteczną i szkodliwą informacją, uprzedzając w ten sposób demokratyczny proces, w ramach którego obywatele sami oceniają te kwestie.

9. Nie jest też jasne, jakie mechanizmy kontroli i równowagi zostaną wprowadzone, aby zapobiec temu, aby DSA stała się bronią w ulubionych celach Komisji Europejskiej, czy to wojnie na Ukrainie, wdrażaniu szczepionek, polityce klimatycznej czy „wojnie z terroryzmem”. Szerokie uprawnienia do ogłaszania stanu nadzwyczajnego i wymagania od platform dokonywania „ocen” swojej polityki w odpowiedzi na tę sytuację, w połączeniu z szeroką swobodą decyzyjną w zakresie nakładania kar finansowych na platformy internetowe za „nieprzestrzeganie” z natury niejasnych „obowiązków należytej staranności”, dają Komisji dużą swobodę, aby panować nad platformami internetowymi i wywierać na nie nacisk, aby promowały jej ulubioną narrację polityczną.

10. Szczególnie podstępnym aspektem tej ustawy jest to, że Komisja skutecznie czyni dezinformację nielegalną *poprzez tylne drzwi*, że tak powiem. Zamiast jasno zdefiniować, co rozumieją przez „dezinformację” i uznać ją za nielegalną – co prawdopodobnie wywołałoby zamieszanie – nakładają na duże platformy internetowe, takie jak Twitter i Facebook, wymóg „należytej staranności”, aby podejmowały uznaniowe środki przeciwko dezinformacji i łagodziły „ ryzyka systemowe” na swoich platformach (w tym ryzyko „dezinformacji w zakresie zdrowia publicznego”). Można przypuszczać, że okresowe audyty przestrzegania ustawy przez te firmy niemiło odbiłyby się na politykach, które ledwo egzekwowały zasady dezinformacji.

Zatem ostatecznym skutkiem tej ustawy byłoby wywarcie niemal nieodpartej presji na platformy mediów społecznościowych, aby zaangażowały się w grę „przeciwdziałającą dezinformacji” w sposób, który przeszedł testy audytorów Komisji i uniknął w ten sposób wysokich kar. Istnieje duża niepewność co do tego, jak rygorystyczne lub niedbałe byłyby takie audyty i jakiego rodzaju nieprzestrzeganie przepisów mogłoby skutkować nałożeniem sankcji finansowych. To dość dziwne, że regulacja prawna mająca na celu obronę wolności słowa stawia los wolności słowa na łasce w dużej mierze uznaniowych i z natury nieprzewidywalnych ocen niewybranych urzędników.

Jedyną nadzieją jest to, że ten brzydki, skomplikowany i regresywny akt prawny trafi przed sędziego, który rozumie, że wolność słowa nic nie znaczy, jeśli stanie się zakładnikiem poglądów Komisji Europejskiej na temat gotowości na wypadek pandemii, wojny rosyjsko-ukraińskiej czy czegokolwiek innego. liczy się jako wypowiedź „obraźliwa” lub „nienawistna”.


Już dziś stań się kuloodporny w Internecie, BEZ RYZYKA!

PS Potraktuj tę analizę jako wstępną próbę kogoś, kto nie specjalizuje się w prawie europejskim, zmierzenia się z niepokojącymi konsekwencjami ustawy o usługach cyfrowych dla wolności słowa, opartą na pierwszym czytaniu. Z radością przyjmuję poprawki i uwagi ekspertów prawnych oraz tych, którzy mieli cierpliwość, aby samodzielnie przebrnąć przez ustawę. Jest to najbardziej szczegółowa i rygorystyczna interpretacja DSA, jaką do tej pory opracowałem. Zawiera ważne niuanse, których nie uwzględniłem w moich poprzednich interpretacjach, i koryguje pewne błędne interpretacje – w szczególności platformy nie są prawnie zobowiązane do usuwania wszystkich oznaczonych treści, a osoby zgłaszające treści nielegalne nazywane są „zaufanymi podmiotami zgłaszającymi”, a nie „weryfikatorzy faktów”).

Opublikowano ponownie z Substack autora

Pochodzi z Instytutu Brownstone

Opublikowano na licencji międzynarodowej Creative Commons Uznanie autorstwa 4.0
W przypadku przedruków proszę ustawić link kanoniczny z powrotem do oryginalnego artykułu i autora Brownstone Institute .

David Thunder jest badaczem i wykładowcą w Instytucie Kultury i Społeczeństwa Uniwersytetu Nawarry w Pampelunie w Hiszpanii oraz laureatem prestiżowego grantu badawczego Ramón y Cajal (2017–2021 z przedłużeniem do 2023 r.), przyznawanego przez rząd hiszpański w celu wspierania wybitną działalność naukową. Przed powołaniem na Uniwersytet Nawarry zajmował kilka stanowisk badawczych i dydaktycznych w Stanach Zjednoczonych, w tym adiunkta wizytującego w Bucknell i Villanova oraz stanowisko podoktoranckie w programie James Madison na Uniwersytecie Princeton. Dr Thunder uzyskał tytuł licencjata i magistra filozofii na University College Dublin oraz tytuł doktora. politologii na Uniwersytecie Notre Dame.

Źródło https://www.activistpost.com/2023/09/you-should-be-very-worried-about-the-digital-services-act.html

50% LikesVS
50% Dislikes

Dodaj komentarz

You might like