Entfernen des Artikels 19 des bürgerrechtlichen Rahmens für das Internet würde kleine digitale Gemeinschaften bedrohen und das Monopol der Big Tech verstärken

Bild von: James Wainscoat / Unsplash

Der Oberste Gerichtshof (STF) Brasiliens wird in den nächsten Tagen die Verfassungsmäßigkeit von Artikel 19 des Bürgerrechtlichen Rahmens für das Internet verhandeln, ein Thema, das in der Gesellschaft intensive Debatten ausgelöst hat. Es gibt 4 Klagen, die die Gültigkeit der Bestimmung in Frage stellen, darunter eine Direkte Verfassungsklage (ADI) und eine Rüge wegen Verletzung grundlegender Vorschriften (ADPF).

Was sagt das Gesetz?

Artikel 19 des Bürgerrechtlichen Rahmens für das Internet legt Folgendes fest:

Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.

Übersetzung: Art. 19. Mit dem Ziel, die Meinungsfreiheit zu gewährleisten und Zensur zu verhindern, kann ein Anbieter von Internetanwendungen nur dann zivilrechtlich für Schäden aus Inhalten Dritter haftbar gemacht werden, wenn er nach einer spezifischen gerichtlichen Anordnung nicht die erforderlichen Maßnahmen ergreift, um innerhalb des Geltungsbereichs und der technischen Grenzen seines Dienstes und innerhalb der angegebenen Frist den als rechtswidrig bezeichneten Inhalt zu entfernen, vorbehaltlich gegenteiliger gesetzlicher Bestimmungen.

Quelle: Gesetz 12.965 vom 23. April 2014

Das Problem der Inhaltsmoderation

Artikel 19 wird in der Gesellschaft zunehmend in Frage gestellt angesichts der unzureichenden Inhaltsmoderation durch die großen “Plattformen” (auch wenn ich diesen Begriff für unangemessen halte, er hat sich im allgemeinen Sprachgebrauch durchgesetzt). Es ist offensichtlich, dass sie erheblich dabei versagen, strafrechtlich relevante Inhalte, die in ihren Netzwerken gepostet werden, und Desinformation zu entfernen. Einer der Gründe dafür ist, dass die für die Inhaltsmoderation zuständigen Bereiche dieser Unternehmen massive Entlassungswellen zum Ziel hatten, was ihre Handlungsfähigkeit stark eingeschränkt hat.

Daher ist das Argument, dass diese Plattformen reguliert werden müssen, durchaus berechtigt, angesichts der Schäden, die die weit verbreitete Verbreitung von Desinformation und strafrechtlich relevanten Inhalten für die Gesellschaft und die Demokratie verursacht haben.

Nichtsdestotrotz wäre es ein Irrtum zu glauben, dass Inhaltsmoderation eine einfache Aufgabe ist oder mit wenig Aufwand erledigt werden kann. Der Leser ist eingeladen, das Spiel Moderator Mayhem zu spielen, das direkt im Browser gespielt werden kann, ohne Installation. Der Spieler wird in die Rolle eines Plattform-Inhaltsmoderateurs versetzt und sieht sich zunehmend schwierigen Situationen gegenüber, in denen er entscheiden muss, welche Inhalte beibehalten und welche unterdrückt werden sollen. Die Entscheidungen sind nicht immer klar und einfach. Wer denkt, dass sie es sind, dem empfehle ich, das Spiel zu spielen und mir dann zu sagen, ob er immer noch derselben Meinung ist.

Die Konzeption des Bürgerrechtlichen Rahmens

Der Bürgerrechtliche Rahmen für das Internet Brasiliens wurde als Ergebnis eines breit angelegten partizipativen Prozesses konzipiert, bei dem die Stimmen und Argumente der gesamten Gesellschaft, von der Entwurfsphase an, gehört wurden. Es wurde eine offene Plattform für die Beteiligung jeder Person genutzt

Der Gesetzentwurf des Bürgerrechtlichen Rahmens für das Internet wurde auf innovative Weise unter Verwendung der Plattform CulturaDigital.Br des Kulturministeriums erarbeitet. Die Nutzung einer bestehenden Plattform erleichterte die Arbeit der SAL und war für die Erstellung des Gesetzentwurfs in dieser Form entscheidend.

Quelle: Wikipedia

auf so innovative und partizipative Weise, dass sie in einer Masterarbeit untersucht wurde.

Artikel 19 des MCI wurde aus einer intensiven sektorübergreifenden Debatte erarbeitet, die Räume für eine breite Beteiligung der Zivilgesellschaft, der Regierung und der Privatwirtschaft umfasste. (…)

Mit anderen Worten, Artikel 19 legte fest, dass das letzte Wort darüber, was auf den Plattformen rechtmäßig ist oder nicht, immer beim Justizapparat liegt, da diese Unternehmen nicht für Inhalte Dritter haftbar gemacht werden können, wenn sie einer gerichtlichen Anordnung zur Entfernung nicht nachkommen. Sie sind frei, ihre eigenen Regeln und Moderationsmaßnahmen zu treffen, müssen aber keine Entschädigung zahlen, wenn sie einer außergerichtlichen Forderung eines Nutzers nicht nachkommen.

Quelle: João Pedro Favaretto Salvador und Tatiane Guimarães in einem Artikel für die Getúlio Vargas Stiftung

Die intensiven Debatten setzten sich auch während des Gesetzgebungsverfahrens des Gesetzentwurfs in den Häusern des Nationalkongresses fort.

Nach seiner Verabschiedung wurde das Gesetz über den Bürgerrechtlichen Rahmen für das Internet zu einem Modell für die Welt bei der Regulierung des Internets, an dem sich andere Länder bei der Diskussion darüber, wie sie ihre eigene Gesetzgebung entwickeln können, zu orientieren begannen.

Was würde ohne Artikel 19 passieren?

Wenn der STF beschließt, Artikel 19 des Bürgerrechtsrahmens für das Internet aufzuheben, könnte theoretisch jede Person, die einen Internetdienst betreibt, an dem Dritte Inhalte posten können, zivilrechtlich für Schäden haftbar gemacht werden, die durch Inhalte von Dritten verursacht werden. Dies gilt sowohl für die großen Plattformen der Big-Tech-Unternehmen (oder, wie sie im Podcast “Tech Won’t Save Us” genannt werden, die Datenvampire) als auch für kleine Foren und Websites.

Im Falle von Big Tech könnten sie die erhöhten Kosten durch die Neueinstellung und Erweiterung ihrer Moderationsteams (genannt “Trust and Safety”) tragen. Sie würden ihre automatischen Moderationsalgorithmen wahrscheinlich restriktiver konfigurieren, was eine Verstärkung dessen bewirken könnte, was bereits jetzt passiert: die ungerechtfertigte Entfernung von völlig legalen Inhalten, die sogenannten “false positives”. Dies ist ein Thema, das in letzter Zeit nicht viel Aufmerksamkeit erhalten hat, angesichts der Auswirkungen auf die Gesellschaft von “false negatives” (wenn illegale Inhalte auf der Plattform bleiben, auch nachdem sie gemeldet wurden). Außerdem haben diese Unternehmen große Teams von gut bezahlten Anwälten, um mit Klagen wegen Inhalten von Dritten umzugehen.

Letztendlich kommen die Big Tech jedoch oben auf, denn trotz der höheren Kosten wäre ein Rechtssystem ohne Haftungsschutz für Inhalte von Dritten ein rechtliches Umfeld, das es kleineren, innovativen Wettbewerbern mit weniger finanziellen Ressourcen erschweren würde, an ihre Stelle zu treten. Das würde das Oligopol der wenigen derzeit existierenden Giganten festigen und den Markt weiter konzentrieren. Es ist kein Zufall, dass von Big Tech seit langem keine Innovation mehr zu sehen ist. Stattdessen scheinen sie sich mehr darauf zu konzentrieren, für eine sehr spezifische Art staatlicher Regulierung zu lobbyieren, die ihre Position weiter festigen und das Auftauchen neuer Wettbewerber verhindern wird.

Dies ist auch eine wiederkehrende Sorge in Diskussionen in anderen Ländern. In der Europäischen Union legt der Digital Services Act, der 2022 eingeführt wurde, klar unterschiedliche Regeln für große Online-Plattformen fest. In den USA argumentierte Mike Masnick in einer ähnlichen Diskussion über die mögliche Aufhebung von Abschnitt 230 des Communications Decency Act, die vom Kongress angesprochen wurde:

“Big Tech” ist absolut bereit, bei Abschnitt 230 Kompromisse einzugehen, denn sie wissen, dass dies nur in ihre Hände spielt. Es sind alle anderen Websites, die aufgrund von Prozessen und Haftung Schaden nehmen. Meta und Google und die anderen großen Techkonzerne haben Gebäude voller Anwälte. Die Aufhebung von Abschnitt 230 mag sie am Rande [der Gewinne] schädigen, aber sie werden den Ausgleich dafür finden, indem sie den gesamten kleineren Wettbewerb auslöschen.

Quelle: Techdirt, Mai 2024

Auf der anderen Seite ist es im Falle kleiner Websites und Foren sehr anders. Oft haben sie keine Einnahmequelle und sind nur eine Quelle von Ausgaben, Aufwand und Arbeit für die Person, die sie betreibt. Allein die Möglichkeit, das Risiko einer Klage aufgrund eines Beitrags eines Dritten tragen zu müssen, kann viele dazu bringen, ihre Aktivitäten einzustellen, angesichts der Unzulänglichkeit der Ressourcen, um alles, was von Dritten geschrieben wird, schnell zu überwachen und sich in Gerichtsverfahren zu verteidigen, sowie der nicht-kommerziellen Natur dieser Räume.

Daher ist es unerlässlich, dass Artikel 19 des Bürgerrechtsrahmens für das Internet nicht vollständig widerrufen wird, sondern dass spezifische Bestimmungen für bestimmte Situationen hinzugefügt werden, die nur auf große Plattformen anwendbar sind. Zusätzlich zu der bereits geltenden europäischen Regulierung wurde hier in Brasilien auch etwas Ähnliches von Experten wie Ronaldo Lemos verteidigt, der während einer öffentlichen Anhörung am STF im Jahr 2023 argumentierte:

In Bezug auf Artikel 19 ist meine persönliche Ansicht, dass anstatt ihn aufgrund von Verfassungswidrigkeit aufzuheben, der beste Weg tatsächlich darin besteht, seine Anwendung zu modulieren und für spezifische Situationen andere Regeln als seine allgemeine Regel vorzusehen, wieder durch den Nationalkongress.

Quelle: Voices of Regulation - Öffentliche Anhörung am 28.03.2023

Die Zukunft kleiner digitaler Gemeinschaften

Wenn Artikel 19 seine Gültigkeit vollständig verliert, werden die Risiken für jeden, der eine kleine digitale Gemeinschaft oder ein gemeinnütziges Forum im Internet betreibt, bei dem die Möglichkeit besteht, Inhalte von Dritten zu hosten, enorm. Es wäre bedauerlich, den gesamten in diesen Räumen angesammelten Inhalt und Wissensschatz zu verlieren. Daher könnte im Falle der Haftung für Inhalte von Dritten die sinnvolle Alternative, die diese Wissensbasis erhält, darin bestehen, die Gemeinschaft oder das Forum einzufrieren und keine neuen Beiträge mehr zuzulassen, sie aber nur als Quelle der Konsultation zu belassen, in der Hoffnung, denen zu helfen, die Informationen suchen. Leider würde man dabei jedoch den interaktiven Charakter und die Möglichkeit verlieren, dass eine Person einer anderen direkt hilft, z.B. durch das Beantworten von Fragen.

Trotz der Herausforderungen ist es unerlässlich, eine ausgewogene Lösung zu finden, die die Meinungsfreiheit und Innovation im Internet bewahrt, gleichzeitig aber für große Plattformen klare und spezifische Regeln aufstellt, um die Schäden durch die Verbreitung schädlicher Inhalte zu mindern, ohne kleine Websites zu schädigen. Die angestrebte Regulierung muss zwangsläufig ausschließlich für große Plattformen gelten, wie es die Europäische Union bereits getan hat.