banner
Heim / Blog / Kann ein umstrittener Benutzer wirklich aus dem Internet geworfen werden?
Blog

Kann ein umstrittener Benutzer wirklich aus dem Internet geworfen werden?

Jun 02, 2023Jun 02, 2023

Frei sprechen

Nicholas Nugent | 30.8.2023 8:01 Uhr

(Dieser Beitrag ist Teil einer fünfteiligen Serie zur Regulierung der Moderation von Online-Inhalten.)

Wenn es um die Regulierung der Moderation von Inhalten geht, ist meine übergeordnete These, dass das Gesetz zumindest eingreifen sollte, um die „Abschottung von Standpunkten“ zu verhindern – das heißt, um zu verhindern, dass private Vermittler unpopuläre Benutzer, Gruppen oder Standpunkte vollständig aus dem Internet verbannen . Aber der Skeptiker – vielleicht der Purist, der glaubt, dass der Staat niemals in die Moderation privater Inhalte eingreifen sollte – könnte sich fragen, ob die Gefahr der Abschottung von Standpunkten überhaupt besteht. „Niemand läuft Gefahr, aus dem Internet geworfen zu werden“, könnte er sagen. „Wenn Facebook Sie sperrt, können Sie Twitter beitreten. Wenn Twitter Sie nicht akzeptiert, können Sie Parler beitreten. Und selbst wenn jeder andere Anbieter sich weigert, Ihre Rede zu hosten, können Sie immer noch Ihre eigene Website betreiben.“

In meinem Artikel „Die fünf Internetrechte“ nenne ich diese Optionalität den „Gesellschaftsvertrag“ der Inhaltsmoderation: Niemand kann gezwungen werden, Sie im Internet zu hosten, aber niemand kann Sie daran hindern, sich selbst zu hosten. Das Internet ist schließlich dezentralisiert. Und diese Dezentralisierung verhindert, dass eine private Partei oder sogar eine Regierung als zentraler Engpass für Online-Meinungen fungiert. Wie John Gilmore berühmt sagte: „Das Netz interpretiert Zensur als Schaden und vertreibt sie.“

Auch wenn dieses Sprichwort für einen Großteil der Geschichte des Internets galt, gibt es Anzeichen dafür, dass es sich seinem Ablaufdatum nähert. Und je tiefer die Moderation von Inhalten im Internet vordringt, desto mehr könnte sich der Gesellschaftsvertrag auflösen. In diesem Beitrag beschreibe ich die technischen Hebel, die die Abschottung von Standpunkten ermöglichen, und gebe Beispiele für die zunehmende Bereitschaft, diese Hebel zu nutzen.

Um diese Konzepte zu veranschaulichen, ist es hilfreich, sich das Internet nicht als einen Monolithen, sondern als einen Stapel vorzustellen – einen dreischichtigen Stapel, wenn man so will. An der Spitze des Stapels befindet sich die Anwendungsschicht, die das Universum der Anwendungen enthält, die den Verbrauchern Inhalte direkt zur Verfügung stellen. Zu diesen Anwendungen gehören Sprach- und Videoanrufdienste, mobile Apps, Spiele und vor allem Websites wie Twitter (X), YouTube, Facebook und Medium.

Aber Websites funktionieren nicht im luftleeren Raum. Sie sind auf Infrastruktur wie Computer, Speicher, Datenbanken und andere Dienste angewiesen, die für den Betrieb moderner Websites erforderlich sind. Solche Webdienste werden typischerweise von Hosting- und Cloud-Computing-Anbietern wie WiX, Google Cloud, Microsoft Azure oder Rackspace bereitgestellt. Diese Ressourcen bilden die Infrastrukturschicht des Internets.

Doch selbst Infrastrukturanbieter haben ihr Schicksal nicht selbst in der Hand. Um die Internetkommunikation zu ermöglichen, sind solche Anbieter auf grundlegende Ressourcen wie Netzwerke, IP-Adressen und Domänennamen (DNS) angewiesen. Diese Kernressourcen befinden sich in der untersten Schicht des Internets – der Kerninfrastrukturschicht.

Die folgende Abbildung zeigt dieses dreischichtige Modell des Internets.

Mit dieser Struktur im Hinterkopf wenden wir uns nun der Inhaltsmoderation zu. Wie wir sehen werden, hat sich die Inhaltsmoderation weiterentwickelt (und ist dadurch aggressiver und besorgniserregender geworden), indem sie mehr Platz im Internet-Stack einnimmt. In der folgenden Diskussion unterteile ich diese Entwicklung in vier Hauptphasen: klassische Inhaltsmoderation, Deplatforming/No-Platforming, Deep Deplatforming und Standpunktabschottung. Und um die Konzepte nachvollziehbar zu machen, verwende ich eine laufende Fallstudie einer fiktiven Internetnutzerin, die Opfer dieser Entwicklung wird und schließlich aus dem Internet vertrieben wird.

Klassische Content-Moderation

Im typischen, klassischen Szenario ergreift eine Website negative Maßnahmen gegen einen Benutzer oder seine Inhalte, weil der Benutzer durch seine Inhalte oder sein Verhalten auf der Website gegen die Nutzungsbedingungen des Anbieters verstoßen hat. Wenn beispielsweise eine Nutzerin – nennen wir sie „Jane“ – auf ihrer Timeline ein beleidigendes Meme veröffentlicht, das gegen die Community-Standards von Facebook verstößt, kann Facebook den Beitrag entfernen, Janes Konto sperren oder sie ganz sperren.

Hier sehen wir die klassische Inhaltsmoderation in Aktion, wie sie durch zwei Variablen definiert wird: (1) den Umfang des Anliegens und (2) den Handlungsumfang. Zu diesem Zeitpunkt beschäftigte sich Facebook nur mit dem Verhalten von Jane auf seiner Website und der Frage, ob dieses Verhalten gegen die Richtlinien von Facebook verstößt (Bedenkensbereich). Nachdem Facebook entschieden hat, dass Jane gegen diese Richtlinien verstoßen hat, löst Facebook das Problem, indem es einfach Janes Inhalte von seinen Servern löscht, anderen Benutzern den Zugriff verweigert oder Janes Konto kündigt (Maßnahmenumfang). Wichtig ist jedoch, dass diese Aktionen ausschließlich innerhalb der Facebook-Website stattfinden und Jane nach dem Booten weiterhin die Freiheit hat, jeder anderen Website beizutreten. Daher ist die klassische Content-Moderation, wie unten dargestellt, durch einen engen Anliegen- und Handlungsspielraum gekennzeichnet, die beide auf eine einzige Website beschränkt sind.

Deplatforming / No-Platforming

Wenn Jane eine unbekannte Figur ist, dann beschränken sich die Maßnahmen gegen ihre Inhalte möglicherweise auf die klassische Moderation von Inhalten. Selbst wenn Facebook ihr Konto dauerhaft sperrt, kann sie wahrscheinlich zu einer anderen Website wechseln und neu beginnen. Aber wenn Jane berühmt genug ist, um eine öffentliche Gegenreaktion hervorzurufen, kann eine Kampagne gegen ihre Ansichten zu einer Deplatformierung führen.

Wie ein Wörterbuch es ausdrückte, bedeutet „Deplatform“ „eine Person, die Ansichten vertritt, die für viele Menschen nicht akzeptabel sind, daran zu hindern, zu einer Debatte oder einem Online-Forum beizutragen.“ Deplatforming richtet sich also an Benutzer oder Gruppen basierend auf der Ideologie oder dem Standpunkt, den sie vertreten, auch wenn dieser Standpunkt nicht auf der betreffenden Plattform zum Ausdruck kommt. Beispielsweise hat Twitch im April 2021 seine Nutzungsbedingungen aktualisiert, um sich das Recht vorzubehalten, Benutzer „selbst [für] Aktionen [die] ausschließlich außerhalb von Twitch stattfinden“, wie etwa „Mitgliedschaft in einer bekannten Hassgruppe“, zu sperren. Nach diesen Bedingungen könnte die bloße Mitgliedschaft in einer ideologischen Gruppe ohne begleitende Äußerungen oder Verhaltensweisen eine Person vom Dienst disqualifizieren. Andere bekannte Plattformen haben ähnliche Änderungen an ihren Nutzungsbedingungen vorgenommen. Zu den Durchsetzungsmaßnahmen gehörte die Sperrung der Monetarisierung eines YouTube-Kanals, nachdem dessen Ersteller andere (außerhalb der Plattform) dazu ermutigt hatten, soziale Distanzierung zu missachten, und die Sperrung von Facebook- und Instagram-Konten für die Angeklagten (aber noch nicht). verurteilt) wegen Offsite-Verbrechen und das Verbot einer politischen Expertin (und ihres Mannes) von Airbnb, nachdem sie auf einer kontroversen (Offline-)Konferenz gesprochen hatte. Anders ausgedrückt erweitert Deplatforming den Umfang der Bedenken über die bestimmte Website hinaus, auf der ein Benutzer eine ablehnende Meinung äußern könnte, und umfasst die Worte oder Handlungen des Benutzers auf einer beliebigen Website oder sogar die Offline-Wörter und Handlungen des Benutzers.

Darüber hinaus kann sich in einigen Fällen der Handlungsspielraum horizontal erweitern, wenn das Deplatforming zum „No-Platforming“ übergeht. So wie ich den Begriff verwende, spricht man von „No-Platforming“, wenn ein oder mehrere Drittparteien – zum Beispiel andere Nutzer, Journalisten, zivilgesellschaftliche Gruppen – daran arbeiten, einen unpopulären Redner zu marginalisieren, indem sie öffentlichen Druck auf jeden Anwendungsanbieter ausüben, der bereit ist, ihn zu hosten der Lautsprecher. Janes Kritiker könnten zum Beispiel einen Twitter-Sturm entfachen oder mit Massenboykotten gegen jede Website drohen, die Jane als Nutzerin willkommen heißt, indem sie Jane von Seite zu Seite jagen, um zu verhindern, dass sie eine Plattform hat, von der aus sie ihre Ansichten verbreiten kann. Wie unten dargestellt, besteht der praktische Effekt einer erfolgreichen No-Platforming-Kampagne darin, dass einem unbeliebten Sprecher der Zugriff auf die Anwendungsebene gänzlich verwehrt wird.

Tiefgreifendes Deplatforming

„Aber Jane konnte nicht vollständig von der Anwendungsschicht gebootet werden“, könnte man sagen. „Sicherlich wäre irgendeine Website da draußen bereit, ihre Standpunkte zu hosten. Oder im schlimmsten Fall könnte sie jederzeit ihre eigene Website einrichten.“

Solange die Inhaltsmoderation auf die Anwendungsebene beschränkt bleibt, sind diese Ansichten tatsächlich richtig. Sie erfassen die dezentrale Natur des Internets und die mutmaßliche Fähigkeit jedes unternehmungslustigen Redners, seinen eigenen Weg zu gehen.

Sie verlieren jedoch an Wahrheit, je mehr sich die Inhaltsmoderation auf die Infrastrukturebene des Internets ausdehnt. Wie oben erläutert, enthält diese Schicht die Rechen-, Speicher- und anderen Infrastrukturressourcen, von denen Websites abhängen. Und da Websites für diese Ressourcen in der Regel auf Hosting- und Cloud-Computing-Drittanbieter angewiesen sind, kann eine Website möglicherweise nur dann funktionieren, wenn ihre Anbieter mit dem einverstanden sind, was sie ihren Benutzern sagen darf.

Selbst wenn Jane also zu einer Website migriert, die ihre Ansichten teilt oder einfach nur auf freie Meinungsäußerung setzt – „nichehub.xyz“ für die Zwecke dieser Fallstudie –, könnte NicheHub selbst Abhängigkeiten von WiX, Google Cloud, Microsoft Azure usw. haben. oder Rackspace. Jeder dieser Anbieter kann damit drohen, NicheHub auszuschalten, es sei denn, er stellt das Hosting von Jane oder ihren Standpunkten ein. Auch wenn Jane beschließt, ihre eigene Website einzurichten, könnte sie bei diesem Vorhaben durch Infrastrukturanbieter behindert werden, die sich weigern, ihr die Hosting-Dienste zur Verfügung zu stellen, die sie benötigt, um online zu bleiben.

Diese Entwicklungen kennzeichnen „Deep Deplatforming“, eine aggressivere Form des Deplatformings, bei der die Löschung zweiter Ordnung zum Schließen der durch herkömmliche Techniken entstandenen Lücken genutzt wird. Wie unten dargestellt, erweitert Deep Deplatforming vertikal sowohl den Anwendungsbereich als auch den Handlungsspielraum nach unten, um die Infrastrukturschicht des Internet-Stacks einzubeziehen. Der praktische Effekt besteht darin, unpopuläre Redner daran zu hindern, Websites als Plattformen zu nutzen – selbst freiwillige Websites Dritter oder ihre eigenen Websites –, indem sie auf die technischen Abhängigkeiten dieser Websites abzielen.

Der vielleicht bekannteste Fall von Deep Deplatforming betraf Parler, das alternative soziale Netzwerk, das sich selbst als freie Meinungsäußerung-freundliche Alternative zu Facebook und Twitter präsentierte. Nach dem Aufstand im Kapitol am 6. Januar richtete sich die Aufmerksamkeit auf Parlers angebliche Rolle beim Hosten von Benutzern, was Donald Trumps „Stop the Steal“-Rhetorik verstärkte, und der Druck auf die Anbieter, auf die Parler vertraute, um online zu bleiben, nahm zu. Infolgedessen löschte Amazon Web Services (AWS), ein Cloud-Computing-Anbieter, den Parler für Hosting und andere Infrastrukturressourcen nutzte, Parlers Konto und schaltete Parler und alle seine Benutzer offline.

Die obige Abbildung stellt auch ein neues Konzept vor, wenn es darum geht, Deplatforming zu umgehen: den Umfang der Kontrolle. Solange Jane auf externe Website-Betreiber angewiesen ist, die ihr ein Forum zur Verfügung stellen, hat sie kaum Einfluss. Sie kann sich nur nach Belieben anderer an der Bewerbungsebene beteiligen – und dadurch online sprechen. Durch die Erstellung einer eigenen Website kann sie jedoch ihren Kontrollbereich vertikal bis in die Anwendungsebene ausdehnen und sich so vor den Aktionen anderer Website-Betreiber schützen (jedoch nicht vor den Aktionen von Infrastrukturanbietern).

Standpunkt-Abschottung

„Ah, aber kann Jane nicht einfach eine weitere Ebene vertikal integrieren? Kann sie nicht einfach ihre eigenen Webserver kaufen und ihre eigene Website hosten?“

Vielleicht. Aus technischer Sicht kann sie das sicherlich. Damit würde sie ihre Abhängigkeit von anderen Infrastrukturanbietern beseitigen. Aber Server sind nicht billig. Außerdem ist die Anbindung an das Internet kostspielig, da viele private ISPs ihren Abonnenten das Hosten von Websites nicht gestatten und keine statische IP-Adressierung bereitstellen, was selbst gehostete Website-Betreiber dazu zwingt, kommerzielle Internetdienste zu erwerben. Abgesehen von den finanziellen Mitteln verfügt Jane möglicherweise nicht über das Fachwissen, um ihre eigenen Webserver einzurichten. Die meisten Redner in ihrer Position würden das wahrscheinlich nicht tun.

Aber selbst wenn Jane sowohl über das nötige Geld als auch über die technischen Voraussetzungen verfügt, um sich selbst als Moderatorin zu profilieren, kann sie immer noch offline genommen werden, wenn die Inhaltsmoderation bis zur „Abschottung des Standpunkts“, dem Endstadium, voranschreitet. Wie unten dargestellt, kommt es zu einer Abschottung des Standpunkts, wenn Anbieter in der Kerninfrastrukturschicht Ressourcen entziehen, von denen Infrastrukturanbieter abhängig sind.

Beispielsweise gehen Domainnamen-Registrare wie GoDaddy und Google zunehmend dazu über, Domainnamen zu sperren, die mit anstößigen, wenn auch rechtmäßigen Websites in Verbindung stehen. Beispiele hierfür sind die Sperrung von gab.com und ar15.com durch GoDaddy, die Sperrung von dailystormer.com durch Google und die Sperrung von incels.me durch DoMEN.

Auch ISPs sind ins Spiel gekommen. Als Reaktion auf einen Arbeitsstreik sperrte Telus, Kanadas zweitgrößter Internetdienstanbieter, Abonnenten den Zugriff auf eine Website, die den Streik unterstützte. Und was man nur als Vergeltung für die dauerhafte Sperrung von Donald Trumps Social-Media-Konten bezeichnen könnte, blockierte angeblich ein Internetdienstanbieter im ländlichen Idaho seinen Abonnenten den Zugriff auf Facebook oder Twitter.

Am besorgniserregendsten war jedoch ein Ereignis in der Parler-Saga, das in der Öffentlichkeit kaum Beachtung fand. Nach dem Rauswurf aus AWS gelang es Parler schließlich, einen Host bei DDoS-Guard zu finden, einem russischen Cloud-Anbieter, der als Zufluchtsort für andere verbannte Websites diente. Doch im Januar 2021 ging Parler erneut offline, nachdem die DDoS-Guard-IP-Adressen, auf die es sich stützte, vom Latin American and Caribbean Network Information Center (LACNIC), einem der fünf regionalen Internetregister, die für die Verwaltung der weltweiten IP-Adressen zuständig sind, widerrufen wurden. Dieser Widerruf erfolgte mit freundlicher Genehmigung von Ron Guilmette, einem Forscher, der es sich laut einem Sicherheitsexperten „zu einer Art persönlicher Aufgabe gemacht hat, Verschwörungstheoretiker und rechtsextreme Gruppen zu diskriminieren“.

Wenn keine Website einen Benutzer wie Jane beherbergt, der unpopuläre Ansichten vertritt, kann sie ihre eigene Website einrichten. Wenn kein Infrastrukturanbieter ihre Website hostet, kann sie eine vertikale Integration durchführen, indem sie ihre eigenen Server kauft und diese selbst hostet. Aber wenn ihr weiterhin der Zugriff auf zentrale Infrastrukturressourcen wie Domänennamen, IP-Adressen und Netzwerkzugang verweigert wird, ist sie am Boden zerstört. Das öffentliche Internet verwendet ein einziges Domain-Name-System und einen einzigen IP-Adressraum. Sie kann keine alternativen Systeme schaffen, um ihr Publikum zu erreichen, es sei denn, sie schafft im Wesentlichen ein neues Internet und überzeugt die Welt, es zu übernehmen. Sie kann auch nicht realistischerweise ein eigenes globales Glasfasernetz aufbauen, um ihre Website erreichbar zu machen. Wenn ihr Ressourcen innerhalb der Kerninfrastrukturebene verweigert werden, werden sie und ihre Standpunkte in jeder Hinsicht aus dem Internet verbannt.

Während Parler irgendwann wieder seinen Weg ins Internet gefunden hat und sogar Websites wie Daily Stormer es geschafft haben, der völligen Verbannung aus dem Internet zu entgehen, besteht kaum ein Zweifel daran, dass der Appetit, die zentralen Infrastrukturressourcen des Internets als Waffe einzusetzen, zunimmt. Beispielsweise diskutierten einige afrikanische ISPs im Jahr 2021 als eine Form ideologischer Vergeltung öffentlich darüber, die Weiterleitung von Paketen an IP-Adressen eines englischen Colo-Anbieters einzustellen, der das regionale Internetregister Afrikas verklagt hatte. Und im März 2022 beantragte die Ukraine, möglicherweise inspiriert durch die oben genannten Beispiele, bei der regionalen Internet-Registrierungsstelle Europas die Aufhebung der russischen Top-Level-Domains (z. B. .ru, .su), die Deaktivierung der auf russischem Territorium gelegenen DNS-Root-Server und den Entzug aller Rechte Der russische ISP darf alle europäischen IP-Adressen verwenden.

Zusammenfassend lässt sich sagen, dass Nutzer heutzutage zwar nicht unbedingt aus dem Internet geworfen werden, weil sie unpopuläre Ansichten äußern, es gibt jedoch technische Mittel, um genau das zu erreichen. Es scheint auch, dass wir uns auf eine Welt zubewegen, in der diese Art der Ausgrenzung zur Routine werden kann.

Klassische Content-ModerationDeplatforming / No-PlatformingTiefgreifendes DeplatformingStandpunkt-Abschottung