next up previous contents
Next: 3 Die Disziplinargesellschaft und Up: 2 Manipulation und Filterung Previous: 2 Die digitale Schere   Contents

3 Die digitale Schere 2: Filterung des öffentlichen Angebots

Eine andere Taktik besteht im Installieren einer Filtersoftware auf bestimmten Rechnern. Auch hier ist eine gewisse Zentralisierung vonnöten, da nicht jeder einzelne Nutzer eine eigene Liste erlaubter und/oder verbotener Inhalte erstellen kann. Dementsprechend arbeiten Filter mit den Daten einer Selbstklassifizierung der Inhaltsanbieter oder den Blacklists privater Unternehmen, welche mehr oder weniger beliebige Bewertungskriterien anlegen.

Das Beispiel der USA zeigt, wie eine Filterung nur der öffentlich zugänglichen Netzinhalte aussehen kann. Es bildet sich gewissermaßen ein Zweiklassensystem weniger der Information als der Weltbeschreibung, welches die Nutzer eines privaten Netzzugangs von den zur Nutzung öffentlicher Angebote gezwungener Personen trennt.

Mit dem Terminus der "`Weltbeschreibung"' möchte ich den Kern der Argumentation dahingehend verschieben, dass es nicht darum geht, dass alle möglichst die selbe Menge an ,Informationen' bekommen und das reine Fehlen einer beliebigen Sexseite eine ,Informationsungerechtigkeit' bedeutet, wie es in Diskussionen zum Thema oft dargestellt wird. Das Problem besteht in der hochselektiven Arbeit der Filter und im Befördern einer Verschiebung der Sicht auf die Wirklichkeit, die in gezielter Art manipuliert wird. Nicht das Fehlen einer speziellen Seite von und für Schwule verändert die Situation der Nutzer, sondern das Erzeugen einer medienvermittelten Realität, in der sexuelle Minderheiten nicht normal sind. Was den USA sexuelle Minderheiten, das in Deutschland der Rechtsextremismus: hier wie dort wird versucht, eine Zensur einzuführen, mittels der ein gefiltertes Bild der Realität vermitteln soll, welches nach den ästhetischen und politischen Kriterien einer Elite geschönt ist, welche ,zumutbare' und moralisch vertretbare Inhalte definiert.

Ergebnis ist, unabhängig von den Anlässen, ein Filtersystem, welches Privatnutzern die Option lässt, ob es genutzt wird oder nicht, und welches Menschen, die auf den öffentlichen Zugang angewiesen sind, ein selektives Bild der Wirklichkeit verschaffen.

Das erfolgversprechendste Modell scheint aktuell jenes der ICRA* zu sein, der Internet Content Rating Association.260 Nach dem Vorbild der amerikanischen RSCA* (Recreational Software Advisory Council) sollen einige Schlüsselkriterien für internationale Netzinhalte erstellt werden, nach denen sich die Betreiber dann selbst klassifizieren sollen. Es ist dabei nicht die Frage, ob diese Lösung kommt, sondern in welcher Form. So zitiert Monika Ermert den Vorsitzenden des EU-Gremiums zur Einführung der ICRA*, Jens Waltermann,

"`'... Zweitens wollten wir auch unterschiedliche Standpunkte, gerade auch Vertreter der Free-Speech-Bewegung, in diesem Gremium haben. Allerdings haben wir weder Hardliner von der einen noch Hardliner von der anderen Seite.' [...] `Das Ergebnis der Beratungen wird nicht sein, dass es keinen Filter geben wird', stellt Waltermann klar."'261

Die Ziele dabei sind reichlich ambitioniert, so wird nicht nur der europäische Surfer zum Ziel der Filterungen gemacht, sondern die Kriterien sollen global anwendbar sein. Kulturelle Unterschiede werden kleingeredet, die europäischen Kriterien beanspruchen weltweite Gültigkeit:

"`'Die Unterschiede zwischen den Kulturen sind gar nicht so groß, manchmal sogar kleiner als innerhalb unserer pluralistischen Gesellschaften', sagt aber Nigel Williams, Direktor der britischen Organisation Child International und von ICRA mit dem Vorsitz des so genannten `Weltfilterrates' betraut"', zitiert Ermert262.

Es ist die Frage, wie weit es eine Rolle spielt, wenn der Filter bei Bedarf abgeschaltet wird. Ungeachtet der Tatsache, dass diejenigen, die auf öffentlichen Zugang angewiesen sind, nur die besagte verschobene Realität angeboten bekommen, wird auch die unzensierte Informationsbeschaffung sichtlich erschwert. So schreibt Alexander Gruhler:

"`Heute kann der Internetsurfer noch selbst bestimmen, ob er ein Rating-System in Anspruch nehmen möchte oder nicht. Populäre Suchmaschinen wie Lycos oder Yahoo kündigten aber an, bald nur noch PICS-registrierte Angebote zu verzeichnen. Damit wären Webmaster, die ihre Seiten einer möglichst großen Zahl von Surfern zugänglich machen wollen, gezwungen, die Inhalte schon aus reinem Selbsterhaltungstrieb PICS-kompatibel und möglichst jugendfrei zu gestalten."'263

Während seitens des W3C* und der Verantwortlichen der ICRA* noch damit geworben wird, Regierungen dadurch aus dem Regelungsvorgang herauszuhalten, ist vollkommen klar, dass Verstöße gegen die Selbstklassifizierungen höchstens von den nationalen Staatsanwaltschaften verfolgt und geahndet werden können und sollen. Schwerer als diese Widersprüchlichkeiten sind aber die Auswirkungen auf das Medium. Sind die statischen, unidirektionalen Angebote der Medienkonzerne relativ bequem zu klassifizieren, ist diese für Privatanbieter häufig zu aufwendig und bei den verbreiteten kosten- und werbefreien Projekten vieler Idealisten im Netz schlicht nicht mehr machbar. Völlig unmöglich wird die Bewertung von Kommunikationskanälen im Netz wie den Diskussionsforen oder Chaträumen, die in Echtzeit laufen, da im Voraus nichts über die von den verschiedenen Usern kommenden Inhalte bekannt ist und eine Echtzeitkontrolle nicht möglich ist. Der Charakter des Internet als Kommunikationsmedium wird so vollkommen zerstört, wie Espenschied und Freude auch treffend diagnostizieren:

"`Bei einer Filter-Default-Einstellung wäre damit das Netz ein klinisch sauberer Distributions-Kanal für Firmen, die sich das korrekte Auszeichnen ihrer Inhalte leisten können. Schon durch die Idee, ein den Broadcast-Medien entnommenes Konzept der inhaltlichen Selbstkontrolle zu verwenden, zeigt, dass das Netz hier nicht als Kommunikations- sondern als Broadcast-Medium verstanden wird."'264

Folgern kann man daraus, dass eine Filterung von Netzinhalten generell abzulehnen ist. Es ist illusorisch anzunehmen, dass zwar eine akzeptierte Form von Inhaltsfiltern auf dem Markt wäre, diese jedoch nicht auf öffentlich zugänglichen Rechnern installiert werden würde. Wenn eine Verfolgung von Falschauszeichnungen gewährleistet sein soll, müssen nationale Kontrollgremien geschaffen werden, welche Seiten und ihre Auszeichnung beurteilen. Damit würde über die Hintertür eine staatliche Zensurbehörde geschaffen. Die ICRA* setzte sich natürlich zum Ziel, eben diese "`eiserne Strenge der staatlichen Gesetzgebung"'265 überflüssig zu machen, jedoch kann sie natürlich nur dann funktionieren, wenn eben diese Strenge geboten ist, falls jemand das System mit Falschklassifikationen überlisten will. Genauer, es werden nicht mehr nur im jeweiligen Land illegale Netzinhalte verfolgt, sondern zusätzlich noch werden Personen, die falsche Inhaltsangaben zu ansonsten legalen Angeboten machen, kriminalisiert.

Angesichts der faktischen Unumsetzbarkeit entsprechender Gerichtsbeschlüsse stellt sich die Frage, wie die Umsetzung der Bekämpfung illegaler Inhalte vonstatten gehen soll und was ihre logische Konsequenz wäre. Letztendlich läuft es auf eine repressive Politik gegenüber Staaten heraus, die westliche Wertvorstellungen nicht teilen.

So begründete der BGH das Urteil gegenüber Frederic Törben, einem australischen Holocaustleugner mit den Worten

"`c) Es ist offenkundig, daß jedem Internet-Nutzer in Deutschland die Publikationen des Angeklagten ohne weiteres zugänglich waren. Die Publikationen konnten zudem von deutschen Nutzern im Inland weiter verbreitet werden. Dass gerade deutsche Internet-Nutzer - unbeschadet der Abfassung in englischer Sprache - zum Adressatenkreis der Publikationen gehörten und gehören sollten, ergibt sich insbesondere auch aus ihrem Inhalt, der einen nahezu ausschließlichen Bezug zu Deutschland hat [...] Das deutsche Strafrecht gilt für das abstrakt-konkrete Gefährdungsdelikt der Volksverhetzung nach § 130 Abs. 1 und Abs. 3 StGB auch in den Internet-Fällen. Seine Anwendbarkeit ergibt sich aus § 3 StGB in Verbindung mit § 9 StGB. Denn hier liegt eine Inlandstat (§ 3 StGB) vor, weil der zum Tatbestand gehörende Erfolg in der Bundesrepublik eingetreten ist (§ 9 Abs. 1 3. Alt. StGB)."'266

Es bleibt zu fragen, wie es umsetzbar sein soll, wenn jegliches Landesrecht auf das Netz anwendbar sein sollte. Espenschied und Freude führen dies mit einem treffenden Beispiel ad absurdum:

"`Der BGH spricht von Äußerungen, die den Frieden im Inland stören würden. Solche Argumente ist man ansonsten nur von autoritären Regimes gewöhnt, und welche Folgen dies haben kann, lässt sich einfach ausmalen: In Ländern wie dem Iran wird ,der innere Frieden' massiv gestört, wenn Frauen unverhüllt abgebildet werden. Wie groß wäre der Aufstand, wenn ein deutscher Werber im Iran zum Tode verurteilt werden würde, weil er die auch im Iran abrufbare Internetseite eines Dessous-Herstellers gestaltete? Es wirft sich unweigerlich die Frage auf: Kann es sich ein Staat wirklich erlauben, seine Gesetzgebung auf ein globales Medium auszudehnen?"'267

Dem gegenüber wäre einzuwenden, dass eben die Filterung der Inhalte solche Dilemmas vermeiden helfen soll: können die Inhalte nicht im Ursprungsland bekämpft werden, wird wenigstens die einheimische Bevölkerung vor den bedenklichen Inhalten geschützt. Diese Vorgehensweise ist im Rahmen der reinen Kontrolle öffentlich zugänglicher Rechner jedoch eine Farce und führt ihre eigene Berechtigung ad absurdum: entweder hat man es mit ,schädlichen' Inhalten zu tun, ergo müssen diese konsequenterweise gesperrt werden, oder es muss davon ausgegangen werden, dass die Bevölkerung mit den Inhalten umzugehen versteht, dann ist die Diskriminierung der Gruppe der NutzerInnen ohne privaten Zugang nicht hinnehmbar. Es bleibt der fade Beigeschmack, die Filterbefürworter legen mehr Wert auf eine desinformierte Gesellschaft, die vor unbequemen Begründungen bestmöglich geschützt wird, als auf eine aufgeklärte Bevölkerung, wo Wahrheit und nicht soziale Erwünschtheit einer Debatte den öffentlichen Diskurs oder das überhaupt öffentliche prägt.268

Ungeachtet der Einwände gegen Filterung allgemein, sei auch auf die zentrale Bedeutung der Wertvorstellungen der agierenden westlichen Welt hingewiesen, die ausdrücklich ,ihre' und nur ihre Filterkriterien durchgesetzt wissen mag. So zitiert Ermert den Filter-Erfinder Balkin:

"`'Sicherlich werden Filter- und Ratingsysteme für andere Zwecke genutzt werden als für den Schutz von Kindern.' Politische Kategorisierungen sind aber im Grundwortschatz nicht vorgesehen. Trickreicher erscheint die Absicherung des Grundwortschatzes durch Verschlüsselung. `Die Verschlüsselung der Selbstbewertungen lässt keiner Regierung Zeit zur Dechiffrierung aller durchgeleiteten Daten, ohne das System zu beeinträchtigen.'"'269

Mögen angesichts der Komplettüberwachung des Netzverkehrs in totalitären Staaten derartige Überlegungen überflüssig wirken, verdeutlichen sie dennoch den Alleinvertretungsanspruch der Akteure bezüglich der Wahrheit darüber, was den Netznutzerinnen zumutbar sein kann und soll.


next up previous contents
Next: 3 Die Disziplinargesellschaft und Up: 2 Manipulation und Filterung Previous: 2 Die digitale Schere   Contents
Richard Joos; 6. Februar 2002