next up previous contents
Next: 2 Die digitale Schere Up: 2 Manipulation und Filterung Previous: 2 Manipulation und Filterung   Contents

1 Ein Experiment zu Machtstrukturen und Zensur im Internet

Zwischen dem 27. November und dem 4. Dezember führten Dragan Espenschied und Alvar Freude ein Experiment an der Merz-Akademie in Stuttgart durch. Im Lauf des Experiments wurde der gesamte Webtraffic der Studierenden an der Merz-Akademie über einen Proxyserver* geführt, der in mehrfacher Beziehung manipulierend auf die Inhalte einwirkte.248 Ihre Zielsetzung beschreiben sie folgendermaßen:

"`Um zu beweisen, dass das Internet nicht ,von Natur aus' ein freies Medium ist, sondern eines, in dem Hierarchien und Machtstrukturen abgebildet und erschaffen werden können, manipulierten wir unbemerkt das Hausnetzwerk an unserer Hochschule, der Merz Akademie. Wir wollten gleichzeitig überprüfen, ob die Furcht vor Filter-Systemen tatsächlich gerechtfertig ist, wie schnell die Manipulation auffliegt und mit wie viel Aufwand das Filtern zu realisieren ist."'249

Nach einer mehrwöchentlichen Analyse des von den Studierenden verursachten Traffics waren die beliebtesten Seiten der Studierenden bekannt und auf dem Proxyserver wurden dementsprechend Filter und Manipulationsinstrumente eingerichtet. So wurden einzelne Worte und Begriffe, die auf den häufig besuchten Seiten vorkamen, durch die Filtersoftware ausgetauscht, Kohl wurde zu Schröder und umgekehrt, die Worte ,Aber', ,Und' und ,Auch' wurden gegeneinander mit bestimmter Wahrscheinlichkeit ausgewechselt, um Sinnzusammenhänge zu verdrehen. Später wurden offensichtlichere Fakes eingebaut, so wurde ,olitik' zu ,ropaganda', Deutschland zu ,Das Reich' und der Minister zum Gauleiter etc.250

Weiterhin wurde mit einer bestimmten Wahrscheinlichkeit beim Aufrufen einer neuen Seite ein Werbeblock von für das Internet bedeutsamen Institutionen wie InterNIC, Corenic, ICANN*, Network Solutions und dem amerikanischen Wirtschaftsministerium eingeblendet, bei dem die Surfer beispielsweise auf Anzeigen der NRA251 klicken konnten, um den kostenlosen Weiterbestand des Internet zu sichern. über Frames wurde auf jeder Seite, die über Google, Yahoo, Lycos oder Web.de (die augenblicklich populärsten Suchmaschinen und Webkataloge) gefunden wurde, ein Formular eingeblendet, mittels dem man die gefundene Seite nach Kategorien wie ,anstößig', ,pornografisch', ,extremistisch' oder ,Gotteslästerung' usw. bewerten konnte, um das Netz von "`unerwünschten Inhalten zu befreien"'.252 Die populäre Musiktauschbörse Napster wurde mit einer gewissen Wahrscheinlichkeit mit einer Umfrage versehen, die sehr detailliert personenbezogene Daten abfragte.

Der Versuch lief eine Woche, dann musste er aufgrund eines ausgefallenen Speicherchips in dem manipulierten Server abgebrochen werden: bis der Server wieder aufgesetzt war, fanden die Netztechniker die Manipulation heraus, wenngleich das Experiment bedingt immer noch weiterläuft:

"`Da das allgemeine Interesse an technischen Dingen unter den Studenten jedoch nicht sonderlich ausgeprägt zu sein scheint, wurde der Filter nur sporadisch deaktiviert und läuft auf vielen Maschinen bis heute munter weiter - obwohl wir eine Deaktivierungs-Anleitung veröffentlichten."'253

Resultierend aus der Vorstellung des Experiments und seines Ergebnisses ergab sich eine heftige Diskussion auf der fitug - Mailingliste254 darüber, wie weit eine solche Manipulation der Surfer zulässig sei und weiterhin, welches Ausmaß an technischer Kompetenz einem Normalsurfer zugemutet werden darf, dem angesichts des üblichen Werbebombardements und der Unzuverlässigkeit der Technik nicht zum Vorwurf gemacht werden könne, dass er nicht in der Lage wäre, selbständig einen Proxyserver* aus der Browserkonfiguration auszutragen oder fingierte Werbeanzeigen einer fiktiven ,InterAd.gov'-Agentur angesichts ihrer Unverschämtheit von ,normaler' Werbung zu unterscheiden.

Dem gegenüber wäre zu sagen, dass das Experiment an einer Design - Hochschule stattfand, in der eine diesbezügliche Medienkompetenz eher zu erwarten gewesen wäre als beispielsweise bei den AOL* - NutzerInnen des Einwahlpunktes Heilbronn. Die Sensibilisierung für eine mögliche Manipulation der sichtbaren Netzinhalte scheint extrem niedrig zu sein, da die Reaktionen auch nach einer aufklärenden Rundmail weitgehend ausblieben und noch Monate später der manipulierende Proxyserver von einigen Rechnern der Akademie genutzt wird.

Es wäre falsch, angesichts dieses Ergebnisses einfach auf den Charakter des Internet als unzuverlässiges Medium zu verweisen, welches an Seriösität und Verlässlichkeit seiner Inhalte eben noch hinter Fernsehen und manchen Printmedien anzusiedeln sei. Es zeigt vielmehr, dass im Netz Manipulationen einfacher zu machen sind, Überwachung und Kontrolle dessen, was die UserInnen zu sehen bekommen, durchaus großflächig durch- und umsetzbar ist und die Sensibilisierung der UserInnen für diese Möglichkeit als zu niedrig angesehen werden kann. Die beiden Autoren beziehen sich ebenfalls explizit auf die ,Code is Law'-These Lessigs, wenn sie betonen, dass es kein ,Wesen des Netzes' gäbe, welches solche Manipulationen unmöglich macht. Das Bonmot, das Netz interpretiere Filter und Sperren als Störung und route den Datenverkehr einfach um diese herum, kann nicht aufrecht erhalten werden.

Der Vorwurf, das Experiment lasse weniger Aussagen über die Struktur des Internets zu als vielmehr über die Dummheit seiner Anwender, kann zwar erhoben werden, letztendlich werden die Kommunikationsstrukturen aber von den Usern geprägt. Ein Netz, dessen Nutzer die Filtermacht abgeben, wird wohl gefiltert werden, Freiheit der Kommunikation und weitgehende Freiheit von hierarchischen Strukturen sind nicht genuines Wesen des Netzes, sondern müssen erkämpft und ihr Vorhandensein ständig überprüft werden. Ein Netz, dessen User nicht in der Lage sind, dies zu gewährleisten, wird dementsprechend kontrolliert werden.

Es ist unmöglich für einen Normalanwender, diese Kontrolle durchzuführen. Die zugrundeliegende Technik ist inzwischen bei weitem zu komplex. Dieses Ergebnis kristallisierte sich offenbar selbst auch an einer Kunsthochschule heraus, deren Angehörigen qua Alter, Bildung und der intensiven Beschäftigung mit Medien eigentlich potentiell überdurchschnittlich kompetent sein müssten. Diese Kontrolle muss somit offenbar durch eigens qualifizierte Experten geleistet werden. In diesem Kontext ist die Demontierung der Begrifflichkeit des ,Hackers' in den Medien durchaus bedenklich. Eine ,Expertisierung' der User wird weder gewünscht, noch wäre sie im notwendigen Umfang überhaupt machbar. Espenschied folgert in der fitug-Debatte: "`Das Netz soll konsumiert werden, nicht gestaltet oder genutzt. Die Oberflächen aller Programme sind darauf ausgelegt, möglichst viel von den technischen Abläufen zu verbergen."'255 Dennoch wird das Prinzip von ,Security through Obscurity' gerade im Bereich des Internet häufig angewandt und werden Experten, die eine Kontrolle der tatsächlichen Sicherheitslücken und Schnittstellen für Manipulation und Überwachung leisten könnten, immer weiter in rechtliche Grauzonen gedrängt.

Analog dazu wird weniger die Kompetenz der User gefördert, selbst wenn es um vergleichbar einfache Sicherheitsmassnahmen geht (es sei an den Melissavirus erinnert, dessen Verbreitung davon abhing, dass der User ein Attachment einer automatisch generierten Mail startete, und den Bill Gates nicht ganz zu Unrecht als ,Intelligenztest für den User' bezeichnete), sondern es werden eher die Personen, die den unreflektierten Gebrauch der meisten User ausnutzen, kriminalisiert.


next up previous contents
Next: 2 Die digitale Schere Up: 2 Manipulation und Filterung Previous: 2 Manipulation und Filterung   Contents
Richard Joos; 6. Februar 2002