Fortschritt oder Rückschritt?

Zensur im Internet

 

In: Vielfalt und Konvergenz der Philosophie. Hrsg. von Winfried Löffler und Edmund Runggaldier. Verlag Hölder-Pichler-Tempsy. Wien 1999.

[ISBN 3-209-02577-0]

 

Ziel dieses Beitrags ist es nicht, die im Titel gestellte Frage aus einer Sicht zu beantworten, sondern vielmehr eine entsprechende Methode aufzuzeigen, die dies ermöglicht.

 

1. Internet Modus

Stellt man die Frage nach einer Zensur im Internet, so könnte man sie wie folgt formulieren: "Soll man den Inhalt x zensieren?". Bei näherer Betrachtung wird klar, dass eine Differenzierung tiefer gehen muss. Deshalb möchte ich das Konzept des Internet-Modus einführen.

Dazu folgendes Beispiel: Man könnte der Meinung sein, dass Beschimpfungen im Internet nichts zu suchen haben, und dass dies überwacht werden soll. Allerdings scheint es einleuchtend, dass man private E-Mails nicht danach absuchen kann, da dies die Intimsphäre einer Person verletzten würde, nicht so jedoch im öffentlichen WWW.

Aus diesem Beispiel zu schließen, dass man eine Zensur in bezug auf verschiedene Dienste unterscheiden muss, ist nicht richtig, da der Grund für die Unterscheidung nicht in der Art des Dienstes liegt. Vielmehr ist es wichtig, an Hand der an der Kommunikation beteiligten Personen zu differenzieren. Deshalb kann man drei Modi unterscheiden:

a) monologischer Modus (eine einzige Person ruft Daten ab);

b) dialogischer Modus (zwei Personen kommunizieren privat miteinander);

c) polylogischer Modus (viele Personen treten in Kontakt).

 

2. Gegenstand einer möglichen Zensur

Bevor man auf ein Argument eingehen kann, sollte man den potentiellen Gegenstand der Zensur näher betrachten. Erst wenn man eine möglichst vollständige Liste von Themen hat, wird es möglich, einzelnen Argumente genauer zu überprüfen.

Das Untersuchen von ungefähr 200 Aufsätzen hat gezeigt, dass man im wesentlichen 13 verschiedene Themen unterscheiden kann, die einer Zensur unterworfen werden könnten:

a) legale Pornographie

    (vgl. http://www.angelfire.com/index.shtml);

b) illegale Pornographie

    (vgl. Maier-Rabler (1995), 59f);

c) links- und rechtsradikale Ansichten

    (vgl. SVZ 07.06.97, 15);

d) Anleitungen zum Bau von Bomben

    (vgl. Maier-Rabler (1995), 92ff);

e) Darstellung und Verherrlichung von Gewalt

    (vgl. http://www2.echo.lu/legal/en/internet/content/gpen-txt.html);

f) schmutzige Sprache

    (vgl. Heslop (1994), 178);

g) Aufrufe zu moralisch problematischen Praktiken

    (vgl. http://joc.mit.edu/~joc/fcca.html);

h) polemische Diskussionen über nicht allgemein anerkannte Gruppierungen

    (vgl. http://wwwww.wired.com/wired/3.12/features/alt.scientology.war.html);

i) Informationen zur Herstellung und zum Konsum von Drogen

    (vgl. http://www.dis.strath.ac.uk/people/paul/cil96.html);

j) Bücher, die aus verschiedenen Gründen problematisch sind

    (vgl. http://www.eff.org/caf/cafuiuc.html);

k) Pyramidenspiele

    (vgl. Himmelbauer (1997), 112);

l) diskriminierende Witze

    (vgl. http://www.dis.strath.ac.uk/ftp/paul/censorship.html);

m) unaufgefordert zugesandte Werbe-E-Mails

    (vgl. http:///www.usnews.com:80/usnews/issue/970512/12spam.htm).

 

3. Methode der Untersuchung

Da das Internet die ganze Welt umspannt, ist eine allgemeingültige Argumentation schwierig, weil zum Beispiel der technisch fortgeschrittene Eingeborene in Australien ganz andere Vorstellungen von einem sauberen Internet hat, als ein Amerikaner. Deshalb möchte ich folgende Prinzipien zur Anwendung vorschlagen:

a) die Menschenrechte der Vereinten Nationen, die eine allgemein anerkannte und rechtlich begründbare Basis darstellen (vgl. Heidelmeyer (1977), 225ff);

b) die Zehn Gebote der Computer-Ethik des Instituts für Computer-Ethik in Washington (vgl. http://cpsr.org/dox/cei.html));

c) den Regelkatalog 0.23, der von drei weltweit agierenden Computer-Organisationen für das Internet ausgearbeitet wurde (vgl. http://www.zip.com.au/~pete/ere.html).

Damit die Ausführungen philosophisch relevant sind, sollte man die verwendeten Prinzipien mit Hilfe einer ethischen Theorie begründen. Besonders gut dafür eignen sich naturrechtliche Theorien. Dadurch erhält man eine Reihe von verwendbaren ethischen Prinzipien.

Danach sollte man sich drei Fragen stellen:

a) Lässt sich das Argument mit Hilfe der gewonnenen ethischen Prinzipien begründen?

b) Rechtfertigt es eine Zensur für jeden Internet-Modus?

c) Rechtfertigt es eine Zensur für jeden möglichen Zensurgegenstand?

Dadurch kann gewährleistet werden, dass das Argument im Lichte jeder möglichen Situation in der Realität betrachtet wird.

 

4. Argumente für eine Zensur im Internet

Von den neunzehn verschiedenen Argumenttypen, die ich gefunden habe, werden  in den meisten Texten für eine Zensur folgende drei genannt, wobei ich auf das dritte exemplarisch näher eingehen möchte:

a) das Argument des Schutzes der Menschenwürde;

b) das Argument des Schutzes der Minderjährigen;

c) das Argument des Schutzes der Erwachsenen.

 

4.1 Rechtfertigung

Sehr oft wird die Meinung vertreten, dass nicht nur Minderjährige, sondern auch Erwachsene das Recht haben, vor bestimmten Inhalten geschützt zu werden. Untersucht man entsprechende Textstellen genauer, zeigt sich, dass man drei verschiedene Aspekte unterscheiden muss:

a) der Schutz vor nicht gewünschten Inhalten, d.h. Menschen wollen aus eigenem Antrieb nicht durch bestimmte Inhalte belästigt werden (z.B. Beleidigungen gegen Frauen);

b) der Schutz vor schädigenden Inhalten, d.h. Menschen sollen auf bestimmte Dokumente keinen Zugriff haben, da diese von einer dritten Seite als schädigend eingestuft wurden (z.B. Pornographie);

c) der Schutz vor illegalen Inhalten, d.h. die Gemeinschaft soll vor Inhalten, die gesetzlich verboten sind, geschützt werden (z.B. klassifizierte Akten zu Atombomben).

Diese Argumente lassen sich mit Prinzipien wie dem Recht der freien Entfaltung der Persönlichkeit, der Religionsfreiheit, dem Gleichheitssatz und dem Schutz vor körperlicher Unversehrtheit untermauern.

Diese Rechte werden zum Beispiel durch folgende Inhalte empflindlich eingeschränkt:  antisemitische Homepages (ein Jude, der dauernd Parolen, die gegen sein Volk gerichtet sind, vernehmen muss, ist in seiner Persönlichkeit und Religionsausübung eingeschränkt), misogyne Äußerungen, "The Terrorist's Handbook" (eine Sammlung von Bombenbauplänen mit genauen Anleitungen).

Aber diese Argumente lassen sich nicht nur menschenrechtlich stützen, sondern auch durch Prinzipien der Computer-Ethik, z.B. mit dem 1. Gebot ("Du sollst den Computer nicht dazu gebrauchen, um anderen Menschen zu schaden.") oder dem 10. Gebot ("Du sollst den Computer immer in einer Weise verwenden, die von Rücksicht und Respekt gegenüber den Mitmenschen geprägt ist."). Zudem gibt es noch ein paar Prinzipien aus dem Regelkatalog 0.23: "Das Recht Informationen jeglicher Art abzuweisen." oder "Es ist unethisch, andere zu belästigen oder zu bedrohen."

 

4.2 Internet-Modi

Zum ersten Aspekt. Als Beispiel für den monologischen Modus nehmen wir an, dass ein Netzwerk-Benutzer eine bestimmte Datei von einem Server kopiert. Dies geschieht bewusst, deshalb ist jeder Mensch selbst dafür verantwortlich, was er kopiert. Es kann vorkommen, dass sich ein Jude auf der Suche nach Informationen eine Datei mit dem Namen JEWS.TXT kopiert und sich darin ein antisemitisches Gedicht befindet. Das lässt sich nicht verhindern, aber hier eine Zensur zu fordern wäre sinnlos.

Als Beispiel für den dialogischen Modus nehmen wir eine Diskussion zwischen zwei Menschen an. Kommt es zu Beleidigungen, ist das ihre Entscheidung, und man sollte das Internet nicht deshalb zensieren. Schließlich hat es nicht viel Sinn, wenn man eine verbale Auseinandersetzung zweier Menschen auf der Straße verbieten würde.

Nehmen wir für den polylogischen Modus eine Diskussion an, in der darum geht, ob Frauen immer die Hemden ihrer Männer bügeln sollen. Zuerst könnte seriös diskutiert werden, dann wird die Sprache aggressiver bis hin zu frauenfeindlichen Äußerungen. Davon könnten sich nun einige Frauen verletzt fühlen, einige andere aber nicht. Sollte so etwas zensiert werden? Eine schwierige Frage, die in diesem Rahmen nicht beantwortet werden kann.

Zum zweiten Aspekt. Folgendes Beispiel für den monologischen Modus: ein Anwender kopiert ein komplettes Archiv pornographischer Bilder. Das kann negative Auswirkungen auf seine Psyche haben, obwohl er selbst einverstanden mit dem Vorgang des Kopierens war. Nun könnte man argumentieren, dass Menschen vor solchem Schaden geschützt werden sollten. Dasselbe gilt auch, wenn das Kopieren in einer dialogischen oder polylogischen Umgebung stattfindet. In dem Moment, wo ein Inhalt von dritter Seite aus als schädlich eingestuft wird, ist eine Unterscheidung in drei verschiedene Modi unwichtig, weil es nicht mehr darum geht, inwieweit andere Personen miteinbezogen werden. Auch bei der Verhinderung von illegalen Informationen wird ein Inhalt von dritter Seite klassifiziert, z.B. von einer Regierung.

 

4.3 Zensurgegenstände

Die dritte Frage, die für jedes Argument beantwortet werden sollte, ist jene, inwieweit das Argument eine Regulierung bestimmter Zensurgegenstände rechtfertigt.

Zum ersten Aspekt. Damit kann eine Zensur von schmutziger Sprache oder ungerechtfertigt gegen Personen gerichtete Mitteilungen gerechtfertigt werden, wenn diese eine Person nicht möchte. Auch jede Form von Pornographie oder Werbe-E-Mails. Im Grunde genommen kommen alle 13 Zensurgegenstände in Frage. Das große Problem liegt allerdings im polylogischen Modus. Denn dort wird es sehr schwierig werden, einen allgemeingültigen Konsens zu finden, da wir hier mit einer sehr relativistischen Umgebung konfrontiert sind. Werden jedoch z.B. einige Personen durch rassistische Äußerungen belästigt, dann hat das nichts mit einer persönlichen Abneigung zu tun. Rassistisches Gedankengut ist unabhängig von Kulturkreis, Verfassung, Gesetzgebung und persönlicher Einstellung negativ zu behaften. Das lässt sich mit den von mir zusammengestellten ethischen Prinzipien auch begründen.

Zum zweiten Aspekt. Da hier die Wertung von außen kommt, könnte jeder mögliche Inhalt zensiert werden. Es bedarf deshalb eines klaren Kriteriums, welche Inhalte dem Menschen tatsächlich schaden, auch wenn der konkrete Benutzer keine Notwendigkeit für eine Zensur sieht. Ob Beschimpfungen, Werbe-E-Mails, diskriminierende Witze oder fragwürdige Bücher allgemein auf den Menschen eine schädigende Wirkung ausüben können, sei dahingestellt. Auf alle Fälle kann dies aber von den verbleibenden neun Inhalten behauptet werden.

Zum dritten Aspekt. Hier ist eine Klassifizierung etwas leichter, weil man nachprüfen kann, welche Inhalte bereits gesetzlich verboten sind. Darunter fallen zum Beispiel:

a) Kinderpornographie;

b) rechts- und linksradikale Äußerungen;

c) Aufrufe zu Abtreibung, Euthanasie und Selbstmord;

d) Informationen zur Herstellung von Drogen;

e) Pyramidenspiele;

f) zensierte Bücher.

 

5. Anmerkungen

Abschließend möchte ich noch ein paar Bemerkungen zu dem untersuchten Argument geben. Ein Problem liegt in den drei verschiedenen Aspekten. Deshalb wäre es sogar sinnvoll von drei verschiedenen Argumenten zu sprechen. Allerdings hoffe ich gezeigt zu haben, dass es durchaus einige Gemeinsamkeiten gibt, denn eine Zensur wird dadurch gerechtfertigt, dass unerwünschte Inhalte vermieden werden sollen. Der Unterschied liegt nur in der Warte, von der aus die Wertung erfolgt. Wird diese Bewertung von anderen Personen als den tatsächlichen Internet-Anwendern durchgeführt, muß man sich fragen, zu welchem Zweck bzw. mit welchem Recht dies geschieht.

Ich glaube, das ist am besten mit dem Begriff "Verantwortung" zu erklären. Es stellt sich nun die Frage, wie weit die Verantwortung anderer Menschen für Netzwerk-Benutzer geht. In der Regel sind wir nicht nur für etwas bzw. für jemanden verantwortlich, sondern haben uns auch vor einer Instanz zu verantworten. Erst diese Differenz zwischen dem "für" und "vor" macht es möglich, dass man für jemanden verantwortlich in einer Weise handelt, die nicht mit dessen eigenen Wünschen übereinkommt. Da das Für-jemanden-verantwortlich-Handeln auch Macht impliziert, besteht die Gefahr, dass sich diese Macht verselbständigt (vgl. Kodalle (1994), 186). Höffe formuliert diesbezüglich eine vierteilige Frage: "Wer trägt wofür und vor wem nach Maßgabe welcher Kriterien Verantwortung?" (Höffe (1993), 292). Deshalb besteht die einzige Möglichkeit, dies zu verhindern, in der Qualität und Autorität der Instanz, vor der wir uns zu verantworten haben.

 

6. Bibliographie

Angelfire Rules, http://www.angelfire.com/index.shtml

Burton, P., Content on the Internet, http://www.dis.strath.ac.uk/people/paul/cil96.html

Burton, P., Freedom of Speech, http://www.dis.strath.ac.uk/ftp/paul/censorship.html

First Church of Christ, http://joc.mit.edu/~joc/fcca.html

Grossman, Wendy: alt.scientology.war, http://wwwww.wired.com/wired/3.12/features/alt-scientology.war.html

Heidelmeyer, W. (1977), Die Menschenrechte. Paderborn.

Heslop, B. (1994), The Instant Internet Guide. Addison-Wesley.

Himmelbauer, M., World Wide Nepp. In: News 16/97.

Höffe, O. (1993), Moral als Preis der Moderne. Frankfurt.

Kadie, C., Computers and Academic Freedom, http://www.eff.org/caf/cafuiuc.html

Kodalle, K. (1994), Verantwortung, in: Ethik. Hrsg. von Heiner Hastedt. Hamburg.

Maier-Rabler, U. u.a. (1995), Netz ohne Eigenschaften. Salzburg.

Net Ethics 0.23, http://www.zip.com.au/~pete/ere.html

Paulger, G., Green Paper, http://www2.echo.lu/legal/en/internet/content/gpen-txt.html

Simons, J.,The Battle over Spam gets Ugly, http:///www.usnews.com:80/usnews/issue/970512/12spam.htm

SVZ 07.06.97, Internet-Bombe. Salzburg.

The Ten Commandments of Computer Ethics, http://cpsr.org/dox/cei.html

 

Link: Österreichische Gesellschaft für Philosophie

 

(C) 1999 by Christian Zelger