Fortschritt
oder Rückschritt?
Zensur im Internet
In: Vielfalt und Konvergenz der
Philosophie. Hrsg. von Winfried Löffler und Edmund Runggaldier. Verlag
Hölder-Pichler-Tempsy. Wien 1999.
[ISBN 3-209-02577-0]
Ziel dieses Beitrags ist es nicht,
die im Titel gestellte Frage aus einer
Sicht zu beantworten, sondern vielmehr eine entsprechende Methode aufzuzeigen,
die dies ermöglicht.
1. Internet Modus
Stellt man
die Frage nach einer Zensur im Internet, so könnte man sie wie folgt
formulieren: "Soll man den Inhalt x zensieren?". Bei näherer
Betrachtung wird klar, dass eine Differenzierung tiefer gehen muss. Deshalb
möchte ich das Konzept des Internet-Modus einführen.
Dazu
folgendes Beispiel: Man könnte der Meinung sein, dass Beschimpfungen im Internet
nichts zu suchen haben, und dass dies überwacht werden soll. Allerdings scheint
es einleuchtend, dass man private E-Mails nicht danach absuchen kann, da dies
die Intimsphäre einer Person verletzten würde, nicht so jedoch im öffentlichen
WWW.
Aus diesem
Beispiel zu schließen, dass man eine Zensur in bezug auf verschiedene Dienste
unterscheiden muss, ist nicht richtig, da der Grund für die Unterscheidung
nicht in der Art des Dienstes liegt. Vielmehr ist es wichtig, an Hand der an
der Kommunikation beteiligten Personen zu differenzieren. Deshalb kann man drei
Modi unterscheiden:
a)
monologischer Modus (eine einzige Person ruft Daten ab);
b)
dialogischer Modus (zwei Personen kommunizieren privat miteinander);
c)
polylogischer Modus (viele Personen treten in Kontakt).
2. Gegenstand einer möglichen Zensur
Bevor man
auf ein Argument eingehen kann, sollte man den potentiellen Gegenstand der
Zensur näher betrachten. Erst wenn man eine möglichst vollständige Liste von
Themen hat, wird es möglich, einzelnen Argumente genauer zu überprüfen.
Das
Untersuchen von ungefähr 200 Aufsätzen hat gezeigt, dass man im wesentlichen 13
verschiedene Themen unterscheiden kann, die einer Zensur unterworfen werden
könnten:
a) legale Pornographie
(vgl. http://www.angelfire.com/index.shtml);
b) illegale Pornographie
(vgl. Maier-Rabler (1995), 59f);
c) links-
und rechtsradikale Ansichten
(vgl. SVZ 07.06.97, 15);
d)
Anleitungen zum Bau von Bomben
(vgl. Maier-Rabler (1995), 92ff);
e)
Darstellung und Verherrlichung von Gewalt
(vgl.
http://www2.echo.lu/legal/en/internet/content/gpen-txt.html);
f)
schmutzige Sprache
(vgl. Heslop (1994), 178);
g) Aufrufe
zu moralisch problematischen Praktiken
(vgl.
http://joc.mit.edu/~joc/fcca.html);
h) polemische
Diskussionen über nicht allgemein anerkannte Gruppierungen
(vgl.
http://wwwww.wired.com/wired/3.12/features/alt.scientology.war.html);
i)
Informationen zur Herstellung und zum Konsum von Drogen
(vgl.
http://www.dis.strath.ac.uk/people/paul/cil96.html);
j) Bücher,
die aus verschiedenen Gründen problematisch sind
(vgl.
http://www.eff.org/caf/cafuiuc.html);
k)
Pyramidenspiele
(vgl. Himmelbauer (1997), 112);
l)
diskriminierende Witze
(vgl.
http://www.dis.strath.ac.uk/ftp/paul/censorship.html);
m)
unaufgefordert zugesandte Werbe-E-Mails
(vgl.
http:///www.usnews.com:80/usnews/issue/970512/12spam.htm).
3. Methode der Untersuchung
Da das
Internet die ganze Welt umspannt, ist eine allgemeingültige Argumentation
schwierig, weil zum Beispiel der technisch fortgeschrittene Eingeborene in
Australien ganz andere Vorstellungen von einem sauberen Internet hat, als ein
Amerikaner. Deshalb möchte ich folgende Prinzipien zur Anwendung vorschlagen:
a) die
Menschenrechte der Vereinten Nationen, die eine allgemein anerkannte und
rechtlich begründbare Basis darstellen (vgl. Heidelmeyer (1977), 225ff);
b) die
Zehn Gebote der Computer-Ethik des Instituts für Computer-Ethik in Washington
(vgl. http://cpsr.org/dox/cei.html));
c) den
Regelkatalog 0.23, der von drei weltweit agierenden Computer-Organisationen für
das Internet ausgearbeitet wurde (vgl. http://www.zip.com.au/~pete/ere.html).
Damit die
Ausführungen philosophisch relevant sind, sollte man die verwendeten Prinzipien
mit Hilfe einer ethischen Theorie begründen. Besonders gut dafür eignen sich
naturrechtliche Theorien. Dadurch erhält man eine Reihe von verwendbaren
ethischen Prinzipien.
Danach
sollte man sich drei Fragen stellen:
a) Lässt
sich das Argument mit Hilfe der gewonnenen ethischen Prinzipien begründen?
b)
Rechtfertigt es eine Zensur für jeden Internet-Modus?
c)
Rechtfertigt es eine Zensur für jeden möglichen Zensurgegenstand?
Dadurch
kann gewährleistet werden, dass das Argument im Lichte jeder möglichen
Situation in der Realität betrachtet wird.
4. Argumente für eine Zensur im Internet
Von den
neunzehn verschiedenen Argumenttypen, die ich gefunden habe, werden in den meisten Texten für eine Zensur folgende drei genannt, wobei ich auf das dritte
exemplarisch näher eingehen möchte:
a) das
Argument des Schutzes der Menschenwürde;
b) das
Argument des Schutzes der Minderjährigen;
c) das
Argument des Schutzes der Erwachsenen.
4.1
Rechtfertigung
Sehr oft
wird die Meinung vertreten, dass nicht nur Minderjährige, sondern auch
Erwachsene das Recht haben, vor bestimmten Inhalten geschützt zu werden.
Untersucht man entsprechende Textstellen genauer, zeigt sich, dass man drei
verschiedene Aspekte unterscheiden muss:
a) der
Schutz vor nicht gewünschten Inhalten, d.h. Menschen wollen aus eigenem Antrieb
nicht durch bestimmte Inhalte belästigt werden (z.B. Beleidigungen gegen
Frauen);
b) der
Schutz vor schädigenden Inhalten, d.h. Menschen sollen auf bestimmte Dokumente
keinen Zugriff haben, da diese von einer dritten Seite als schädigend
eingestuft wurden (z.B. Pornographie);
c) der
Schutz vor illegalen Inhalten, d.h. die Gemeinschaft soll vor Inhalten, die
gesetzlich verboten sind, geschützt werden (z.B. klassifizierte Akten zu
Atombomben).
Diese Argumente
lassen sich mit Prinzipien wie dem Recht der freien Entfaltung der
Persönlichkeit, der Religionsfreiheit, dem Gleichheitssatz und dem Schutz vor
körperlicher Unversehrtheit untermauern.
Diese
Rechte werden zum Beispiel durch folgende Inhalte empflindlich
eingeschränkt: antisemitische Homepages
(ein Jude, der dauernd Parolen, die gegen sein Volk gerichtet sind, vernehmen
muss, ist in seiner Persönlichkeit und Religionsausübung eingeschränkt),
misogyne Äußerungen, "The Terrorist's Handbook" (eine Sammlung von
Bombenbauplänen mit genauen Anleitungen).
Aber diese
Argumente lassen sich nicht nur menschenrechtlich stützen, sondern auch durch
Prinzipien der Computer-Ethik, z.B. mit dem 1. Gebot ("Du sollst den
Computer nicht dazu gebrauchen, um anderen Menschen zu schaden.") oder dem
10. Gebot ("Du sollst den Computer immer in einer Weise verwenden, die von
Rücksicht und Respekt gegenüber den Mitmenschen geprägt ist."). Zudem gibt
es noch ein paar Prinzipien aus dem Regelkatalog 0.23: "Das Recht
Informationen jeglicher Art abzuweisen." oder "Es ist unethisch,
andere zu belästigen oder zu bedrohen."
4.2
Internet-Modi
Zum ersten
Aspekt. Als Beispiel für den monologischen Modus nehmen wir an, dass ein
Netzwerk-Benutzer eine bestimmte Datei von einem Server kopiert. Dies geschieht
bewusst, deshalb ist jeder Mensch selbst dafür verantwortlich, was er kopiert.
Es kann vorkommen, dass sich ein Jude auf der Suche nach Informationen eine
Datei mit dem Namen JEWS.TXT kopiert und sich darin ein antisemitisches Gedicht
befindet. Das lässt sich nicht verhindern, aber hier eine Zensur zu fordern
wäre sinnlos.
Als
Beispiel für den dialogischen Modus nehmen wir eine Diskussion zwischen zwei
Menschen an. Kommt es zu Beleidigungen, ist das ihre Entscheidung, und man
sollte das Internet nicht deshalb zensieren. Schließlich hat es nicht viel
Sinn, wenn man eine verbale Auseinandersetzung zweier Menschen auf der Straße
verbieten würde.
Nehmen wir
für den polylogischen Modus eine Diskussion an, in der darum geht, ob Frauen
immer die Hemden ihrer Männer bügeln sollen. Zuerst könnte seriös diskutiert
werden, dann wird die Sprache aggressiver bis hin zu frauenfeindlichen
Äußerungen. Davon könnten sich nun einige Frauen verletzt fühlen, einige andere
aber nicht. Sollte so etwas zensiert werden? Eine schwierige Frage, die in
diesem Rahmen nicht beantwortet werden kann.
Zum
zweiten Aspekt. Folgendes Beispiel für den monologischen Modus: ein Anwender
kopiert ein komplettes Archiv pornographischer Bilder. Das kann negative
Auswirkungen auf seine Psyche haben, obwohl er selbst einverstanden mit dem
Vorgang des Kopierens war. Nun könnte man argumentieren, dass Menschen vor
solchem Schaden geschützt werden sollten. Dasselbe gilt auch, wenn das Kopieren
in einer dialogischen oder polylogischen Umgebung stattfindet. In dem Moment,
wo ein Inhalt von dritter Seite aus als schädlich eingestuft wird, ist eine
Unterscheidung in drei verschiedene Modi unwichtig, weil es nicht mehr darum
geht, inwieweit andere Personen miteinbezogen werden. Auch bei der Verhinderung
von illegalen Informationen wird ein Inhalt von dritter Seite klassifiziert,
z.B. von einer Regierung.
4.3
Zensurgegenstände
Die dritte
Frage, die für jedes Argument beantwortet werden sollte, ist jene, inwieweit
das Argument eine Regulierung bestimmter Zensurgegenstände rechtfertigt.
Zum ersten
Aspekt. Damit kann eine Zensur von schmutziger Sprache oder ungerechtfertigt
gegen Personen gerichtete Mitteilungen gerechtfertigt werden, wenn diese eine
Person nicht möchte. Auch jede Form von Pornographie oder Werbe-E-Mails. Im
Grunde genommen kommen alle 13 Zensurgegenstände in Frage. Das große Problem
liegt allerdings im polylogischen Modus. Denn dort wird es sehr schwierig
werden, einen allgemeingültigen Konsens zu finden, da wir hier mit einer sehr
relativistischen Umgebung konfrontiert sind. Werden jedoch z.B. einige Personen
durch rassistische Äußerungen belästigt, dann hat das nichts mit einer
persönlichen Abneigung zu tun. Rassistisches Gedankengut ist unabhängig von
Kulturkreis, Verfassung, Gesetzgebung und persönlicher Einstellung negativ zu
behaften. Das lässt sich mit den von mir zusammengestellten ethischen
Prinzipien auch begründen.
Zum
zweiten Aspekt. Da hier die Wertung von außen kommt, könnte jeder mögliche
Inhalt zensiert werden. Es bedarf deshalb eines klaren Kriteriums, welche
Inhalte dem Menschen tatsächlich schaden, auch wenn der konkrete Benutzer keine
Notwendigkeit für eine Zensur sieht. Ob Beschimpfungen, Werbe-E-Mails,
diskriminierende Witze oder fragwürdige Bücher allgemein auf den Menschen eine
schädigende Wirkung ausüben können, sei dahingestellt. Auf alle Fälle kann dies
aber von den verbleibenden neun Inhalten behauptet werden.
Zum
dritten Aspekt. Hier ist eine Klassifizierung etwas leichter, weil man
nachprüfen kann, welche Inhalte bereits gesetzlich verboten sind. Darunter
fallen zum Beispiel:
a)
Kinderpornographie;
b) rechts-
und linksradikale Äußerungen;
c) Aufrufe
zu Abtreibung, Euthanasie und Selbstmord;
d)
Informationen zur Herstellung von Drogen;
e)
Pyramidenspiele;
f)
zensierte Bücher.
5.
Anmerkungen
Abschließend
möchte ich noch ein paar Bemerkungen zu dem untersuchten Argument geben. Ein
Problem liegt in den drei verschiedenen Aspekten. Deshalb wäre es sogar
sinnvoll von drei verschiedenen Argumenten zu sprechen. Allerdings hoffe ich
gezeigt zu haben, dass es durchaus einige Gemeinsamkeiten gibt, denn eine
Zensur wird dadurch gerechtfertigt, dass unerwünschte Inhalte vermieden werden
sollen. Der Unterschied liegt nur in der Warte, von der aus die Wertung erfolgt.
Wird diese Bewertung von anderen Personen als den tatsächlichen
Internet-Anwendern durchgeführt, muß man sich fragen, zu welchem Zweck bzw. mit
welchem Recht dies geschieht.
Ich
glaube, das ist am besten mit dem Begriff "Verantwortung" zu
erklären. Es stellt sich nun die Frage, wie weit die Verantwortung anderer
Menschen für Netzwerk-Benutzer geht. In der Regel sind wir nicht nur für etwas
bzw. für jemanden verantwortlich, sondern haben uns auch vor einer Instanz zu
verantworten. Erst diese Differenz zwischen dem "für" und
"vor" macht es möglich, dass man für jemanden verantwortlich in einer
Weise handelt, die nicht mit dessen eigenen Wünschen übereinkommt. Da das
Für-jemanden-verantwortlich-Handeln auch Macht impliziert, besteht die Gefahr,
dass sich diese Macht verselbständigt (vgl. Kodalle (1994), 186). Höffe
formuliert diesbezüglich eine vierteilige Frage: "Wer trägt wofür und vor
wem nach Maßgabe welcher Kriterien Verantwortung?" (Höffe (1993), 292).
Deshalb besteht die einzige Möglichkeit, dies zu verhindern, in der Qualität
und Autorität der Instanz, vor der wir uns zu verantworten haben.
6.
Bibliographie
Angelfire
Rules, http://www.angelfire.com/index.shtml
Burton,
P., Content on the Internet, http://www.dis.strath.ac.uk/people/paul/cil96.html
Burton, P., Freedom of Speech,
http://www.dis.strath.ac.uk/ftp/paul/censorship.html
First Church of Christ, http://joc.mit.edu/~joc/fcca.html
Grossman, Wendy: alt.scientology.war,
http://wwwww.wired.com/wired/3.12/features/alt-scientology.war.html
Heidelmeyer,
W. (1977), Die Menschenrechte. Paderborn.
Heslop, B. (1994), The Instant Internet Guide. Addison-Wesley.
Himmelbauer, M., World Wide Nepp. In: News 16/97.
Höffe, O.
(1993), Moral als Preis der Moderne. Frankfurt.
Kadie, C., Computers and Academic Freedom,
http://www.eff.org/caf/cafuiuc.html
Kodalle,
K. (1994), Verantwortung, in: Ethik. Hrsg. von Heiner Hastedt. Hamburg.
Maier-Rabler,
U. u.a. (1995), Netz ohne Eigenschaften. Salzburg.
Net Ethics
0.23, http://www.zip.com.au/~pete/ere.html
Paulger, G., Green Paper,
http://www2.echo.lu/legal/en/internet/content/gpen-txt.html
Simons, J.,The Battle over Spam gets Ugly,
http:///www.usnews.com:80/usnews/issue/970512/12spam.htm
SVZ
07.06.97, Internet-Bombe. Salzburg.
The Ten Commandments
of Computer Ethics, http://cpsr.org/dox/cei.html
Link: Österreichische
Gesellschaft für Philosophie
(C) 1999 by Christian Zelger