Internet-Technik-Kultur und der freie Fluß der Daten

Medien/Theorie/Geschichte Nr. 2, November 1996
http://www.uni-kassel.de/wz2/mtg/helmers.htm, Sabine Helmers

Die Dämonen »Chaos« und »Anarchie« werden gern gerufen, wenn es gilt, den Wildwuchs im Dschungel des Internet einzudämmen, die dunklen Ecken aufzuräumen, für Sicherheit, Ordentlichkeit und Sauberkeit im Netz zu sorgen. Die alten, im Netz verbreiteten Losungen vom »rechtsfreiem Raum«, von der »World Wide Anarchy«, scheinen den Dämonenbeschwörern recht zu geben. Jedoch nur vordergründig. Bei genauerer Betrachtung zeigt sich, daß das Geschehen im Internet von einem gewachsenen, praktisch bewährten System von Ordnungen strukturiert wird. Die Gewährleistung eines freien Flusses der Daten gehört zu den Grundprinzipien der im Internet herausgebildeten Kultur.

Die heutzutage oftmals beanstandeten Mängel auf den Gebieten Datenschutz, Datensicherheit, Urheberschutz oder Nutzeridentifikation, welche der breiten kommerziellen Netznutzung im Wege stehen, sowie die fehlenden Eingreifmöglichkeiten gegen die Verbreitung von Kinderpornographie oder rassistischer Propaganda - all diese monierten Eigenschaften des Netzes der propagierten »World Wide Anarchy« gehören zur kulturellen Tradition des Internet, deren Grundlagen zu einer Zeit entstanden sind, als heute vorgebrachte Sicherheits- oder Schutzbedenken noch keine Rolle spielten. Der freie Fluß der Daten ist nicht nur kultureller Wert, er ist eingeschrieben in die technischen Fundamente des Internet und nicht mit leichter Hand fortzuwischen.

Überall, wo Menschen sind, ist Kultur, und auch in den virtuellen Räumen der Datennetze haben sich kulturelle Muster und Charakteristika herausgebildet, die von Kultur- und Sozialwissenschaftlern untersucht werden. In der technisch vermittelten Welt des Internet kommen den technischen Artefakten und ihren Bedingungen ein besonderer Stellenwert im Rahmen der Internetkultur zu. Die Projektgruppe »Kulturraum Internet«1 befaßt sich mit der technischen und sozialen Entwicklung im Internet sowie dem Verhältnis von Technischem und Sozialem in einer Umgebung, die sich von herkömmlichen sozialen Interaktionsräumen wesentlich unterscheidet. Menschen agieren per Tastatureingabe und Mausklick - »You are what you type« - und bewegen sich körperlos in der Netzwelt, in der jeder Austausch ein Datenaustausch ist (Heim 1993, Rheingold 1993, Stone 1992, 1993, Turkle 1994, Wetzstein et al. 1995, insbes. 73-119). Die räumliche Beschaffenheit der Netzwelt ist als Folge der raum-zeitlichen Direktheit der Interaktionen nicht an realweltliche2 Geographie gebunden, weshalb sie auch als »raumloser Raum« oder »paralleles Universum« (Batty & Barr 1994, Ogden 1994) bezeichnet wird.

Zusammengenommen bewirken diese Grundbedingungen der Netzwelt eine bislang nicht gekannte Grenzenlosigkeit und Geschwindigkeit der Bewegungen im Raum. An diesen Bedingungen der Netzwelt müssen alle Versuche scheitern, die fälschlicherweise von einer einfachen Übertragbarkeit realweltlicher Gegebenheiten in die Netzwelt ausgehen. Realweltlich mögliche Auffassungen und Regelungen zum Eigentum beispielsweise lassen sich nicht ohne weiteres in eine digitale Umgebung, in der nichts »dingfest« zu machen ist und alle Daten beliebig kopierbar und damit manipulierbar sind, transponieren (Barlow 1994). Im Falle des Internet kommen zu diesen allgemeinen Grundbedingungen elektronischer Datennetze einige internetspezifische hinzu. Erstens ist, vom Netz aus betrachtet, der raumlose Raum des Internet grenzenlos und weltumspannend. Fast alle Staaten sind heute angeschlossen3, und es macht keinen prinzipiellen Unterschied, ob ein Nutzer an einem lokalen oder an einem geographisch weit entfernten Internet- Rechner arbeitet. Zweitens können sich alle Nutzer gleichwertig interaktiv betätigen, jeder prinzipiell gleichermaßen als Sender und Empfänger fungieren. Drittens arbeitet Internet weitestgehend dezentral und selbstreguliert. Der Ausbau ist nutzergesteuert. Zentrale Kontrollgremien, die das Netzgeschehen nachhaltig steuern könnten, fehlen. Viertens kann sich bei Vorhandensein entsprechender technischer Ausrüstungen jeder über die öffentlichen oder privaten Netzprovider Zugang zum Netz verschaffen. Die Basistechnologie der Internetdatenübertragung ist offen für eine Vielzahl technischer Plattformen.

Grundprinzipien Der Internetkultur

Das heute weltumspannende Internet hat sich in seiner mittlerweile 25-jährigen Geschichte von einer experimentellen technischen Kommunikationsarchitektur zu einem sozialen Phänomen und gesellschaftlichen Raum eigener Art entwickelt. Ohne Konstruktionsplan ist aus rückgekoppelten Entwickler-Entwickler und Entwickler-Nutzer-Interaktionen eine weitgehend dezentrale und bewegliche Struktur hervorgegangen und sind netzspezifische Formen der Begegnung, des Austausches und der Absprache, in denen sich die Kooperation unterschiedlicher Akteure entfalten kann, entstanden (Hoffmann 1995a, Helmers 1995). Rückblickend läßt sich die Entwicklungsgeschichte des Internet in drei Phasen einteilen:

Die Frühphase des Internet (als es noch ARPANET4 hieß und von Forschungsaufträgen des US-amerikanischen Verteidigungsministeriums finanziert wurde) liegt in den späten sechziger und frühen siebziger Jahren (Hardy 1993, Hauben & Hauben 1994, Cisler 1994). In dieser Frühphase ging es vor allem darum, die Vernetzungstechnik soweit zu entwickeln, daß das seinerzeit noch kleine Netz stabil arbeiten konnte.

Die Frühphase wie ebenfalls die daran anschließende Reifephase des Netzes (frühe siebziger bis frühe neunziger Jahre) sind vom Charakter des Internet als Forschungsnetz gekennzeichnet. Die Entwickler wie die Nutzer waren zum großen Teil Angehörige technischer oder naturwissenschaftlicher Disziplinen und Berufe, mit computer- und netztechnisch versierten Spezialisten als Zentrum. Ohne Planvorgaben oder nennenswerte Außensteuerung haben die Internet'er der Entwicklungs- und Reifephase - heute nostalgisch als »gute, alte Zeit« der »Netzpioniere« verbrämt (Hafner 1994) - das Netz nach ihren Vorstellungen, Bedürfnissen und Vorlieben für ihre Zwecke auf- und ausgebaut und auch bei den technischen Grundlagen Weichen gestellt, die bis heute den technischen und nutzungspraktischen Werdegang des Netzes prägen. So individuell unterschiedlich diese Personen waren, verbanden sie doch gewisse Gemeinsamkeiten. Im Vergleich zur heutigen vielfältigen Nutzerstruktur des Internet bildeten die damaligen Nutzer-Entwickler eine recht homogene Gruppe: Es waren vor allem akademische, männliche, weiße Mittelschichtsamerikaner, eher jünger als älter, mit einem im Vergleich zur heutigen Situation ausgeprägten Interesse an der Netztechnik bzw. ausgeprägter Bereitschaft, sich mit technischen Dingen zu befassen, die über ihre Universitäten oder Forschungseinrichtungen Zugang zum Internet hatten.

Im Internet der Reifephase haben sich Freizügigkeit (»Information wants to be free«), Humor, Offenheit, aber auch arrogantes Verhalten und Abgeschlossenheit gegenüber Außenstehenden als »netiquettekonform«5 etabliert. Über die Offenheit, Wärme und Freizügigkeit der »Virtual Community« schrieb Howard Rheingold (1993) Positives. Die Abgeschlossenheit gegenüber kulturell Fremden bekamen jene zwei us-amerikanischen Anwälte zu spüren, die zu sich zu Wegbereitern eigennütziger und kommerzieller Inanspruchnahme von Internetdiensten machten, in dem sie trotz heftiger Proteste aus dem Netz darauf beharrten, unerwünschte Werbebotschaften massenhaft zu verbreiten (Elmer-Dewitt 1994). Bei einer Analyse der kulturellen Muster der selbstgeschaffenen technischen Internet-Umgebung, der Formen ihrer Nutzung und der Kommunikationsstile unter den Nutzern lassen sich folgende drei Grundprinzipien der Internetkultur ausmachen.

An erster Stelle steht das Prinzip des freien Flusses der Informationen: Der Informationsfluß hat Vorrang vor Einschränkungen oder Kontrollen. Software und Datenmengen sollen so gestaltet sein, daß ihr Einsatz bzw. ihr Transport den allgemeinen Datenfluß nicht behindert. Von netzöffentlichen Informationen, Diensten und Anwendungen kann niemand ausgeschlossen werden, und alle Angebote sollten nicht nur mit aufwendigen, sondern auch mit sehr einfachen Netzzugängen erreichbar sein (Designprinzip für Internetbasistechnologie ist »So simpel wie möglich«). Zensur ist verpönt. Ferner gibt es das Prinzip der Dezentralität sowie das Prinzip der Reziprozität: Nutzergesteuerte Entwicklung, Selbstorganisation, Eigeninitiative und Eigenverantwortlichkeit, gleichwertig interaktive Betätigungsmöglichkeiten für alle Nutzer und schließlich können nicht nur alle alles sagen, sondern alle können ebenso alles ignorieren, was sie nicht auf dem Monitor sehen wollen (dezentrale Lösung für Informationsüberflutung).

Seit Beginn der neunziger Jahre befindet sich das Internet in einer tiefgreifenden Umbruchsituation, einer Transformationsphase, die augenfällig markiert wird durch den explosionsartigen Anstieg der Nutzerzahlen in diesem Zeitraum. Die Zusammensetzung der Netzpopulation hat sich durch den Zustrom von Nutzern, die über private Internetprovider Zugang erhalten, erheblich verändert. Da vormals Netzzugänge über (universitäre) Arbeits- bzw. Studienplätze bestanden und die Netznutzung schwieriger war als heute, waren beispielsweise Kinder im Internet eine Ausnahmeerscheinung. Die auf Expertenwissen ausgerichteten Bedienungsoberflächen der Netzrechner, etwa bei dem im Hostrechnerbereich verbreiteten Unix-Betriebssystem, bildeten im »alten« Internet eine Nutzungsschwelle für Nicht-Fachleute. Erst mit der Entwicklung des World Wide Web »zerbröckeln die Unix- Wälle« (Berners-Lee et al. 1994). Anklickbare graphische Benutzerschnittstellen sowie sog. Software-Agenten vereinfachen die Navigation und Nutzung erheblich. Eine zuvor ungekannte öffentliche Aufmerksamkeit erlangte das Internet im Zuge der 1993 verkündeten US-amerikanischen Initiative zum Aufbau einer nationalen Informationsinfrastruktur (NII) und der populären Wortschöpfung vom Information Highway durch den Vizepräsidenten Al Gore, was im Folgejahr als Datenautobahn auch hierzulande durch die Medien ging (Canzler, Helmers & Hoffmann 1995).

Die neuen Nutzergruppen sehen sich mit der im Internet gewachsenen Kultur und der durch sie geprägten Netztechnik konfrontiert und müssen sich mit dieser arrangieren, bzw. auseinandersetzen. Die Veränderungen bei der Netzpopulation verlaufen nicht konfliktfrei, es kommt zum »Culture Clash« (Elmer-Dewitt 1994). Vieles von dem, das vormals in einem Forschungsnetz funktionierte, gefördert, geduldet oder auch unterdrückt oder ausgeschlossen wurde, wird im Zuge der Transformation des Netzes von einem Experimentierfeld mit nicht-kommerziellem Umfeld und einer Insideridylle hin zu einem massennutzungstauglichen Universalnetz zu etwas Fragwürdigem, Veränderungsbedürftigem oder Inakzeptablem, Unrechtmäßigem. Beispiele liefern die aktuellen Diskussionen um Datensicherheit, Urheberschutz, Einführung international verbindlicher rechtlicher Regelungen, Datenverschlüsselung, Anonymität, Nutzeridentifikation sowie Verbreitung von gegen internationales Recht verstossende Hetzschriften und pornographische Bilder und Texte.

Ordnung und Sauberkeit versus ungehinderter Datenfluß

Anfang November 1995 wurde ein Aufruf der Cyber Angels6 im Netz verbreitet, worin die Sorge um die »Gesetzlosigkeit« im Cyberspace zum Ausdruck gebracht und Gegenmaßnahmen zum Schutz vor Kriminalität und Belästigung angekündigt werden. Die Cyber Angels sind ein Netzableger der in den USA als Bürgerselbsthilfe entstandenen »International Alliance of Guardian Angels« mit Hauptquartier New York. Die Freiwilligentruppe hat sich zur Aufgabe gemacht, Mitbürger vor kriminellen Übergriffen in Straßen und öffentlichen Verkehrsmitteln zu schützen. Markenzeichen ihres »Neighborhood Watch« sind rote Baretts als Erkennungssymbol. In Anlehnung an das realweltliche Vorbild sollen die Cyber Angels eine »Cyberspace Community Safety Patrol« bilden.

Bei der Übertragung des allgemein als hehres Ansinnen anerkannten Zieles der Guardian Angels von realweltlichen U-Bahnstationen in die Netzwelt bekommt das selbstlose Bürgerschutzanliegen der Cyber Angels eine fragwürdige Note. Denn anders als die realweltliche rote-Mützen-Kenntlichmachung, ist für die Angels im Netz anonymes Operieren vorgesehen. Die freiwilligen Ordnungshüter, die sich um jugendgefährdende Netzinhalte, Belästigungen, Softwarepiraterie usw. kümmern, sollen unerkannt durch das Netz streifen und Verstöße gegen die Vorstellungen der Cyber Angels über Recht und Ordnung bzw. auch bereits Verdacht auf Verstoß an das Hauptquartier melden, wo je nach Verwerflichkeit der von den Spitzeln gemeldeten Vorkommnisse weitere Maßnahmen ergriffen werden.

Neben der Opferbetreuung widmen sich die Cyber Angels der Täterverfolgung. Hierfür stellen sie sich mehrere Stufen der Verfolgung und Bestrafung vor: Die Malefikanten werden abgemahnt, deren Internetprovider unter Druck gesetzt, dem schädlichen Treiben ihrer Kunden Einhalt zu gebieten, Meldungen an die Polizei weitergeleitet und schließlich sollen notorische Missetäter durch die Veröffentlichung von »Wanted«-Plakaten im World Wide Web Server der Cyber Angels angeprangert und ins soziale Abseits gestellt werden. Die Organisation fordert eine verbesserte Nutzeridentifikation - gewissermaßen ein »Vermummungsverbot« - zwecks leichterer Dingfestmachung von Übeltätern. Die Cyber Angels gehen davon aus, daß die von der US-Verfassung garantierte Freiheit der Rede ihre Grenzen dort haben muß, wo sich andere belästigt fühlen.

Das Anliegen der Cyber Angels liefert ein gutes Beispiel für Konfliktfelder, die sich im Zuge der Internettransformation auftun. Im »alten« Internet war Zensur ein No-No, und berufend auf die Internettradition des freien Flusses der Informationen sowie die in der US-Verfassung garantierten Redefreiheit haben sich als Reaktion auf die zunehmenden Reglementierungsbestrebungen im Netz Gegenbewegungen zur Erhaltung der Freiheit von Zensur gebildet. Die Electronic Frontier Foundation, eine von zahlreichen Netzpionieren unterstützte Organisation für den Schutz von Privatheit, Redefreiheit und freier Zugänglichkeit von Netzdiensten und -informationen, hat die »Blue Ribbon Campaign«7 ins Leben gerufen. Das blaue Band ist Zeichen des Protests gegen Zensurbestrebungen.

Anders als das Vorgehen selbstermächtigter Tugendwächter im Netz können nationalgesetzlich legitimierte Initiativen wie die im Sommer 1996 aufgrund eines Rundbriefes der Bundesanwaltschaft erfolgte Blockade des niederländischen Internet Service Providers XS4ALL tatsächlich spürbare Wirkungen erzielen. Obwohl der Brief aus Karlsruhe an deutsche Großprovider eher zurückhaltend im Ton auf die Möglichkeit der Beihilfe zu Straftaten durch Zugänglichmachen von hierzulande verbotenem Schriftgut hinwies, "...soweit Sie auch weiterhin den Abruf dieser Seiten über Ihre Zugangs- und Netzknoten ermöglichen sollten", haben eine Reihe der angeschriebenen Providern eilfertig reagiert. Nicht nur der in Deutschland illegale Text aus der über XS4ALL von einem ihrer holländischen Internetkunden ins WWW gestellten Zeitschrift Radikal wurde für deutsche Netizen gesperrt, sondern - weil es anders technisch gar nicht machbar ist - es wurde gleich die gesamte Site von XS4ALL mit über dreitausend Home Pages, darunter auch die Seiten der israelischen Botschaft in Holland, blockiert, obwohl die Rechtslage betreffend einer Mithaftung von Providern für von irgendwo auf der Welt in das Netz gegebene Inhalte unklar ist (Helmers 1996).

Bei der augenblicklichen Lage können sich weder die Reglementierungsvertreter, noch die Informationsfreiheitsschützer auf verbindliches Recht und Gesetz berufen. Nationale Rechtsvorschriften lassen sich kaum auf ein globales Netz anwenden. Die Zensurbefürworter verweisen auf Schutzbestimmungen der Realwelt, die Zensurgegner wissen die Internettraditionen hinter sich und können sich damit auf ein »Gewohnheitsrecht« berufen. Von seiner Struktur her ist das Netz für den freien Datenfluß eingerichtet, weshalb die Zensurgegner gewissermaßen mit technischer Unterstützung vorgehen können. Zugang zum Netz gibt es allerorten, alle Netznutzer können Informationen jedweder Art und jedweden Wahrheitsgehaltes für alle zugänglich anbieten und verbreiten, alles kann kopiert werden.

Der Glaube an technische Lösungen für soziale Probleme

Im Netz können sich die Nutzer beliebige Identitäten konstruieren, aber durch ihren Nutzeraccount sind alle Netzaktionen - auch die sträflichen - auf eine Quelle zurückzuführen. Anders als in der Realwelt, wo niemand seinen Namen und seine Anschrift nennen muß, bevor er oder sie einen öffentlichen Ort wie z. B. Straße, Museum, Geschäft oder Bibliothek betritt, gab es im Internet durch die Nutzerkennungen vor der Einrichtung von anonymisierenden Remailern keine wirklich anonyme Aktion. Diesen Umstand als Problem und Manko des Netzes einstufend, wurden technische Lösungen entwickelt.

Die bekannteste Adresse zum Versand anonymer Nachrichten war Anon.penet.fi8 in Finnland. Der Betreiber, Johan Helsingius, hat ein System entwickelt, daß die Nutzerkennung aus dem Briefkopf der elektronischen Post herausnimmt, durch ein Pseudonym ersetzt und in dieser Weise namensunkenntlich gemacht an die Bestimmungsadresse weiterleitet. Nur diesem System sowie dem Absender ist die Verbindung zwischen Pseudonym und Nutzerkennung bekannt. In einem Interview (Grassmuck 1994) bezeichnet es Helsingius als Stärke und Vorzug des Netzes, daß es von keiner Stelle wirklich kontrolliert werden kann. Als Internetpionier tritt er sehr entschieden für den uneingeschränkten Informationsfluß ein und verteidigt die traditionelle »World Wide Anarchy«. Im Internet kann man alles tun und soll man alles tun können - sei es Inhaltliches oder auch technische Entwicklungen betreffend. Für jedwedes Problem werde sich eine technische Lösung finden lassen, entwickelt in einer Garage oder einem Forschungsinstitut, und wenn das Problem ein allgemeines und die technische Lösung eine gute bzw. machbare ist, dann wird sich die Lösung im Netz verbreiten. Nach Streitereien mit Scientology, polizeilichen Durchsuchungen und Beschlagnahmen sowie zahlreichen Anfeindungen - beispielsweise hat die englische Zeitung Observer sein System als Quell zur Verbreitung von Kinderpornographie angeprangert - hat Johan Helsingius im August 1996 seinen Remail Service geschlossen.

Die Ausrichtung des Netzes auf dezentrale Problemlösungen nutzt ebenfalls die von den Cyber Angels unterstützte Firma »Safe Surf«, die ein Softwareprodukt für ein kindersicheres World Wide Web anbieten. Kindgemäße WWW-Angebote werden per Datenbankeintrag registriert. Der WWW-Browser von Safesurf - Motto: »A Safe Cyber- Playground Without Censorship«9 liest nur als kindersicher Registriertes. Weitere Beispiele zu diesem Themenbereich liefern die Aktivitäten auf dem Gebiet der Kryptographie. Die im Netz frei verfügbaren Verschlüsselungssysteme garantieren mit technischen Mitteln die Vertraulichkeit der Korrespondenz. In der technisch vermittelten Welt des Internet sind technische Lösungen auch für soziale oder politische Probleme möglich. Ihre Durchsetzungs- bzw. Verbreitungschancen sind um so größer, je mehr sie auf den überlieferten Prinzipien der Internetkultur beruhen - beispielsweise dezentral ansetzen und den freien Datenfluß nicht behindern.

Kontrollierbare Technik statt Kontrolle der Nutzer und Daten

Die Grundlagensoftware für das Internet ist öffentlich und frei erhältlich. Wie beispielsweise das internettypische Datenübertragungs- und adressierungsprinzip (TCP/IP) oder die elektronische Post (SMTP, ebenf. z. B. Sendmail) funktioniert, darüber können sich alle Interessierten informieren. Wie die Software arbeitet und was sie im einzelnen tut, ist bei der Grundlagensoftware, die im wesentlichen während der oben skizzierten Reifephase - zu Forschungsnetzzeiten - entstanden ist kein Geheimnis. Anders verhält es sich bei der Nutzersoftware. Kommerzielle Programme werden als Binärdateien verkauft. Sie sind maschinenlesbar, jedoch nicht mehr für menschliche Leseinteressenten bestimmt. Mit dem Zurückhalten der (menschenlesbaren) Quellprogramme, aus dem die für den Vertrieb bestimmten Binärdateien erstellt werden, schützen sich Softwarefirmen vor dem Nachbau ihrer Programmentwicklungen. Sofern diese Programme erwartungsgemäß funktionieren, werden kaufwillige Nutzer gegen diese Praxis kaum etwas einzuwenden haben. Was aber, wenn sich Programme unerwartet und vielleicht unmerklich von Nützlingen zu Schädlingen wandeln?

Ein aktuelles Beispiel für Software mit einem gewissen Schädlingspotential liefern die sog. elektronischen Agenten, Bots oder Spider (Helmers & Hoffmann 1996, Hoffmann 1995b, Communications of the ACM Nr. 7, 1994). Dieser Begriff hat sich eingebürgert für jene Heinzelmännchenprogramme, die in einem immer komplexer werdenden Netz technische Unterstützung bereitstellen für Navigation, Recherche, Selektion, Organisation usw. Am bekanntesten sind die World Wide Web Datenbanken, mittels deren Indices man Informationsangebote des WWW lokalisieren kann. Als Ableger der Forschungen zur Künstlichen Intelligenz sind »autonome Software- Agenten« in Entwicklung, die als persönliche Assisten fungieren sollen, welche mit dem Nutzer in derselben Rechnerumgebung arbeiten (Maes 1994). Sie »lernen« ihre Nutzer kennen, sortieren dann für sie die eingehende Post nach persönlichen Präferenzen, arrangieren Termine, weisen auf interessante Neuigkeiten und Angebote hin oder unterbreiten Vorschläge für den Einkauf.

Sofern diese dienstbaren Geister so funktionieren, wie die Nutzer es von ihnen erwarten, werden sie ausschließlich im Nutzerinteresse aktiv. In Binärcodes versteckt, lassen sich jedoch auch noch andere Interessen einbauen, und aus Heinzelmännchen könnten trojanische Pferde werden. Denkbar wäre z. B., daß Firmen auf Kaufanregungen, die von vorgeblich diensttreuenKonsumentenagenten unterbreitet werden, Einfluß nehmen. Oder man stelle sich ein kommerzielles Binärprogrammpaket vor, daß den Nutzern die Mühsalen des Netzanschlusses in Eigenregie abnimmt und dabei gleichzeitig und vom Nutzer unaufgefordert Informationen über Inhalte der Festplatte des Nutzers an Dritte in das Netz hineingibt.

Solche denkbaren unerwünschten Nebeneffekte lassen sich letztlich nur bei öffentlich verfügbaren Quellprogrammen ausschliessen. Den Nachweis der Unschädlichkeit könnten Binärdateivertreiber ähnlich wie Arzneimittelhersteller vor einer Aufsichtsbehörde bzw. nicht- staatlichen Verbraucherschutzorganisationen, die die Rezepturen prüfen, erbringen. Die bessere und bereits viele Jahre bewährte Alternative ist freie Software mit veröffentlichten, somit nachvollziehbaren Quellprogrammen. Aus diesen nicht-kommerziellen Softwareangeboten stehen eine breite Palette von Applikationsprogrammen, aber auch ganze Betriebssysteme, wie z. B. FreeBSD oder Linux, zur Verfügung (Helmers & Seidler 1994). Auf preiswerter Massenmarkthardware lassen sich ganze Systeme einrichten, die nicht nur kostenfrei zu beziehen, sondern die - und dies hat oft eine programmatische Note10 - in ihren Funktionsweisen aus Prinzip nachvollziehbar, prüfbar sind. In veröffentlichten Quellprogrammen sind trojanische Pferde nicht unterzubringen. Da es sich bei diesen Programmen vielfach um von Computerfreaks für Computerfreaks entwickelte Software handelt, sind sie nicht unbedingt laientauglich.

Die seit vielen Jahren erfolgreiche Entwicklung freier Software für Computer- sowie Netzebene weist darauf hin, daß die Informationsgesellschaft nicht nur passiv konsumierende Couch Potatoes hervorbringt, sondern auch die Gemeinschaft Beschenkende, die mit ihren Entwicklungen das Internet zu einem Netz für den freien Datenfluß auf- und ausgebaut haben.

Literatur

Barlow, John Perry, 1994, »Wein ohne Flaschen. Globale Computernetze, Ideen-Ökonomie und Urheberrecht«, Lettre, Nr. 2, S. 57-63.

Batty, Michael & Rob Barr, 1994, »The Electronic Frontier. Exploring and Mapping Cyberspace«, Futures, Nr. 7, S. 699-712.

Berners-Lee, Tim et al., 1994, »The World Wide Web«, Communications of the ACM, Nr. 8, S. 76-82.

Canzler, Weert, Sabine Helmers & Ute Hoffmann, 1995, Die Datenautobahn - Sinn und Unsinn einer populären Metapher. WZB discussion paper FSII95-101. Berlin, WZB.

Cisler, Steve, 1994, (Interview with Vinton Cerf), Wired, Nr. 12,S. 153-4.

Elmer-Dewitt, Philip, 1994, »Battle for the Soul of the Internet«, Time, 25.7.94, S.46-52.

Grassmuck, Volker, 1994, »›Don't Try to Control the Network Because it's Impossible Anyway‹. Interview with Johan Helsingius on Anonymous Remailers.« IC Magazine, Nr. 12. http://www .race.u-tokyo.ac.jp/Race/TGM/Texts/remailer.html

Hafner, Katie, 1994, »The Creators«, Wired, Nr. 12, S. 152-3.

Hardy, Henry Edward, 1993, The History of the Net. Master's Thesis, School of Communications, Grand Valley State University, Allendale/MI. ftp umcc.umich.edu, /pub/users/seraphim/doc/nethist8.txt.

Hauben, Ronda & Michael Hauben, 1994, The Netizens and the Wonderful World of the Net. ftp wuarchive.wustl.edu, /doc/misc/acn/netbook,

Heim, Michael, 1993, The Metaphysics of Virtual Reality. New York, Oxford Univ. Press.

Helmers, S abine, 1996, »Die Sperre von WWW.XS4ALL.NL. Sabine Helmers im Gespräch mit Felipe Rodriquez«, Telepolis Magazin, http://www.heise.de/tp/te/1068/fhome.htm

Helmers, Sabine, 1995, »Per Mouseklick zur Couch Potato? Über die Welt des Internet, gewachsene kulturelle Ordnungen und gegenwärtige Turbulenzen«, S. 38-46 in Jugend auf der Datenautobahn. Sozial-, gesellschafts- und bildungspolitische Aspekte von Multimedia, hg. v. F. Schell, B. Schorb & H.-J. Palme. München, KoPäd Verlag.

Helmers, Sabine & Kai Seidler, 1994, »Linux: Cooperative Software Development and Internet«, S. 56-59 in Proceedings to the First Dutch International Symposium on Linux, hg. v. F. B. Brokken, K. Kubat & P. W. Plomp. Groningen, State Univ. of Groningen.

Helmers, Sabine & Ute Hoffmann, 1996, »Demokratische Netzpolitik - (k)ein Platz für Agenten«, S. 269-275 in Informationsgesellschaft - Medien - Demokratie, hg. v. E. Bulmann et al., Marburg, BdWi Verlag.

Hoffmann, Ute, 1995a, »›It's Life, Jim, but not as we know it...‹ Netzkultur und Selbstregulierungsprozesse im Internet«, TA- Datenbank-Nachrichten, Nr. 3, S. 33-38.

Hoffmann, Ute, 1995b, »Talk to my Agent... Bots, Spider und andere seltsame Netzbewohner«, Kryptische Konzepte, Nr. 1.

Maes, Patty, 1994, »Agents that Reduce Work and Information Overload«, Communications of the ACM, Nr. 7, S. 31-40.

Ogden, Michael R., 1994, »Politics in Parallel Universe. Is There a Future for Cyberdemocracy?«, Futures, Nr. 7, S. 713-729.

Raymond, Eric S., 1991, The New Hacker's Dictionary. Cambridge/MA, MIT Press.

Rheingold, Howard, 1993, The Virtual Community. Homesteading on the Electronic Frontier. Reading/MA, Addison-Wesley.

Stone, Allucquere Rosanne, 1992, »Virtual Systems«, S. 609-621 in Incorporations, hg. v. J. Crary & S. Kwinter. New York, Urzone Inc.

Stone, Allucquere Rosanne, 1993(2), »Will the Real Body Please Stand Up? Boundary Stories about Virtual Cultures«, S. 81-118 in Cyberspace. First Steps, hg. v. M. Benedikt. Cambridge/MA, MIT Press.

Turkle, Sherry, 1984, Die Wunschmaschine. Vom Entstehen der Computerkultur. Reinbek, Rowohlt (orig. »The Second Self«, New York 1984).

Turkle, Sherry, 1994, »Constructions and Reconstructions of Self in Virtual Reality. Playing in the MUDs«, Mind, Culture and Activity 1/3, S. 158-167.

Weizenbaum, Joseph, 1994(9), Die Macht der Computer und die Ohnmacht der Vernunft. Frankfurt/M., Suhrkamp (orig. Computer Power and Human Reason. USA 1976).

Wetzstein, Thomas et al., 1995, Datenreisende. Die Kultur der Computernetze. Opladen, Westdeutscher Verlag.


Anmerkungen

  1. Technische Universität Berlin und Wissenschaftszentrum Berlin für Sozialforschung. (Zurück zum Text)
  2. Außerhalb der »Netzwelt« ist der Bereich der »Realwelt«. Diese inzwischen übliche Begriffsunterscheidung basiert auf einer älteren Unterscheidung zwischen der Welt der Hacker und der übrigen Welt - der »Real World: ... The location of non- programmers and activities not related to programming... A bizarre dimension in which the standard dress is shirt and tie and in which a person's working hours are defined as 9 to 5 ...« (zit n. The New Hacker's Dictionary, http://www.ccil.org/jargon/jar gon.html oder Raymond 1991. Vgl. auch Turkle (1984, insbes. 241-293), Weizenbaum 1994. (Zurück zum Text)
  3. Ausnahmen bilden diejenigen Länder, die sich diese teure Technologie nicht leisten können. Insofern umfaßt das »Weltumspannende« des Netzes nur die wohlhabenderen Staaten. (Zurück zum Text)
  4. Advanced Research Projects Agency Net des Dept. of Defense. Wenn über die Frühzeit des Internet gesprochen wird, ist es inzwischen üblich, auf die militärischen Einflüsse hinzuweisen. Dies geschieht meist in einer Form, die den Eindruck erweckt, als handle es sich bei der für das Internet charakteristischen Datenübertragungstechnik, die im Rahmen von Forschungsaufträgen des US-amerikanischen Verteidigungsministeriums in den sechziger und frühen siebziger Jahren entwickelt wurde, auch in der zivilen Nutzung um eine Art »Waffe«. Die Ausgestaltung des Netzes stand jedoch nicht unter militärischem Einfluß, weshalb das Internet nicht mehr und nicht weniger »Waffencharakter« aufweist als die Teflonpfanne, die ihrerseits ein Kind der stark von militärischen Gesichtspunkten gesteuerten US-amerikanischen Weltraumforschung ist. (Zurück zum Text)
  5. Netiquette: das »richtige Verhalten« im Netz. (Zurück zum Text)
  6. http://www.safesurf.com/cyberang els/ (Zurück zum Text)
  7. http://www.eff.org/blueribbon.html (Zurück zum Text)
  8. http://www.penet.fi/ (Zurück zum Text)
  9. http://www.safesurf.com/ (Zurück zum Text)
  10. Richtungsweisend waren in diesem Gebiet das GNU Projekt und die Politik der Free Software Foundation. ht tp://info.desy.de/gnu/WWW/gnu_bulletin9306/gnu_bulletin_toc.html, http://info.desy.de/gnu/WWW/rms. html, http://hopf.math.nwu.edu/do cs/Gnu_license. (Zurück zum Text)