Startseite Über uns Endbericht (Hyper-)Texte Allerlei Interaktionen Sitemap
Startseite Über uns Endbericht (Hyper-)Texte Allerlei Interaktionen Sitemap

Demokratische Netzpolitik - (k)ein Platz für Agenten
  "Informationsgesellschaft - Medien - Demokratie", hg. v. E. Bulmahn et al., BdWi-Verlag, Marburg, 1996.

Sabine Helmers, Ute Hoffmann

  Sprungbrett
1  Software-Agenten: ein netzpolitisches Desiderat
2  Die Software-Agenten sind unter uns
3  Regulierungsprobleme und Lösungsvorschläge
4  Ausblick
5  Anmerkungen
  Literatur
  Fußnoten

 

 
1 Software-Agenten: ein netzpolitisches Desiderat
  Wenn von "demokratischer Netzpolitik" gesprochen wird, geht es zumeist um Fragen wie Welche Bedeutung haben Datennetze als Instrument politischer Partizipation? oder Ist das Internet ein Vorbild im Hinblick auf gelebte Formen direkter Demokratie? Solche Diskussionen um die Möglichkeiten und Grenzen einer "elektronischen Demokratie" lassen Netze primär als Mittel bzw. Medium politischer Praxis erscheinen.

Netzpolitik umfaßt jedoch mehr und anderes als "Politik auf und mit Netzen" (Rainer Rilling). Mit der Netzwelt ist ein besonderer Interaktionsraum entstanden. Dieser Raum bildet eine neuartige politische Sphäre, deren spezifische Bedingungen zu eigenen Formen politischer Ordnung führen.[1] So ist beispielsweise der öffentliche Datenraum potentiell global und die Teilhabe daran unabhängig vom Standort. Dies setzt bekanntermaßen den Möglichkeiten einer nationalstaatlichen Jurisdiktion des Netzverkehrs prinzipielle Grenzen.

Daß das Internet aufgrund seiner dezentralen Bauweise externen Regulierungsversuchen zu trotzen vermag, wurde mit dem CompuServe-Skandal nachdrücklich deutlich. Noch wenig - zu wenig - Aufmerksamkeit findet demgegenüber eine netzpolitisch nicht minder bedeutsame Erfahrungsqualität der Netzwelt: die Körper- bzw. Stofflosigkeit von Interaktionen. Jeder Austausch ist ein Datenaustausch. Innerhalb dieser entkörperlichten, rein symbolischen Kommunikation im Datenraum gibt es, technisch gesehen, keinen Unterschied zwischen Aktivitäten, die durch Programme gestartet werden, und solchen, die von menschlichen Netznutzern ausgehen. Diese gleichmachende Eigenschaft des Netzes führt zu neuartigen Möglichkeiten, aber auch Problemen, für die es keine realweltlichen Entsprechungen gibt.

In der Datenwelt tummelt sich eine Vielzahl von Computerprogrammen, die weitgehend autonom eine bestimmte Aufgabe ausführen und dabei im Auftrag einer einzelnen Nutzerin oder einer Organisation tätig sind.[2] Software-Agenten, Roboter, Bots und Spider sind maschinelle Kreationen, die eher den Status eines Akteurs als Werkzeugcharakter haben (Hoffmann, 1995). Sie stellen für demokratische Netzpolitik eine doppelte Herausforderung dar: als Regulierungsgegenstand ebenso wie als Regulierungsinstrument. Wie weit können und sollen ihre Handlungsfähigkeiten als Stellvertreter, Assistent oder Gegenspieler menschlicher Nutzer reichen? Welche Aspekte der Gestaltung des Netzverkehrs können und sollen an Agenten delegiert werden? Wer entscheidet darüber, wofür Agenten eingesetzt werden?

Im folgenden skizzieren wir zunächst anhand einiger Musterexemplare die Spannbreite realexistierender Agenten, die im Internet Gestalt gewonnen haben. Danach sprechen wir einige Regulierungsprobleme, die sich durch ihre Anwesenheit stellen, an und benennen Vorschläge zu ihrer Lösung.

2 Die Software-Agenten sind unter uns
  Viele kennen Software-Agenten nur als Geschöpfe der Cyberpunk-Science Fiction. Dixie Flatline aus William Gibsons Neuromancer (1984) oder der Bibliothekar in Neal Stephensons Snow Crash (1992) sind beispielsweise solche fiktionalen Agenten, die sich im Cyberspace tummeln (Horberg, 1995). Die Cyberpunk-Fiction hat Entwickler - auch auf diesem Gebiet - inspiriert.

Colin, der gute Geist aus Gibsons Mona Lisa Overdrive (1988), wurde etwa zum Prototyp einer Familie real-existierender MUD-Bots.[3] In den Multi-User Dungeons können sich mehrere Hundert Nutzerinnen gleichzeitig in einer virtuellen Szenerie miteinander unterhalten und die jeweilige MUD-Welt (um)gestalten: neue Räume, Gegenstände und Ereignisse kreieren. Hier, in den MUDs, sind Chatterbots wie Colin in ihrem Element (Foner, 1993, und Turkle, 1996, 77-101). Oft sind sie nicht nur ein unterhaltsames, sondern als Orientierungshilfe auch ein nützliches Mitglied der MUD-Gemeinschaft, da sie die Topologie des MUD Universums, das leicht auf mehrere Hundert Räume anwachsen kann, "im Kopf" haben.

In der Welt der Dinge sind Roboter noch unschwer sofort als Roboter erkennbar, und nur im Kino hat eine Terminatormaschine eine täuschend echt wirkende fleischliche Hülle. In der Datenwelt hingegen ist der technische Charakter von Software-Agenten, Robotern oder Spidern für menschliche Nutzer nicht so augenfällig, insbesondere dann, wenn sie darauf programmiert sind, sich als menschliche Wesen auszugeben. Chatterbots erscheinen im Netz als User, die von einem Programm kontrolliert werden. Eine Vielzahl solcher programmgesteuerter User findet sich auch auf den Kanälen des Internet Relay Chat (IRC), gewissermaßen den - rein textbasierten - Party Lines des Internet. IRC Bots sind allerdings nur selten schwatzhaft und meist in administrativen Funktionen tätig. Sie sind mostly harmless, trotzdem haftet ihnen ein schlechter Ruf an. IRC Bots sind ein Skript, das festlegt, auf welches Ereignis das Programm nach dem Einloggen wartet, um dann auf eine definierte Weise darauf zu reagieren. IRC Bots sind beispielsweise häufig darauf getrimmt zu melden, wenn sich ein bestimmter User einloggt. Zuweilen werden sie dazu benutzt, um die Identität einer unerwünschten Person im Moment des Einloggens zu übernehmen, um dieser dadurch den Zugang zum IRC zu blockieren.

Neben diesen stationären Robotern, die als Plauder- oder Informationsmaschine oder Wachhund tätig sind, finden sich Agenten, deren Aktivitäten nicht auf ihren Heimatort beschränkt bleiben. Populärste Vetreter dieser Art sind die Navitgationshilfen des World Wide Web ("Webcrawler", "Lycos" oder "Alta Vista"[4]), die die schlagwortgestützte Ressourcensuche zu einem bestimmten Thema unter den 30 Millionen WWW-Seiten ermöglichen. Sie bestehen aus einer Datenbank, die von Suchmaschinen gespeist werden, welche das WWW Dokument für Dokument, Link auf Link durchforstenden. Die Vorgehensweise bisheriger WWW-Navigationshilfen ist nicht selektiv, sondern es wird ohne Auswahlkriterien von den Suchmaschinen möglichst jede Information des WWW erfaßt.

Newsagents wie der Stanford Netnews Filtering Service (http://woodstock.stanford.edu:2000/) suchen für eine größere Zahl von Nutzern gleichzeitig zigtausend Newsgruppen auf Artikel nach vorgegebenen Stichworten ab und melden das Ergebnis ihren Auftraggebern per E-mail. Der Multi-User-Agent HOMR des Media Lab am Massachusetts Institute for Technology ( http://homr.www.media.mit.edu/projects/homr/) stellt anhand der Angaben anderer Nutzer mit ähnlichen Vorlieben Musikempfehlungen zusammen.

Newsagents sind im Kern eine Filtering-Software: sie suchen erwünschte Informationen aus der Fülle der Angebote heraus. Genausogut kann Filtering-Software als Selektionshilfe eingesetzt werden, um Informationen abzublocken. So wirkt etwa der WWW-Browser der amerikanischen Firma Safe Surf, der nur solche WWW-Seiten des Internet auf dem Bildschirm anzeigt, die bei Safe Surf in einer Datenbank registriert sind ( http://www.safesurf.com). Dieses Lesegerät erlaubt Eltern die selektive Steuerung des Internet-Zugriffs ihrer Kinder auf als "kindgemäß" indexierte Inhalte.

Computerfirmen träumen von flächendeckend verkaufbaren, billigen und "dummen" Netzcomputern, die sich jeweils im konkreten Bedarfsfall benötigte Softwareelemente aus dem Netz holen. Offen ist, wie weit "selbsttätig" diese Softwareeinkaufsaktionen von den Netzcomputern ausgeführt werden sollen.

Als Ableger der Forschungen zur Künstlichen Intelligenz sind "autonome Software-Agenten" in Entwicklung, die als persönliche Assistenten fungieren sollen, welche mit der Nutzerin in derselben Rechnerumgebung arbeiten (Maes, 1994). Anders als die oben genannten Programme, die auf dieselben Stichworte oder Handlungen in stets derselben Weise reagieren, sollen diese Agenten erstens personengebunden und zweitens mit Lernpotential in gewissem Maße selbständig agieren. Nach den Vorstellungen ihrer Entwickler, "lernen" diese Agenten beispielsweise eintreffende elektronische Post nach den Präferenzen ihrer jeweiligen Nutzerin zu sortieren, weisen auf die Nutzerin interessierende Neuigkeiten und Angebote hin oder unterbreiten Vorschläge für den Einkauf. Agenten von zwei oder mehr Nutzerinnen können sich in Verbindung setzen und nach Durchsicht der jeweiligen Terminkalender günstige Zeiten für Treffen ihrer Nutzerinnen herausfinden.

3 Regulierungsprobleme und Lösungsvorschläge
  Die Anwesenheit von Software-Agenten in der Netzwelt wirft eine Fülle von Regulierungsproblemen auf. Einige solcher Probleme sind: Wie läßt sich erreichen, daß die Resourcenbeanspruchung, die mit dem Auftreten von immer mehr Bots, Agents und Spiders verbunden ist, möglichst gering bleibt? An welche Regeln sollten sich die Konstrukteure von Robotern halten? Was müßte eine Netiquette für Software-Agenten beinhalten, die sie zu guten Netzbürgern (good net citizens) macht? Wie sollten sich Software-Agenten in der Interaktion mit menschlichen Nutzern verhalten ("Talk to my Agent") und wie in der Interaktion mit anderen Agenten ("My Agent Talks to Your Agent"). Wer ist verantwortlich für die Aktionen und Transaktionen von Agenten? Wem gehören die personenbezogenen Daten, die die Agenten sammeln, und wer darf diese Daten für welche Zwecke verwenden?

Die Internet-Gemeinde hat in den letzten Jahren eine Reihe von Lösungsvorschlägen für einige dieser Fragen entwickelt. Diese Vorschläge zielen in der Regel auf Anleitungen für die Konstruktion von Software-Agenten und adressieren ihre Entwickler (Eichmann, 1994). So gibt es inzwischen einen Guide for Robot Writers, der die Netzbelastung durch falsche oder ungeschickte Programmierung vermeiden helfen möchte. In Anlehnung an Isaac Asimovs Robotergesetze wurden Laws of Softbotics entworfen. Ethische Leitlinien für das Auftreten und Verhalten von Agenten wurden entwickelt.

Auf der Seite derjenigen, die von dem Treiben von Software-Agenten betroffen sind, gibt es eher noch wenige Einflußmöglichkeiten. Die Suchmaschinen für die WWW-Navigationshilfedatenbanken können bei schlechter Programmierung den Betrieb der von ihr durchforsteten WWW-Sites empfindlich beeinträchtigen. Ihr Besuch kommt unangemeldet, und die gesammelten Informationen werden ungefragt in der heimatlichen Datenbank der Suchmaschine gespeichert. Ein Robot Exclusion Standard erlaubt es beispielsweise WWW-Anbietern, umherschweifenden Spidern den Besuch ihrer Seiten zu verbieten.

Je mehr Aufgaben an Agenten delegiert werden, welche diese dann eigenständig durchführen, desto mehr besteht das Risiko, daß aus dienstbaren Nützlingen unangenehme Schädlinge werden. Die vermeintlichen Heinzelmännchen können durch zu großes Datenaufkommen den allgemeinen Netzverkehr empfindlich stören, wie es etwa bei sich unkontrolliert 'virenartig' vermehrenden Programmen vorkommt. Sie können entweder gewollt oder unbeabsichtig andere Nutzer belästigen, in dem sie z.B. private Postfächer unaufgefordert mit Werbung oder Hetzschriften vollstopfen. Ein schlecht programmierter autonomer persönlicher Agent löscht oder unterschlägt aus "Unwissenheit" wichtige Informationen. Solches Fehlverhalten kann durch verbesserte Programmierung ausgeschlossen werden; eine andere Art von Fehlverhalten kann jedoch einprogrammiert sein: Software-Agenten können ihren offiziellen Auftraggebern schlechte Dienste erweisen, in dem sie inoffiziell noch anderen Auftraggebern zuarbeiten. Als potentielle Interessenten für Doppelagenten wären etwa Markt- und Meinungsforscher, Firmen, Glaubensgemeinschaften, Regierungen und deren Geheimdienste oder Steuerfahndungen denkbar. Datenbanksuchmaschinen des WWW könnten beispielsweise aus der unübersehbaren Fülle des WWW bestimmte Informationen herauswählen oder unterschlagen, ohne daß dies den Nutzern sofort auffallen würde. Irgendwann könnte man Verdacht schöpfen, wenn z.B. immer wieder dieselben Firmenangebote genannt werden oder zu einem brisanten Thema plötzlich keine WWW-Hinweise mehr ausgegeben würden. Oder man stelle sich ein arglos erworbenes Softwarepäckchen vor, das die lästige Arbeit des Netzanschlusses übernehmen soll und das aber gleichzeitig unaufgefordert Informationen über Inhalte der Benutzerfestplatte an Dritte ins Netz gibt.

Die freiwillige Selbstkontrolle und der Appell an die Eigenverantwortung von Entwicklern und Besitzern bzw. Anwendern von Software-Agenten reichen in Zeiten, die auch in der Netzwelt rauher werden, nicht aus. Sinnvoll könnte es daher sein, eine unabhängige Prüfinstanz etwa nach dem Vorbild der Stiftung Warentest einzurichten. Diese Institution könnte als Anwalt der Netznutzer das Gebaren von Software-Agenten stichprobenartig kontrollieren. Die Ergebnisse der Prüftätigkeit sollten im Netz verbreitet werden.

Eine Hürde für Prüfinstanzen nicht-staatlicher oder auch staatlicher Herkunft liegt darin, daß nur von solchen Softwareprodukten der Tätigkeitsbereich vollständig durchschaubar ist, bei denen neben dem (maschinenlesbaren) Binärcode, d.h. dem fertigen Softwareprodukt, auch der ursprüngliche (menschenlesbare) Quellcode[5] für Prüfzwecke zur Verfügung steht. Bei kommerziellen Softwareprodukten wird der Quellcode von den Herstellern zurückbehalten, denn wenn sie die Baupläne bzw. Rezepturen für ihr Produkt herausgeben würden, könnten Konkurrenten oder Kunden ihr Produkt leicht nachbauen. In der pharmazeutischen Industrie muß vor staatlichen Kontrollbehörden die Unschädlichkeit einer offenzulegenden Rezeptur nachgewiesen werden. Vergleichbares für den Bereich Software anzustreben wäre in Anbetracht der nicht vorhandenen Einflüsse auf Leib und Leben natürlich völlig übertrieben und praktisch wegen der Internationalisierung des Softwaremarktes nicht durchführbar. Selbst wenn Übereinstimmung herrschte, daß als eindeutiges Prüfkriterium gelten soll "Ein Software-Agent hat nicht mehr als das zu auszuführen, was er auszuführen verspricht", müßten die Nutzer bei solch einer zentralisierten staatlichen oder nicht-staatlichen Lösung sich auf diese Zentralinstanz verlassen. Internettypisch und bewährt sind dagegen dezentrale Problemlösungen, die im Falle von Softwarekontrolle darin bestehen können, daß auf freie Software mit veröffentlichten Quellprogrammen zurückgegriffen wird (Helmers & Seidler, 1994).

4 Ausblick
  Die Software-Agenten sind unter uns, und es werden immer mehr. Sie können die Handlungsfähigkeiten menschlicher Nutzer ebenso unterstützen und erweitern wie einschränken. Ihr Risikopotential ist beträchtlich. Die Koexistenz menschlicher und nicht-menschlicher Akteure in der Netzwelt und die damit verbundenen grundlegenden Fragen nach den Bedingungen der Teilhabe der maschinellen Kreaturen bilden ein netzpolitisches Desiderat. Eine breitere, netz-öffentliche Diskussion bleibt zu wünschen. Am Ende könnte dabei auch die Erkenntnis reifen, daß in der Netzwelt die Unterschiede - und Ähnlichkeiten - zwischen (menschlichem) Nutzer und Programm, zwischen Mensch und Technik, keineswegs natürlich vorgegeben sind, sondern durch technisch- und politisch-gestalterisches Tun erst hergestellt und ihm Zuge ihrer Veralltäglichung naturalisiert werden. Was wäre, wenn das nicht nur für die Netzwelt gilt?

5 Anmerkungen
 
Literatur
  Eichmann, David, "Ethical Web Agents", 1994. ( http://www.ncsa.uiuc.edu/SDG/IT94/Proceedings/Agents/eichmann.ethical/eichmann.tml)

Foner, Leonard N., "What's an Agent, Anyway? A Sociological Case Study", MIT Media Laboratory, Agents Memo 93-01, May 1993. (http://foner.www.media.mit.edu/people/foner/Julia/)

Helmers, Sabine & Kai Seidler, "Linux: Cooperative Software Development and Internet", in Proceedings to the first Dutch International Symposium on Linux, Amsterdam 8-9th Dec 1994, hg. von F. B. Brokken, K. Kubat & P. W. Plomp. State University of Groningen, 1994, 56-59. (http://duplox.wzb.eu/docs/linux/amsterdam.html)

Hoffmann, Ute, "Talk to my Agent.... Über Bots, Spider und andere seltsame Netzbewohner", Kryptische Konzepte 1-12, 1995. ( http://duplox.wzb.eu/docs/bots.html)

Horberg, John, "Talk to my Agent: Software Agents in Virtual Reality", Computer-Mediated Communication Magazine Vol. 2,1995, No. 2. (http://sunsite.unc.edu/cmc/mag/1995/feb/horberg.html)

Maes, Patty, "Agents that Reduce Work and Information Overload", Communications of the ACM, No. 7, 1994, S. 311-40. (http://pattie.www.media.mit.edu/people/pattie/CACM-94/CACM-94.p1.html)

Turkle, Sherry, Life ond the Screen. Identity in the Age of the Internet. London (Weidenfeld & Nicolson) 1996. [zuerst New York (Simon & Schuster) 1995]

Fußnoten
  [1] Das von der Volkswagen-Stiftung geförderte Projekt "Interaktionsraum Internet. Netzkultur und Netzwerkorganisation in offenen Datennetzen" (TU Berlin und Wissenschaftszentrum Berlin) zielt u.a. auf die Analyse der politischen Ordnung des öffentlichen Raums im Internet (http://duplox.wzb.eu/vw/). Als empirisches Fallbeispiel dient die seit einigen Jahren betriebene Reform des Internet Protokolls (http://duplox.wzb.eu/COSTA3/6.html).

[2] Informationen über Agenten-bezogene Projekte und Literatur finden sich im WWW an zahlreichen Stellen, u.a. unter http://www.informatik.th-darmstadt.de/~fuenf/work/agenten/agenten.html, http://www.cl.cam.ac.uk/users/rwab1/agents.html, http://agents.www.media.mit.edu:80/groups/agents/resources.html und http://www.cs.umbc.edu/agents/resources.shtml. Zur Software Agents Mailing List vgl. http://www.smli.com/research/tcl/lists/agents-list.html.

[3] Der Quellcode für Maas-Neotek Robots ist im Internet erhältlich via anonymous Ftp unter der Adresse NL.CS.CMU.EDU [128.2.222.56] im Verzeichnis /usr/mlm/ftp (die Datei heißt robot.tar.Z).

[4] Eine Zusammenstellung von Web Spidern findet sich unter http://info.webcrawler.com/mak/projects/robots/robots.html.

[5] Aus den in einer Programmiersprache geschriebenen Anweisungen des Quellcodes wird das binäre lauffähige Programm hergestellt. Die Übersetzung von Quell- zu Binärcode ist nicht umkehrbar.

 

Startseite Über uns Endbericht (Hyper-)Texte Allerlei Interaktionen Sitemap
Startseite Über uns Endbericht (Hyper-)Texte Allerlei Interaktionen Sitemap

Projektgruppe "Kulturraum Internet". c/o Wissenschaftszentrum Berlin für Sozialforschung (WZB)
Reichpietschufer 50, 10785 Berlin. Telefon: (030) 254 91 - 207; Fax: (030) 254 91 - 209;
; http://duplox.wzb.eu.