Startseite Über uns Endbericht (Hyper-)Texte Allerlei Interaktionen Sitemap
Startseite Über uns Endbericht (Hyper-)Texte Allerlei Interaktionen Sitemap

 

Regierende Techniken und Techniken des Regierens: zur Politik im Netz
 

 

  Sprungbrett
1  "Meta matters": die Entwicklung der Forschungsmethoden
2  Das Internet vor Skalierungsproblemen
2.1  Die Konstitution des Netzes: das Internet Protocol
2.2  Die Regulierung des Netzes: die Internet Engineering Task Force
3  Regierende Techniken vor dem Generationswechsel
3.1  CIDR: die Behelfslösung
3.2  IP Next Generation: die gute Architektur zwischen Reform und Revolution
3.2.1  Adreßformat I: Semantik
3.2.2  Adreßformat II: Adreßlängen
3.2.3  Adreßformat III: Raumordnungsprinzipien
4  4 "The Internet way of doing things": Techniken des Regierens im Netz
4.1  Fiddling while the Internet is drowning?: Rettungsversuche statt "rough consensus"
4.2  IPv6: Ein neues Ordnungsmodell für das Internet
5  5 "ipv4ever"?
5.1  Network Address Translators - das Netz hilft sich selbst
5.2  Data flows
5.3  "IP written in stone?"
6  "So long, and thanks for all the packets": Fazit

 

 
"Fixing society to make folks to be rational is ok as an interim solution but it is just plain easier to fix technology in the long run." (Antonov, IPv6 haters, 12.1.96)

Wenn heute von der politischen Bedeutung des Internet die Rede ist, geht es zumeist um seinen Einfluß auf bestehende Formen politischer Organisation und Partizipation: Wie präsentieren die Parteien sich im Netz, wer nutzt dieses Angebot, und darf man sich vom Internet neue, direktere Formen politischer Partizipation erwarten, so etwa lauten die Fragen, die sich aus dieser Perspektive stellen (vgl. etwa Gellner & von Korff 1998; Hagen 1996; Wagner & Kubicek 1996; London 1994). Nicht die Beschaffenheit des Mediums selbst ist hierbei von Interesse, sondern die Effekte, die es in der politischen Landschaft erzielt. Wie verhält es sich aber mit der Konstitution des Netzes? Bringen die Entwicklung und Nutzung des Netzes eine eigenständige politische Dimension hervor?

Die Existenz einer binnenpolitischen Ebene im Internet hatten wir zu zunächst eher behauptet als systematisch begründet (vergl. Helmers, Hoffman & Hofmann 1996). Sinngemäß lautete das Argument, daß in einem technisch konstituierten Raum, in dem alles Handeln die Form von Datenflüssen hat, auch die gemeinsamen Angelegenheiten dieses Handelns, sozusagen die res publica, eine technische Gestalt annimmt. Politisch bedeutsam seien die Ereignisse und Objekte, die die Konstitution des Netzes und mithin die Handlungsbedingungen aller Nutzer berühren.

Aus empirischer Sicht zeigt sich die politische Qualität des Netzes sowohl in einem normativen als auch einem prozeduralen Gewande. Das Internet beruht auf der Idee einer guten Netzarchitektur und einem Satz von Regeln, die die Güte seiner Entwicklung sicherstellen sollen. Das Gute ist durchaus in einem aristotelischen Sinne zu verstehen: Vergleichbar einer Suche nach den Regeln des gerechten und guten Lebens "erfühlte" die Internetgemeinde der Gründerjahre ihren Weg zu den Prinzipien eines guten digitalen Datennetzes (Cerf, zit. nach Salus 1995, 29). Die Vorstellung davon, was ein gutes Datennetz ausmacht, korrespondiert einem praktischen, für das Internet gleichermaßen konstitutiven Ziel, das sich als globale Konnektivität umschreiben läßt: "Connectivity is the basic stuff from which the Internet is made", heißt es dazu lapidar (Mahdavi & Paxson 1997). Gut und gerecht sind demnach solche Regeln oder Techniken, die dem Projekt globaler Konnektivität dienen.

Eine Maxime wie globale Konnektivität zur politischen Leitidee zu erklären, mag auf den ersten Blick trivial erscheinen. Ist dieses Ziel durch Telefonnetze nicht längst verwirklicht worden? Verglichen mit dem Telefonsystem stellt das Internet eine Art radikalisierter Interpretation der Vernetzungsidee dar. Es versieht die physischen Kabel und Apparate, die wir aus der Telefonwelt kennen, mit einer neuen Nutzungsphilosophie, genauer: mit anderen, allein softwarebasierten übertragungstechniken, deren Kernelemente in einer Protokollfamilie namens TCP/IP (Transmission Control Protocol/Internet Protocol) zusammengefaßt sind. Der vielleicht wichtigste Unterschied zwischen dem Konnektivitätsgedanken der Telefonwelt und "IP land" besteht in der Art und dem Umfang der Bedingungen, die an die Nutzer und Nutzungsweisen der Netze gestellt werden. Im Unterschied zur klassischen "Einzweckmaschine" Telefon, die Konnektivität lange Zeit ausschließlich dem Sprachverkehr vorbehalten hat, zielt das Internet darauf, alle digitalisierbaren Kommunikationsformen und -dienste zu unterstützen.

Im Gegensatz zur proprietären, eigentumsrechtlich geschützten Technik der Telefonwelt, sind Internet Standards wie TCP/IP offen, dürfen also von jedem unbeschränkt genutzt werden. Die Konsequenzen für die Durchsetzung der guten Architektur sind weitreichender als man sich zunächst vorstellt. Offene Standards bedeuten einen Verzicht nicht nur auf Lizenzrechte, sondern auch auf jegliche Kontrolle ihrer Verwendung und vor allem ihrer Weiterentwicklung. Es steht jedem frei, neue Übertragungsverfahren oder Dienste für das Internet zu entwickeln. Weder die Internetgemeinde, als derzeit wichtigste Standardisierungsinstanz im Netz, noch andere Organisationen können die weitere Entwicklung des Internet wirksam steuern. Das Ziel globaler Konnektivität wird im Internet somit unter anderen Bedingungen, mit anderen Zielen und Folgen als in den zentralistisch angelegten, durch staatlich institutionalisierte Organisationen wie ISO (International Standards Organization) oder ITU (International Telecommunication Union) administrierten Netzen betrieben (vgl. Werle & Leib 1997). Ohne Sanktionsmittel ausgestattet, kann sich Regierungsmacht im Internet nahezu ausschließlich auf die allgemeine Anerkennung ihrer Regeln und Produkte stützen.

Die politische Dimension von "Internet Governance" (Baer 1996; Gillet & Kapor 1997; Gould 1997) zeigt sich im Streben nach einer guten netzarchitektonischen Ordnung, verstanden als ein Gemeinwohl, das der globalen Kommunikation dient - einer Ordnung, die im übrigen nicht alternativlos ist, sondern sich in ausdrücklicher Konkurrenz zu anderen Netzentwürfen, allen voran jenen der "POTs" (Plain Old Telephone Systems), entwickelt hat. Das Resultat dieses Strebens, die spezifische Architektur des Internet, bezeichnen wir als regierende Techniken.

Daß sich die Eigenschaften der Internetarchitektur in antiken politischen Kategorien beschreiben lassen, bedeutet allerdings nicht, daß auch die Träger dieses Projekts ihr Handeln als politischen Vorgang verstanden wissen wollen. Im Gegenteil, die Internetgemeinde1 besteht auf einem Begriff von Technik, der sich durch eine scharfe Abgrenzung von Politik auszeichnet. Nach Überzeugung der Netztechniker sind die Unterschiede zwischen den Architekturen der Telefonwelt und dem Internet gar darauf zurückzuführen, daß die eine unter politischen, die andere dagegen unter technischen Gesichtspunkten entwickelt wird (vgl. Hofmann 1998a). In den Institutionen und Werthaltungen, den Ein- und Ausschlußstrategien, die den Wandel des Netzes prägen, sehen wir - wider die Selbstwahrnehmung der Akteure - eine weitere Dimension politischer Ordnungsmacht, die wir als Techniken des Regierens bezeichnen.

Das Zusammenspiel aus regierenden Techniken und Techniken des Regierens im Netz dient als konzeptioneller Zugriff auf die politische Ordnungspraxis im Internet. Anhand einer Fallstudie über die Entwicklung der nächsten Generation des Internet Protocols IP bzw. IPng (next generation), dem wichtigsten unter den Internet Standards, sollte exemplarisch der Frage nach den Praktiken und Gegenständen von Governance im Internet nachgegangen werden. Wie organisiert das Internet seinen eigenen Fortbestand und welche Wahlmöglichkeiten zeigen sich darin? Uns interessierten in diesem Zusammenhang sowohl netztechnische Zielsetzungen und -konflikte, als auch die spezifischen Prozeduren der Entscheidungsfindung und -durchsetzung. Der Akzent in diesem Text wird allerdings weniger auf den Techniken des Regierens als den regierenden Techniken liegen. Beabsichtigt ist, die architektonischen Dilemmata des Internet exemplarisch zu skizzieren, um daran anknüpfend der Frage nachzugehen, wie das technisch Unentscheidbare in der IETF entschieden wird.

Für die Wahl von IP als Fallstudie schien seine grundlegende Bedeutung im Internet zu sprechen. IP umfaßt immerhin den Satz kanonischer Regeln, der Computer erst miteinander in Verbindung treten und Daten austauschen läßt, um auf diese Weise autonome Netzwerke zum Netz der Netze zusammenzuschließen.

    IP definiert
  • das Adressierungssystem (die Ordnung des Adreßraums im Internet),
  • das charakteristische Format, in dem Daten übertragen werden (Paketvermittlung),
  • den Typ der Datenübertragung (verbindungslos, d.h. von Router zu Router springend),
  • und die Verläßlichkeit der Datenübertragung (bestmöglich, ohne Garantien).2
IP ist sozusagen die Muttersprache im Kommunikationsraum. Sie enthält das Minimum verbindlicher Regeln des Datenaustauschs und damit zugleich den Schlüssel zur Realisierung globaler Konnektivität. (RFC 1958) Wenige Monate vor Beginn der Untersuchung hatte sich die Internetgemeinde auf ein Modell für IPng geeinigt und diesem den Namen IPv6 gegeben. Im Rahmen der Fallstudie sollte die Vorgeschichte des langwierigen Auswahlprozesses rekonstruiert sowie der Verlauf der Spezifikation und Implementation von IPv6 bis zur Anwendungsreife beobachtet werden. Welche Einsichten über die Konstitution politischer Autorität im Internet lassen sich aus der Entwicklung von IPv6 gewinnen? Unsere Antworten darauf sind geprägt von der ethnographisch orientierten Forschungsmethode und dem Typ der verwendeten Quellen.
1 "Meta matters": die Entwicklung der Forschungsmethoden
 
"If no-one has any objection, I will setup a daemon to automatically post random postings from the big-internet [mailing list, d. A.] archive until we all travel sufficiently far back in time that we can prevent the spice girls from meeting."
(Chiappa, IETF list, 15.7.98)

Die Untersuchung politischer Ordnungsmacht mit Hilfe ethnographischer Methoden rückt Akteure, Ressourcen und Strategien ins Blickfeld, denen in der politikwissenschaftlichen Forschung eher eine randständige Bedeutung beigemessen wird. Dazu gehören etwa Sitten, Rituale, heilige Werte und quasi religiöse Glaubensbekenntnisse, mit denen im Internet um Definitionshoheit über öffentliche Belange gerungen wird. Der "Standortvorteil" kulturalistischer Forschungsansätze im Netz besteht darin, daß diese problematisieren, was der empirischen, innerhalb nationalstaatlich organisierter Gesellschaften denkenden Politikwissenschaft nicht wirklich klärungsbedürftig scheint, nämlich die Voraussetzungen und Bestandsbedingungen sozialer Verbände. Internet Governance kann nämlich nicht auf das übliche Repertoire staatlicher Organisationsressourcen zurückgreifen (vgl. Reidenberg 1997; Willke 1997). Das Internet besitzt keine Verfassung, keine Regierung und kein Parlament, nicht einmal ein Rechtssystem. Verbindliche Regelwerke wie das Internet Protocol beziehen ihre Anerkennung allein aus der Zustimmung der Nutzer bzw. ihrer Netzadministratoren. Paradoxerweise ist es gerade die Architektur des Internet, die verantwortlich für diese Dezentralisierung von Entscheidungsverhältnissen ist. Je erfolgreicher das Projekt globaler Konnektivität, desto unkontrollierbarer gestalten sich dessen Rückwirkungen auf die Netzarchitektur.

Die Ziele, Strategien und Konflikte um die Weiterentwicklung der Internetarchitektur wurden mit Hilfe vier verschiedener Quellentypen untersucht.

  1. Dokumentenanalyse: Internet-Drafts und Request for Comments (RFCs), die beiden Publikationsserien der IETF, ermöglichen eine überaus ergiebige Dokumentenanalyse. Zusammen bilden sie den augenblicklichen Stand des gesamten Standardisierungsgeschehens in der Gemeinde ab - und dies aktueller als jede andere Dokumentenquelle. Gelegentlich dienen RFCs aber auch zur Verbreitung anderer Mitteilungen. Einige enthalten etwa Gedichte (vgl. RFC 1121) oder auch Aprilscherze (siehe Fußn. 19). In den letzten 18 Monaten seit Anfang 1997 hat die IETF gut 3.000 Internet-Drafts und knapp 400 RFCs veröffentlicht. Spezifikationen für IPv6 werden derzeit in 29 Internet-Drafts und 16 RFCs beschrieben.3

  2. IETF-Tagungen: Eine weitere Erhebungsquelle bildeten die dreimal jährlich stattfindenden Arbeitstagungen der IETF. Das fünftägige Zusammentreffen von 2.000 bis 2.500 Ingenieuren bietet Gelegenheit, um die praktische Arbeitsweise und interne Organisationsform, die typischen Gebräuche und nicht zuletzt das Verhältnis zwischen elektronischer und realweltlicher Kommunikationsform zu studieren. Akteure, die wir zuvor nur aus ihren schriftlichen Beiträgen im Netz kannten, wurden während der Tagungen im doppelten Sinne als Figuren erkennbar. Zum einen lassen sich Namen und Meinungen einer körperlichen Erscheinung zuordnen, zum anderen aber verbinden sich mit Personen nun (Vater-, Funktionärs- oder Außenseiter-)Rollen, Ansehen und Status - elementare Ordnungselemente in der Netzentwicklung, die sich nicht allein aus der Beobachtung im Netz erschlossen hatten, jedoch hilfreich waren, um Strukturen und Verläufe elektronischer Debatten besser zu verstehen. Ein gutes Beispiel für die Ausdrucksformen von Autorität und Status in der Community bildet die Diskussionsordnung in den Arbeitsgruppensitzungen. Nicht die Schlange hinter dem Mikrophon, will sagen: die Wartezeit entscheidet nämlich über die Reihenfolge der RednerInnen, sondern die Bedeutung des Sprechenden bzw. seines beabsichtigten Beitrages. Diese Bedeutung wird zugleich beansprucht - etwa durch die Entschlossenheit, mit der das Mikrophon angesteuert wird - und bereitwillig zugestanden: Man tritt einen Schritt zurück in der Warteschlange, um dem Ranghöheren Platz zu machen.

  3. Experteninterviews: Die Teilnahme an den Tagungen der IETF diente zugleich dazu, Interviews zu führen. Die Absicht der Interviews war zum einen, die aus den elektronischen Archiven rekonstruierte Entstehungsgeschichte von IPv6 um die Erinnerungen der Beteiligten zu ergänzen (vgl. dazu auch Hofmann i.E.). Zum anderen zielten die Befragungen auf die Klärung von Problemstellungen, die, wie etwa die Frage nach Alternativen zu IPv6 oder des Einflusses privater Adreßräume auf die Netzarchitektur, außerhalb oder quer zu den Arbeitsgruppen der IETF liegen.
    Überraschend für die Beobachterinnen ist, daß die IETF ihrer gewichtigen Rolle in der Regulierung des Internet zum Trotz nicht einmal näherungsweise kohärente Entwicklungsstrategien entwickelt. Debatten, die über konkrete Standardisierungsvorhaben hinausgreifen, ergeben sich allenfalls als - in der Regel schnell versiegende - Nebenarme der vergleichsweise stark reglementierten Kommunikationsflüsse in den Arbeitsgruppen: "There is a lack of a comprehensive 'business plan' within the IETF. There is no consensus or discussion within the entire IETF about the direction of an area, for example", so beschrieb eine Autorität der Gemeinde dieses Phänomen.4

  4. Mailinglisten: Als wichtigste Informationsquelle für die Fallstudie aber erwiesen sich Mailinglisten. Dieser verteilte Kommunikationsdienst stellt heute die wichtigste Entwicklungsstätte von Internettechnik dar. Jede der rund 100 Arbeitsgruppen in der IETF unterhält ihre eigene Mailingliste, die grundsätzlich offen für Interessierte sind. Die IPng Mailingliste wird derzeit von rund 1.400 Abonnenten gelesen; die Zahl der aktiven Mitglieder liegt jedoch weit darunter und erreicht kaum 5 % der überwiegend "lurkenden" Listenmitglieder. Seit ihrer Einrichtung vor genau vier Jahren Mitte 1994 hat sie etwa 6.000 Beiträge zu verzeichnen. Das Lesen von Mailinglisten haben wir als ein qualitativ neuartiges Fenster auf das Forschungsgelände "Technikentwicklung im Netz" bezeichnet (Hofmann i.E.). Das forschungsstrategisch Besondere der Mailingliste besteht darin, daß man dem Räsonieren der Ingenieure aus nächster virtueller Nähe zuschauen kann, ohne jedoch selbst zur Adressatin zu werden. Wie sonst vielleicht nur die Archivrecherche verschafft diese Forschungsquelle einen Zugang zum Untersuchungsfeld, der nicht einmal indirekt zu ungewollten Interventionen führt. Obwohl elektronisch so präsent wie die Protagonisten der Liste, bleiben die Zuschauerinnen von diesen unbeachtet. Bemerkbar macht sich diese Nichtbeachtung auch daran, daß keine Übersetzungs- oder Dekontextualisierungsversuche stattfinden. Auf den Mailinglisten reden die Ingenieure untereinander in der ihnen eigenen Schriftsprache, die sich durch eine strengere Ökonomie der Worte und Buchstaben (davon zeugen die zahllosen Akronyme!) wie auch durch besonderen Sprachwitz auszeichnet. Mailinglisten sind ein vielstimmiger Informant. Sie erlauben es, Konflikte um die Architektur des Netzes im Präsenz zu verfolgen. Man hat Teil an einer fortlaufenden Diskussion, in der sich die verschiedenen Positionen zum eigenen Forschungsgegenstand artikulieren. Die Mailingliste IPng, die offizielle Entwicklungsstätte des neuen Internet Protocols, wurde 1997 gar zum Opfer einer Gegengründung. Auf der "IPv6-haters list" versammeln sich die Kritiker von IPv6 wie auch die Interessenten an dieser Opposition.5
    Mailinglisten ersetzen zwar andere Forschungsquellen wie Interviews nicht, aber aufgrund der besonderen Beobachtungsbedingungen, die im digitalen Datennetz bestehen, erlauben sie eine Form des Dabeiseins, die umgekehrt nicht durch herkömmliche Untersuchungsmethoden erreicht wird. Zu den 'generischen', dieser Forschungsquelle zu verdankenden Einsichten über Regierungsmacht im Netz gehört die Breite des Spektrums divergierender, gleichwohl plausibler Auffassungen, die in der Community zur Internetarchitektur vertreten sind. Die Beobachtung kollektiv und öffentlich betriebener Technikentwicklung sozusagen als Live-Veranstaltung läßt erkennen, daß sich an das Projekt globaler Konnektivität verschiedene Entwicklungsoptionen knüpfen. Im Namen der guten Architektur wird darum gestritten, welche Vorgehensweise ihrer Realisierung am nächsten kommt und welche Kompromisse dabei akzeptabel sind. Um welche Probleme es dabei geht, wie diese bewertet und bearbeitet werden, wird nachfolgend in (sehr) groben Zügen anhand der Entwicklungsgeschichte einer vielleicht bald regierenden Technik rekonstruiert. Empirische Einlagen aus (anonymisierten) Interviews und Mailinglistenbeiträgen 6dienen hierbei zur Illustration und Plausibilitätssteigerung.
2 Das Internet vor Skalierungsproblemen
 
2.1 Die Konstitution des Netzes: Das Internet Protocol
 
"Scalability is not only a technical term these days. It is quite worrysome to see how many dependencies there are on the network, and what it takes to make solutions viable, acceptable, implementable and manageable, including in a global and also quite politicized arena."
(Braun, big I, 3.7.92, 0531)

Je weiter sich das Internet ausdehnt, desto prekärer gestaltet sich zumindest eine kohärente Form der Bewältigung von Krisen, die durch sein Wachstum verursacht werden. Die Dezentralität und Offenheit des Netzes ist nämlich zugleich Grund seines Erfolges wie auch erhebliches Hindernis bei dem Versuch, neue Techniken netzweit durchzusetzen. Um 1990 schien das Netz an zwei betriebswichtigen Stellen gleichzeitig unter Druck zu geraten. Engpässe zeichneten sich zum einen in der numerischen Adressierungskapazität ab. Diese entscheidet über die Zahl möglicher Netzknoten und Nutzer, die eine weltweit eindeutige Identität im Internet erhalten können - und damit folglich über den maximalen Umfang, den das Netz erreichen kann. Wachstumsgrenzen zeigten sich zum anderen im Routingbereich. Die Zahl der Wege im Netz wuchs schneller als die Kapazität der Rechner zur Kalkulation derselben.7 Die Speicher- und Rechenkapazität der Router aber bestimmt letztlich die Anzahl erreichbarer Objekte im Netz, d.h. Netzknoten oder Sites, zu denen Datenrouten ermittelt werden können.

Das Projekt globaler Konnektivität war mit zwei verwickelten und zugleich bedrohlichen Skalierungsproblemen konfrontiert. Bedrohlich schien die Lage zu Beginn der 90er Jahre, insofern das Internet auf einen Kollaps zusteuerte; verwickelt, weil der Engpaß nicht in der absoluten Anzahl verfügbarer Adressen und kalkulierbarer Datenwege zwischen ihnen bestand - immerhin kann das 32 bit große Adreßfeld von IPv4 rund 4 Mrd. Hostrechner in 16,7 Netzwerken identifizieren (RFC 1752) - sondern in einem Aspekt, dem die Techniker bislang kaum Aufmerksamkeit geschenkt hatten: der Organisation des Adreßraums. Das bisherige Verfahren zur Allokation von Netzadressen erwies sich angesichts der neuen Größenordnung des Internet als zu großzügig, ja sogar als verschwenderisch und obendrein äußerst unsystematisch (vgl. Ford, Rekhter & Braun 1993, 14). Viele Netzadressen bleiben bis heute ungenutzt, weil Netzwerke bzw. Sites nur einen Bruchteil des einst erhaltenen Adreßvolumens verwenden. Schätzungen gehen davon aus, daß etwa ein Zehntel der Adressierungskapazität von IPv4 tatsächlich in Benutzung ist. 8 Auch das Problem der "routing explosion" hängt mit dem Wachstum des Internet nur mittelbar zusammen. Dem Adreßraum mangelte es an einer Ordnung, die die Zunahme der Datenrouten von jener der Sites entkoppelte. Aggregierbare Adressenallokation, lautete das Stichwort. Den Erinnerungen unserer Interviewpartner zufolge hatte die Struktur des Adreßraums bei der Entwicklung von IPv4 keine Rolle gespielt. Solange das Internet klein war und nur einen Backbone besaß, der faktisch den einzigen Transitweg für alle Datenpakete bildete, interessierte die Effizienz des Adressierungsverfahrens ebensowenig wie seine "Routingfreundlichkeit". Adressen dienten vorrangig zur Identifikation, nicht aber zur Lokalisierung von Netzobjekten. Bis 1993/1994 wurden IP Adressen tatsächlich sequentiell, das heißt in der Reihenfolge der Antragsteller, ohne Rücksicht auf die geographische oder topologische Position der Netze vergeben.9 Aus der Perspektive der Router ist der Adreßraum von IP daher ein flaches Gebilde. Weil es keine Gliederung gab, unter der sich Netzadressen zusammenfassen ließen, mußten diese alle einzeln ausgewiesen werden. Und um so mehr Netzwerke den Anschluß an das Internet suchten, desto länger wurden die Tabellen, in denen die Router Netzadressen und die Wege dorthin speichern.

Eine Steigerung der Adressierungseffizienz, wie von Teilen der Internetgemeinde vorgeschlagen, mochte wohl den Adressenmangel kurzfristig beheben, drohte aber damit, den Routingengpaß gar noch zu verstärken. Umgekehrt war von einer Hierarchisierung des Adressierungssystems zwar eine Entschärfung des Routingproblems zu erwarten, zugleich aber eine weitere Senkung der ohnehin geringen Nutzungseffizienz der Adressenvergabe (vgl. dazu Huitema 1996).

Die miteinander verschränkten Skalierungsprobleme des Internet steckten den Rahmen ab für die Entfaltung widerstreitender Lösungsvorstellungen, die, gewollt oder ungewollt, zwei zentrale Regierungsfragen im Netz aufwarfen. Die eine galt der Architektur des Internet: Sind die aktuellen Skalierungsprobleme als Indiz dafür zu werten, daß das Projekt globaler Konnektivität eine von Grund auf erneuerte Netzorganisation erfordert oder bedarf es lediglich einer verbesserten Implementierung seiner Prinzipien? Die andere thematisierte die Machtverteilung in der IETF: Und wem obliegt es, darüber zu entscheiden?

2.2 Die Regulierung des Netzes: Die Internet Engineering Task Force
  Noch gilt die Internet Engineering Task Force als wichtigste Regulierungsinstanz im Internet. Viele, wenn auch längst nicht alle de facto Standards, die zusammen das Internet konstituieren, stammen aus ihren Arbeitsgruppen. 10 Außerhalb der Netzwelt ist die Existenz der "non-governmental governance of the Internet" (Baer 1996) jedoch weitgehend unbekannt. Das gilt vor allem für Europa, wo bislang nur wenige Unternehmen oder Forschungseinrichtungen Interesse an einer Mitarbeit zeigen. Zum Teil wird das auf das ungewöhnliche Erscheinungsbild und die von offiziellen internationalen Standardisierungsgremien abweichende Organisationsform der IETF zurückzuführen sein. Die Internetgemeinde besitzt weder einen justitiablen Status, noch formale Mitgliedschaftsregeln. Als Mitglied kann und soll sich jeder verstehen, der die Mailinglisten der IETF abonniert oder an ihren Treffen teilnimmt. Netztechnische Kompetenz und praktisches Können vorausgesetzt steht die IETF jedem Interessenten offen. Die Ausschlußwirkung dieses Vorbehalts ist freilich nicht zu unterschätzen. Traditionell versteht sich die IETF als Elite in der technischen Entwicklung von Kommunikationsnetzen. Gesten der überlegenheit und Geringschätzung anderer Standardisierungsgremien korrespondieren einer unübersehbaren Ungeduld gegenüber Inkompetenz in den eigenen Reihen.

Wie in frühen Tagen, als die Internetgemeinde noch klein und überwiegend akademisch war, gilt die Regel des "one man, one vote": Jeder spricht nur für sich selbst, nicht aber für die Organisation, in deren Auftrag er an der IETF mitwirken mag: "all participants in the IETF are there as INDIVIDUALS, not as companies or representatives thereof. (Whether this is a quaint fiction is an interesting discussion given enough beer, but it is certainly the historical basis of the organization. (O'Dell, 18. 12. 97, POISED)

Mehrheitsentscheidungen und Kampfabstimmungen sind verpönt. Es wird so lange diskutiert, bis sich ein breiter Konsens ("rough consensus") herausschält. Der Eindruck, daß es sich bei der IETF um eine technische Graswurzelgemeinde handelt, verstärkt sich, wenn man die bereits erwähnten Kleidungssitten der IETF betrachtet. T-Shirts, Shorts, Sandalen und die Abneigung gegen Anzüge und Krawatten spielen im Selbstverständnis der Internetcommunity eine so große Rolle, daß Neulinge explizit auf die Existenz des "dress codes" hingewiesen werden (vgl. RFC 1718). In den Konsensbildungs- und Kleidungsregeln manifestiert sich eine programmatische Haltung der Technikergemeinde zum Internet. Aus Sicht der Ingenieure spiegelt sich im Internet eine Tradition der Technikentwicklung, in der diejenigen entscheiden, die auch selbst Hand anlegen, will sagen: Programmcode schreiben. Anzüge und Krawatten symbolisieren demgegenüber eine Arbeitsteilung, in der die Entscheidungsgewalt bei Management und Marketing liegt. Das Internet, so die Vorstellung der Techniker, soll von Technikern regiert werden. Das Primat der Standardentwicklung drückt sich in der Organisationsform der Community aus:

"One of the things that no one seems to get is that voluntary standards groups are bottom-up organizations. The program of work is set by who shows up and what they want to work on. If people quit attending they have no raison d'etre. Voluntary standards are just that: 'use them if you want.' (...) Voluntary standards have weight in the market place because vendors and users decide to implement and buy products using those standards and *choose* to attend meetings of those organizations." (Day, IPv6 haters, 16.2. u. 2.3.96, 0468 u. 0540)
Governance im Internet soll sich allein auf die Anerkennung von Verfahren und Produkten stützen. Die Qualität eines Standards hat nach Auffassung der Techniker über dessen Durchsetzung zu entscheiden. Inzwischen ist die einstmals überschaubare Gemeinde auf mehrere Tausend, überwiegend in der Internetbranche beschäftigte Ingenieure angewachsen. Traf man sich in den Gründerjahren der Community noch in den Räumen von Universitäten, müssen heute mehrere Jahre im voraus die größten Konferenzhotels am Platze reserviert werden, um ausreichend Tagungsraum für die knapp 100 Arbeitsgruppen zur Verfügung zu haben. 11 Unternehmen wie Cisco, IBM, Microsoft oder Sun, deren künftige Produkte von Internet Standards unmittelbar abhängen, schicken bis zu 40 Mitarbeiter zu den Treffen der IETF.12

Im anhaltenden Wachstum der Internetgemeinde drückt sich eine Aufwertung der Netztechnik und mittelbar seiner Normungsgremien aus. Unternehmen haben die IETF als "Vehikel" (Day) zur Koordinierung innerhalb eines neuen Marktes entdeckt: "It used to be that the phone companies went to ITU and the computer companies to ISO. Now the computer companies go to the IETF and IEEE. (...) Someday the same fate will befall the IETF when they are viewed as a bunch of old farts." (Day, IPv6 haters, 2.3.96, 0540). Die Attraktivität der Internetgemeinde besteht aus Sicht der Unternehmen nicht zuletzt darin, daß die Standardentwicklung noch wenig von ihrem institutionellen Eigengewicht beeinträchtigt wird. Ihrer Größe und wirtschaftlichen Bedeutung zum Trotz, ist die IETF darum bemüht, an ihrer informellen Organisationsform und ihrer praktischen, auf funktionstüchtige Technik ausgerichteten Orientierung festzuhalten.

Auch auf der organisatorischen Ebene machen sich jedoch zunehmend Skalierungsprobleme bemerkbar. Ein Indiz dafür sind die expandierenden Arbeitsgruppen, in denen sich das Verhältnis zwischen aktiven Teilnehmern und passiven Beobachtern immer stärker in Richtung letzterer verschiebt. Die populären Arbeitsgruppen müssen ihre Treffen inzwischen in den großen Ballsälen der amerikanischen Hotels abhalten. Diskussionsbeiträge mutieren unter solchen Umständen zu Präsentationen, und eine ernsthafte Arbeitsatmosphäre will sich kaum mehr einstellen.

Wie in der Standardentwicklung, findet sich auch für dieses Wachstumsproblem eine pragmatische Lösung. Die einstigen Arbeitstagungen der IETF durchlaufen einen Bedeutungswandel. Vor allem die großen Arbeitsgruppen entwickeln nach und nach den Charakter von Präsentationsveranstaltungen, die dazu dienen, ein breites Publikum schweigender Beobachter über den aktuellen Stand der Dinge und die noch offenen Fragen zu informieren. Die eigentliche Entwicklungsarbeit aber verlagert sich aus den Arbeitsgruppen in sogenannte "design teams" (vgl. Bradner 1998). Dabei handelt es sich um kleine, nicht öffentlich arbeitende Gruppen von rund drei Personen, die entweder vom "chair" einer Arbeitsgruppe kooptiert werden oder sich selbst konstituieren. Die Bildung von design teams läßt sich als Versuch verstehen, unter Ausschluß der öffentlichkeit die Arbeitsbedingungen der frühen Tage, als noch alle Mitglieder um einen Tisch passten, wieder herzustellen. Typischerweise erstellen design teams erste Entwürfe (in der Form von Internet drafts), die dann in den Arbeitsgruppen zur Diskussion gestellt werden. In lakonischem Ton dazu der Vorsitzende der IPng Arbeitsgruppe:

"... almost *all* protocols considered by the IETF are the work of a small number of people and, where that number is greater than 1, the result of closed design meetings/mailing lists/phone calls/whatever. IETF working groups seem to have two roles: - adding value by identifying bugs or issues that the designers overlooked and would wish to know about - subtracting value by forcing compromise and featuritis into a design against the best judgement of the designers." (Deering, Ipv6 haters, 3.2.97, 0783)
Auch wenn die Gemeinde ihren Aufstieg zum einflußreichen Standardisierungsgremium augenscheinlich zögerlich und widerwillig nachvollzieht, mehren sich doch die Anzeichen für eine wachsende Formalisierung ihrer Entscheidungsstrukturen. Sitten und Regeln ("process issues", vgl. RFC 1396), die früher mündlich weitergegeben wurden, durchlaufen nun häufiger den gleichen Standardisierungsprozeß, der bislang technischen Konventionen vorbehalten war: Eine Arbeitsgruppe wird gegründet, eine Mailingliste eingerichtet, ein "chair" und ein "document editor" benannt und eine "charter" inklusive "milestones" formuliert (RFC 2026; Bradner 1998). Verstärkt worden ist die Tendenz zur Kodifizierung tradierter Organisationsformen in der IETF bemerkenswerterweise durch die Konflikte über die nächste Generation von IP. Das Skalierungsproblem des Internet wuchs sich zur Strukturkrise seiner Gemeinde aus.
3 Regierende Techniken vor dem Generationswechsel
 
3.1 CIDR: die Behelfslösung
 
Sometimes in life "merely surviving" is a major accomplishment. As superchicken said: "You knew the job was dangerous when you took it. Aaaack!"
(Fleischman, big I, 16.5.94, 0810)

Ende 1991 formierte sich innerhalb der IETF eine Gruppe namens ROAD (ROuting and ADressing), die das Areal möglicher Lösungsansätze für beide Problemstellungen ventilieren sollte. Abweichend von den üblichen Gepflogenheiten handelte es sich um eine nicht öffentlich tagende Arbeitsgruppe. Ein halbes Jahr später, im Frühjahr 1992, präsentierte sie ihre nach Fristigkeiten geordneten Handlungsempfehlungen (ausf.: RFC 1380).

Als langfristige Maßnahme wurde die Erweiterung der Adressierungskapazität im Rahmen eines neuen Internet Protocols vorgeschlagen. Die verschiedenen Vorstellungen, die zur Frage von "bigger Internet addresses" in der Gemeinde kursierten, sollten nach Auffassung der ROAD-Gruppe durch die Gründung mehrerer Arbeitsgruppen exploriert werden. Auf den akuten Handlungsbedarf sollte bis zum Vorliegen des neuen Protocols mit einer Interimslösung reagiert werden. Unterhalb eines Eingriffs in die Netzarchitektur mußte diese die Geschwindigkeit des Adreßverbrauchs einerseits und des Wachstums der Routingtabellen andererseits verlangsamen. Die bis heute geltende Zwischenlösung stand ein Jahr später zur Verfügung: Classless Inter-Domain Routing, kurz: CIDR.

CIDR, der Name zeigt das an, bezeichnet ein Adressierungssystem, das die Lokalisierungsfunktion, d.h. die Auffindbarkeit eines Netzobjektes, in den Vordergrund stellt. Um die Wegekalkulation zu vereinfachen und die Zunahme der Routen zugleich dauerhaft von jenem der Netzwerke im Internet zu entkoppeln, ist eine Hierarchie in den Adreßraum eingezogen worden, die als "provider-basiert" bezeichnet wird: Alle nach 1994 vergebenen numerischen Netzadressen beginnen mit einem sogenannten Prefix, das, vergleichbar einer Vorwahl, auf die Identität des Internetproviders verweist. Aufgrund des Prefixes, das der Provider mit all seinen Kunden teilt, läßt sich nun die Gesamtheit der Adressen an den äußeren Enden des Netzes unter der nächst höheren (Provider-)Ebene aggregieren. (RFC 1519) Auch für den Adressierungsengpaß wurde eine vorläufige Lösung gefunden. Dank CIDR können die Adreßblöcke flexibler auf die Größe der jeweiligen Netzwerke zugeschnitten werden. 13 Zuständig dafür sind die Provider, was zu erheblichen Spannungen zwischen den Nachfragern und den Anbietern bzw. Treuhändern des knappen Guts Adreßraum geführt hat.

Durch CIDR ist es gelungen, ein Kollabieren des Internet zu verhindern, allerdings um den Preis neugeordneter Eigentums- und Machtverhältnisse im Netz. Internetadressen, die nach den Allokationsprinzipien von CIDR vergeben werden, wechseln nicht mehr in den Besitz der Sites über, sondern gehören faktisch denen, die sie bislang nur weiterreichten: den Providern. Damit ein permanenter Aggregationseffekt im Adressierungsbereich erzielt werden kann, müssen Netzadressen an den Provider zurückgegeben und durch neue ersetzt werden, sobald topologische Veränderungen auftreten.

Topologische Veränderungen aber treten gemäß der Logik des "provider-basierten" Adressierens immer dann auf, wenn ein Netzwerk (oder auch sein Provider) den Provider wechselt. Um so mehr Rechner eine Site umfaßt, desto höher fallen die Kosten aus, die Verschiebungen im topologischen Gefüge verursachen. Unter dem Gesichtspunkt einer gerechten und guten Architektur betrachtet, gilt CIDR als Sündenfall. Denn das Renummerierungsdiktat wälzt die Kosten des topologischen Wandels im Internet einseitig auf die unteren Netzebenen ab und behindert damit nicht nur den Wettbewerb unter den Providern, sondern institutionalisiert auch Abhängigkeiten zwischen den Hierarchiestufen des Netzes. (vgl. RFC 1518; RFC 2008; Ford, Rekhter & Braun 1993) Gleichwohl trägt CIDR bis heute zur Verlängerung der Lebensdauer von IPv4 bei und räumt auf diese Weise eine, wenn auch unbestimmte, Frist für das überdenken der Architekturfrage des Internet ein.

3.2 IP Next Generation: Die gute Architektur zwischen Reform und Revolution
 
"A beautiful idea has much greater chance of being a correct idea than an ugly one."
(Roger Penrose)

"Must IPng embody a new internet architecture or can it simply be a re-engineering of IPv4?" (Deering, big I, 15.5.94, 0789), so lautet die Grundsatzfrage, auf die auch 1994, knapp vier Jahre nach dem Beginn der Debatte über die Zukunft von IP, noch keine einhellige Antwort gefunden war. Die Befürworter eines grundlegend neuen Protokolls beriefen sich auf die Erfindung des Paketvermittlungsprinzips. Aus der Geschichte des Internet schlossen sie, daß nur ein neuerlicher radikaler Schritt seine Tradition mit Aussicht auf Erfolg fortführen könne. Die Installationsbasis von IPv4 sei so groß, daß eine freiwillige "Migration" zu einem neuen Protokoll nur dann erwartet werden könne, wenn es wirklich spürbare Verbesserungen gegenüber seinem Vorgänger anbietet. Globale Konnektivität durch einen couragierten Bruch mit den gültigen technischen Konventionen im Internet, so könnte man diese Position zusammenfassen:
"When I was at MIT, I got in a protocol war (my first - wheeee :-) between CHAOS and TCP/IP. TCP/IP lost. Not for any *technical* reason, but because of installed base. With editors, if you have a 10% market share, you're OK. With communication protocols, you're dead with 10%: people want to use them to communicate, and who wants to use something that doesn't let you talk to 90% of the world? From which I deduce that you need a massive capability edge to overcome installed base. (...) In a market competition, IPv4 has the massive edge in installed base. IPv6 is a dead duck." (Chiappa, IPv6 haters-list, 18.2.96, 0497)
Auch die Anhänger einer kleinen, IPv4-nahen Lösung argumentierten mit der Geschichte des Internet. Die lange Lebensdauer von IPv4, ungeachtet der unvorhersehbaren Nutzerzahlen und Nutzungsweisen, müsse als Ausweis seiner Flexibilität und Robustheit, kurz: als Beleg für seine architektonische Güte betrachtet werden. Im übrigen spreche gerade die große Installationsbasis dafür, Änderungen auf ein Minimum zu begrenzen. Eben weil sich ein Generationswechsel von IP nicht mehr anordnen lasse, spreche alles für eine Version, die Kompatibilität wahre und sich daher allmählich neben IPv4 durchsetzen könne.
"I do not believe the Internet needs a new internet-layer architecture. The current architecture has proven remarkably flexible and robust, due to its minimal requirements from lower layers, its minimal service 'promises' to upper layers, and its simple, stateless, datagram routing and forwarding model. As a result, it has survived the introduction of many new lower-layer technologies and many new applications." (Deering, big I, 15.5.94, 0789)
IP gilt als simples Artefakt. Anspruchslos im Hinblick auf die unterliegende Hardware und von nur geringem Nutzen für die oberhalb von IP residierenden Dienste, hat es sich bislang mit technischen Neuentwicklungen vertragen.14 In dieser Schlichtheit besteht die spezifische Qualität der Architektur, sie begründet die universale Einsatzfähigkeit von IP. Sprach das technisch Triviale an IP nun dafür, möglichst wenig Aufhebens um seine Weiterentwicklung zu machen? Auch die Gegner einer radikalen Lösung zerfielen wiederum in zwei sich unversöhnlich gegenüberstehende Lager. Strittig war, ob die nächste Generation des Internet Protocols von der Community selbst entwickelt werden müsse oder ob auf einen vorliegenden und bereits vielfach implementierten Standard mit der erforderliche Adressierungskapazität zurückgegriffen werden könne: CLNP (Connectionless Network Protocol), eine Weiterentwicklung von IPv4. Im Interesse einer wirklich globalen Konnektivität, so argumentierten die Unterstützter von CLNP, wäre es nur sinnvoll, sich auf einen weltweit einheitlichen Standard für den "Internetwork layer" zu einigen - einen zudem, von dem man wisse, daß er funktioniert:
"One of the reasons I was personally trying to get CLNP accepted - I wasn't the only person to believe this - but I was convinced that IP itself is inherently simple. It has to be. What is really interesting and what we should have been spending a lot of time on is not mucking around with the header format for IP, but thinking about the way the routing protocols (...) needed to be made. (...)Those technical advances that had been made in the IETF would have been different in very minor ways, whether in CLNP or IPv6. (...) The Internet protocol itself is not the important thing, what is important is all the stuff that supports its operation." (L.C.)
"The main point of using CLNP is that it allows us to make use of the installed CLNP base, including existing specifications, implementations, deployment plans, deployed routers, etc. Probably the most important part of this is that CLNP is currently available in products. Using CLNP also means that we don't have to sit down and argue about the design of a new protocol, and that we will be sticking with a basic communications paradigm that we understand and know works (given that CLNP design is based on IP)." (Ross Callon, big I, 22.6.92, 203)
Was also sprach gegen CLNP, wenn es doch sogar im Zeichen des kommunikationstechnischen "Paradigmas" von IP entwickelt worden war und den Datenaustausch auf vergleichbar simple und anspruchslose Weise organisierte? Der Widerstand gegen CLNP war weniger technischer als, wie es in der IETF rückblickend dazu heißt, politischer, ja, sogar ideologischer Natur. Unglücklicherweise ist CLNP von der Konkurrenz, der Internationalen Standards Organization (ISO) entwickelt worden. Und obwohl das Netzmodell OSI (Open Systems Interconnection), dessen Bestandteil CLNP ist, die politische Unterstützung der daran beteiligten Staaten genoß, hatten sich die offenen Internet Standards durchgesetzt und, gemessen an der Installationsbasis, eindeutig den Sieg über OSI davongetragen. Sollte die Internetgemeinde nun aus pragmatischen Gründen auf die Technologie des unterlegenen Gegenspielers zurückgreifen? Und welche Folgen hätte die Verwendung eines offiziellen, geschützten Standards für die offene Architektur des Netzes und seiner Regulierung? Negative, ja vernichtende Konsequenzen wurden für die Zukunft des Internet in technischer als auch ökonomischer Hinsicht prognostiziert:
"... the political repercussions could well end the Internet as we now know it. (...) It means that once the network can fully route CLNP traffic there will no longer be any reason for the TCP/IP stack to exist. (...) It is also a kiss-of-death for all the emerging internet technology companies. The OSI marketing droids will have a field-day with this. Gee, I hope this is all wrong." (O'Dell, big I, 3.7.92, 0487)
Den Schlüssel im Streit um CLNP bildete die Frage der "change control". Die IETF beansprucht grundsätzlich Souveränität über alle Techniken, aus denen Internet Standards werden sollen. Nur so scheint gewährleistet, daß die Entwicklung des Internet nicht in Abhängigkeit von wirtschaftlichen oder politischen Einzelinteressen gerät. (vgl. RFC 2026) Unakzeptabel erschien der Community das Risiko, durch die Wahl von CLNP die technische Autonomie des Internet zu gefährden.15 Die Kontroversen zwischen Bewahrern und Erneuerern der Netzarchitektur erstreckte sich bis in einzelne Details von IPng. Am heftigsten umstritten war das Format der numerischen Internetadressen. Die Konvention zur Notierung von Absender und Anschrift bildet nämlich eines der wichtigen Ordnungselemente im Datenraum. Es versorgt die Netzknoten mit einer Identität, es beschreibt die Art ihrer topologischen Beziehung zueinander und greift darüber hinaus auch in das Verhältnis zwischen Providern und Netzwerken ein. Im Adressierungsformat verschränken sich raumordnerische und organisatorische Strukturentscheidungen, die sich, wie an einigen Beispielen illustriert wird, bis in die Ökonomie des Netzbetriebs auswirken.
3.2.1 Adreßformat I: Semantik
  Adressen haben zwei Funktionen. Sie benennen bzw. identifizieren ein Objekt, und sie zeigen an, wo es sich befindet. Charakteristisch für Internetadressen ist, daß zwischen der Identifizierungs- und der Lokalisierungsfunktion nicht unterschieden wird. Der Name enthält zugleich die Ortsangabe und umgekehrt.16 Ein anderes Merkmal teilt die Internetadresse dagegen mit dem herkömmlichen Telefonnummernsystem: Adressiert wird nicht ein Apparat, sondern die Schnittstelle zwischen Apparat und Netz (Comer 1991; Kuri 1996). Beide Eigenschaften sind folgenreich für den Betrieb und die Nutzung des Internet, u.a. weil sie die Mobilität und die Flexibilität von Internetadressen beschränken. Als Alternative zum architektonisch "häßlichen" Adreßformat von CIDR sprach sich ein Teil der Community für eine andere Semantik der Internetadressen aus. "Endpoint Identifiers", wie sie auch in CLNP verwendet werden, sollten eine ortsunabhängige und somit transportable und vor Renummerierungen geschützte Identifizierung der Netzknoten selbst ermöglichen. Gegen diese Idee spricht, daß die Entkopplung der beiden Adreßfunktionen mannigfaltige Möglichkeiten zur Fälschung und Entführung von Datenpaketen eröffnet. Die Annahme eines zusammenhängenden Namens- bzw. Adreßraums ist in die Philosophie der Internetarchitektur axiomatisch eingelassen, weshalb Veränderungen diesen Ausmaßes als unüberschaubares Risiko für die Stabilität des Netzes betrachtet werden (vgl. Crawford et al. 1998).
3.2.2 Adreßformat II: Adreßlängen
  Im Gegensatz zur Telefonnummer ist die Länge der IPv4 Adresse fix.17Die Vor- und Nachteile fixer Adreßlängen waren in der Internetgemeinde schon zu Zeiten der Entwicklung von IPv4 unterschiedlich bewertet worden. Für variable Adreßlängen spricht, daß sie die Gefahr einer Adressenknappheit angeblich für immer bannen. Ein sich von unten nach oben ausdehnendes Adressierungssystem würde die Objekte an der Peripherie des Netzes mit kurzen Adressen versehen, um mit dem Ansteigen der Hierarchie immer längere Adressen zu generieren. Bei Bedarf ließe sich die Größe des Adreßraums durch das Einfügen neuer Hierarchiestufen ausweiten. (vgl. Chiappa 1996) Gegen variable Adreßlängen spricht allerdings, daß sie einen höheren Rechenaufwand bei der Wegekalkulation verursachen, so daß die ohnehin strapazierten Router noch stärker belasten würden.

Daß der 32 bit große Adreßraum von IPv4 selbst bei einer geschickteren Allokationspolitik der verbliebenen Adressen auf Dauer zu klein werden würde, akzeptierten auch die skeptischsten Stimmen in der IETF. Sehr umstritten war unter den Befürwortern einer fixen Adreßlänge jedoch, wie groß ein künftiges Adreßfeld vernünftigerweise sein sollte. Die gute Architektur ließ auch hier entgegengesetzte Positionen plausibel erscheinen. Auf der einen Seite verlangte sie ein möglichst kleines, höchstens doppelt so großes Adreßfeld wie das von IPv4, um die zusätzliche digitale Fracht, die ein jedes Datenpaket als "header" mit sich trägt, klein und den Verbrauch von Bandbreite gering zu halten. Denn lange Adressen diskriminieren nicht nur zeitkritische Anwendungen über weniger leistungsfähige Leitungen, sie verteuern auch den Datenverkehr. Kritiker eines großzügig bemessenen Adreßraums warnen daher bis heute davor, daß betriebliche Anwender schon aus Kostengründen die Verwendung eines neuen Internet Protocols ablehnen könnten. (vgl. Baker, IPng 12.11.97, 4787) Auf der anderen Seite verlangt globale Konnektivität Adressierungskapazität auf Vorrat, weil andernfalls ungewollt künftige Dienste und Serviceleistungen ausgeschlossen werden könnten, deren Adreßbedarf gegenwärtig noch gar nicht absehbar ist. Für ein großes Adreßfeld im Umfang von 128 bit wurde darüber hinaus auch die Möglichkeit der "Autokonfiguration" von Hostadressen angeführt.18 Die anhaltende Uneinigkeit über die optimale Adreßlänge ironisiert ein "First of April RFC".19

3.2.3 Adreßformat III: Raumordnungsprinzipien
  Durch CIDR wurde im ursprünglich flachen Adreßraum eine erste Hierarchieebene zwischen Internet Service Providern und Internet Service Abonnenten eingezogen. Die Wirksamkeit dieser Maßnahme beruht auf der schon erwähnten Expropriation letzterer. Sites besitzen ihre Adressen nicht mehr, sondern "leihen" sie von ihren Providern lediglich aus. Die - selbstredend ausgiebig erörterte - Alternative zu diesem Modell besteht in einem geographischen Adressierungsplan, wie er etwa bislang im Festnetz der Telefonwelt verwendet wird (vgl. Andeen & King 1997). Aggregationseffekte werden beim "metro-based routing" durch die regionale Gliederung des Adreßfeldes erzielt. Weil sich die hierarchische Ordnung an Orten und nicht an Organisationen orientiert, läßt sich der Provider wechseln, ohne die Netzadresse ändern zu müssen. 20

Konnektivitätskosten, die CIDR den Nutzern bzw. den Sites in Rechnung stellt, bürdet das geographische Adressierungsmodell den Providern auf. Denn um den Datenfluß innerhalb und auch zwischen den Regionen zu gewährleisten, bedarf es sogenannter Datenaustauschpunkte, deren Erreichbarkeit wiederum durch Router zwischen diesen sichergestellt werden muß. Datenaustauschpunkte wie Router hätten den Status quasi-öffentlicher Güter, für die es aber, so drücken Hoffman & Claffy (1997, 302) dies aus, bislang keine "befriedigenden Geschäftsmodelle" gibt. (vgl. auch Chinoy & Salo 1997) Niemand aber kann Provider dazu zwingen, sich einer topologischen Ordnung zu unterwerfen, deren kommerzielle Aussichten unklar sind: "The Internet has no mechanism for enforcing topology control, and it's probably 'politically' infeasible to create such a network." (Chiappa, IPv6-haters, 16.1.96, 0206) Die Erfolgschancen des neuen Adressierungssystems lassen sich somit durch die technische Qualität des Standards nur bedingt beeinflussen. Und solange sich für die Steuerung des Datenflusses im Internet kein stabiles Geschäftsmodell durchgesetzt hat, kann die Normierung des Adreßformats nur Sorge dafür tragen, daß zumindest durch die Gestaltung des Adreßformats keine Variante topologischer Ordnung ausgeschlossen wird.

4 4 "The Internet way of doing things": Techniken des Regierens im Netz
  Die verschiedenen Vorschläge zur Gestaltung des Adressierungsformats repräsentieren die Spannbreite der Optionen, die aus Sicht der einzelnen Flügel in der Community mit den tradierten architektonischen Prinzipien des Internet vereinbar sind. Für sich genommen wirken die divergierenden Vorstellungen freilich nicht weniger plausibel als die Einwände, die gegen sie vorgebracht werden. Daß als solche relativ unstrittige Grundsätze des Netzdesigns unterschiedlich ausgelegt werden, gehört zu den alltäglichen Erfahrungen in der Standardentwicklung. Charakteristisch für die IETF ist die Art und Weise, mit der sie solcherart unentscheidbar wirkende Problemlagen bewältigt:
"It's a little hard to say why it works, but part of the thing that made the IETF work in the first place was that if people couldn't agree on between two or three proposals, you'd just send them off in two or three working groups and let the folks do whatever they wanted to do, (...) and you'd just end up with alternatives (...) I mean, frankly, democracy does not necessarily produce the best results, if you have to vote up front as to what's the best approach (...) A much better approach is to just allow the technical proposals to get done in detail and figure out which one works. You know, deploy them on at least experimental basis. People may find they may learn things; they may learn things that apply to the other proposals. (R. C.)
Über die Güte technischer Ideen soll nach überzeugung der Community nicht qua Abstimmung, sondern durch den empirischen Nachweis ihrer Machbarkeit entschieden werden - in der Sprache der Techniker: durch running code. Running code bezeichnet Software, die sich im Testlauf als funktionstüchtig erweist. Mehrere "genetisch" voneinander unabhängige Implementationen, die die Interoperabilität von Programmen belegen, sind Voraussetzung dafür, daß technische Entwürfe als Internet Standards anerkannt werden. (RFC 2026)

Running code verkörpert ein legendenumranktes Konsensbildungsverfahren und zugleich das wohl wichtigste Merkmal, durch das sich die IETF von anderen Standardisierungsorganisationen unterschieden wissen will:

"In the IETF world we produce running code that has documents that describe it. A lot of other standards organizations produce documents and that's the end of it." (M. D.)
"Probably, the most fundamental difference is that in the ISO community, the highest goal is global consensus. (...) In the Internet community, the highest goal was interoperability and getting something to work. Something that worked was its own advertisement." (L. C.)
Als "hard-nosed notion of correctness" symbolisiert running code das Ideal eines rein technischen Diskurses, dessen Resultat in vernünftigen, robusten und vor allem nützlichen Standards besteht. Darin gründet sein geradezu mythischer Stellenwert in der Internetgemeinde. Nicht zufällig wird deshalb die Tradition des empirischen Testens in der IETF immer wieder als die bessere Alternative zum "democratic approach" in der Standardentwicklung vorgestellt. Sei der Entscheidungsprozeß in den offiziellen Standardisierungsgremien von der Politik dominiert, regiere in der IETF die "technische Realität" des Machbaren. (R. C.) Der zentrale Wahlspruch der IETF, formuliert 1992 von einem der "Väter" des Netzes, spitzt die Differenz zwischen diesen beiden Techniken des Regierens voller Pathos zu:
"We reject presidents, kings and voting,
we believe in rough consensus and running code." (Dave Clark)
Präsidenten, Könige und Wahlen versinnbildlichen Formen des Regierens, die in der IETF schlecht angesehen sind, weil sie den politischen Willen über das technisch Vernünftige stellen. (vgl. Hofmann 1998a). Rough consensus dagegen, der breite, wenn auch nicht einhellige Konsens, gilt als relativ immun gegen die Korruptionsanfälligkeit politischer Macht. "The Internet way of doing things" wird daher als eine Art Garant für die Qualität der Standards betrachtet, die in der IETF entwickelt werden. Seine Regeln sollten nach überzeugung vieler in der IETF auch die Entscheidung über die nächste Generation von IP leiten.
"What I think the IAB should have done, was [to] follow the IETF tradition of allowing alternative proposals to go forward to the point where you could actually tell what proposals made sense technically and what didn't, with the basis that technical reality should be the ruling factor and not what some group of people think." (R. C.)
4.1 Fiddling while the Internet is drowning? Rettungsversuche statt "rough consensus"
 
"Well, do we love to throw rotten tomatoes and clink with old medals!"
(Antonov, IPv6 haters, 22.1.96, 0306)

Abweichend von den Empfehlungen der ROAD Gruppe, die für eine systematische Erkundung der unterschiedlichen Ansätze plädiert hatte, traf der IAB im Frühsommer 1992 eine Entscheidung und setzte sich damit nicht nur bewußt über die uneinheitliche Stimmung in der Internetgemeinde hinweg, sondern verstieß auch gegen ihre Regeln der Konsensfindung. Die Begründung dafür berief sich auf die existentielle Gefahr, die dem Projekt globaler Konnektivität drohte:
"The problems of too few IP addresses and too many Internet routes are real and immediate, and represent a clear and present danger to the future successful growth of the worldwide Internet. The IAB was therefore unable to agree with the IESG recommendation to pursue an additional six-month program of further analysis before deciding on a plan for dealing with the ROAD problems. (...) However, we believe that the normal IETF process of "let a thousand [proposals] bloom", in which the "right choice" emerges gradually and naturally from a dialectic of deployment and experimentation, would in this case expose the community to too great a risk that the Internet will drown in its own explosive success before the process had run its course. The IAB does not take this step lightly, nor without regard for the Internet traditions that are unavoidably offended by it." (Chapin , big I, 1.7.92, 0450)
Rough consensus und running code, die gerade in ihrer Verbindung als "road to truth" gegolten hatten, schienen einander plötzlich zum Risiko zu werden. Das "dialektische", zwischen Experiment und Anwendung pendelnde Entwicklungsverfahren war aus Sicht des IAB seinem Erfolg nicht mehr gewachsen. Die Community, so begründete ein weiteres Mitglied des IAB die Entscheidung, sei gut in der Durchsetzung technischer Vorhaben, an die sie kollektiv glaube. Nicht gut sei sie hingegen in der Bewältigung von Entscheidungssituationen, in denen mehrere Vorschläge zur Wahl stehen. Keines der Gremien in der IETF sei vertraut mit Selektionsverfahren dieser Art: "There is simply no process in place for those necessary activities." (Braun big I, 3.7.92, 0524)

Der IAB hatte sich für CLNP entschieden - nicht weil er dieses Protokoll als technisch überlegen betrachtete, sondern weil er sich von CLNP eine schnelle Lösung versprach. Die Wahl von CLNP löste in der IETF eine Protestwelle bislang unbekannten Ausmaßes aus. Nicht nur die Entscheidung selbst, auch die Art ihres Zustandekommens und die institutionellen Strukturen, die derartige Verstöße gegen die" bottom-up" Tradition der Gemeinde zuließen, waren Gegenstand der Kritik. (vgl. etwa Rose, big I, 7.7.92, 0631)

Angesichts der heraufziehenden Existenzbedrohung des Internet kreuzte sich die Frage nach der guten Architektur mit jener nach der Definitionsmacht über diese. Die Krise der Netzarchitektur weitete sich zu einer Krise seiner Regulierung aus: "One dimension was technical: What is the best course for evolving the IP protocol? (...) The other dimension was political: Who makes decisions within the Internet Community? Who chooses who makes these decisions?" (RFC 1396) Unabhängig davon, ob man sich dieser Unterscheidung zwischen Technik (Protokoll) und Politik (Verfahren) anschließen will, die IETF war, gegen ihren Willen zwar, aber doch unumgänglich mit der Machtfrage in der Entwicklung des Internet konfrontiert.

Der sich auf den einschlägigen Mailinglisten artikulierende Widerspruch gegen die Verkündung des IAB erwies sich als so groß, daß das Votum für CLNP zunächst abgeschwächt und wenig später auf der folgenden Tagung der IETF ganz revidiert wurde. Als Folge des gescheiterten Versuchs einer schnellen Festlegung auf ein Modell wurde der Findungsprozeß wieder geöffnet und sogar über die Grenzen der IETF ausgedehnt. Ein "Call for White Papers" zielte darauf, "the broadest possible understanding of the requirements for a data networking protocol with the broadest possible application" zu gewinnen. (RFC 1550)

Zugleich gründete die Internetgemeinde eine neue, in ihrer Geschichte einmalige Arbeitsgruppe: POISED (The Process for Organization of Internet Standards Working Group; vgl. RFC 1396). Der Auftrag von POISED lautete, die Entscheidungsstrukturen und Regeln der Personalrekrutierung in der IETF zu untersuchen. Die Mailingliste von POISED entwickelte sich zu einem Ort, an dem die Gemeinde ausgiebig über ihre Konstitution reflektierte: "An estimated 20 MB of messages filled up disks all over the world" zwischen August und Mitte November 1992. (RFC 1396) Das Ergebnis von POISED war eine Umverteilung und Formalisierung der Entscheidungskompetenzen in der IETF. Der Einfluß des Internet Architecture Board (IAB) wurde verringert zugunsten eines Gremiums, dem größere Nähe zur Technikentwicklung nachgesagt wird: die Internet Engineering Steering Group (IESG), die sich aus den "Area Directors" der IETF zusammensetzt (zur Organisationsstruktur der IETF vgl. RFC 2028). Zugleich wurden formelle Nominierungsverfahren für die Besetzung der "ämter" in der Community eingeführt. (vgl. RFC 1603 u. RFC 2027) 21

Kobe, der Ort in Japan, an dem der IAB sein Votum für CLNP verkündet hatte, ist zum Inbegriff für eine traumatische Erfahrung in die Geschichte der IETF geworden. Das Traumatische daran liegt weniger im Ausmaß des Streits, als in der Gemengelage der Gründe, die ihn auslösten. Die Entstehungsgeschichte von IPng - angefangen mit der Diagnose des bevorstehenden Zusammenbruchs bis hin zur Entscheidung für IPv6 - wird heute mit politicking assoziiert. Politicking bezeichnet ein Verhalten, das die Hegemonie des technischen Diskurses durch außertechnische Kalküle unterläuft. Die technische Argumentation wird gewissermaßen durch andere Interessen in Dienst genommen - mit allen erdenklichen negativen Auswirkungen auf die Qualität der Produkte. 22

Der Glaube an die "technisch exzellente Lösung" (Huitema 1995), die den rough consensus quasi aus sich selbst heraus generiert, mag ein Grund dafür sein, warum den Regeln der Standardentwicklung so viel, denen der Selektionsverfahren dagegen bis dato fast keine Aufmerksamkeit gewidmet worden war. Der schlußendliche Entscheidungsprozeß verlief zweistufig. Zunächst fand eine öffentliche Verständigung über die technischen Selektionskriterien statt, auf deren Grundlage dann als zweiter Schritt die Bewertung der einzelnen Vorschläge erfolgte.(RFC 1752)

4.2 IPv6: Ein neues Ordnungsmodell für das Internet
  Im Juli 1994 sprachen die Direktoren der IPng Area ihre Empfehlung für SIPP (Simple Internet Protocol Plus) aus - neben CLNP einer von ingesamt drei Entwürfen, die am Ende des Auswahlprozesses noch zur Wahl gestanden hatten. Der IESG folgte dieser Empfehlung und gab SIPP den Namen IPv6. SIPP repräsentiert die pragmatische Lösung, die IPng als "engineering task" definierte und die weitgehensten Gemeinsamkeiten mit IPv4 aufwies. An nahezu allen charakteristischen Merkmalen seines Vorläufers planten die Autoren von SIPP festzuhalten. Dazu zählt das "datagram" als reguläre Dateneinheit und der "best effort service", der die Kontrolle über den Datenfluß an die nächsthöhere Netzschicht delegiert. Auch das Adreßfeld wies in der ursprünglichen Version zunächst nur wenige änderungen gegenüber dem Format von CIDR auf (RFC 1884). Ebenfalls beibehalten wurde die feste Adreßlänge.

Die wichtigste änderung des Adreßfelds bestand in seiner Erweiterung auf 128 bit. Akzeptabel schien dies, weil sich die Größe des Datenpaketenkopfs trotz der Vervierfachung der Adreßlänge lediglich verdoppeln sollte. Darüber hinaus war vorgesehen, das Adreßfeld durch ein Kompressionsverfahren weiter zu reduzieren. Autokonfiguration, Sicherheits- und Authentifikationsmaßnahmen, ein neuer Adreßtyp namens "anycast address" sowie die Möglichkeit, zusätzliche Header ("extension header") an den Kopf des Datenpakets anzuhängen, gehörten zu den weiteren, eher maßvoll gehaltenen Neuerungen von SIPP. (ausf.: RFC 1752)

In den folgenden Jahren, die eigentlich zum Spezifizieren und Testen von IPv6 gedacht waren, kam es allerdings noch zu einigen unvorhergesehenen, grundlegenden änderungen am Entwurf. Die ersten vier IPv6 spezifizierenden Internet Drafts, haben daher erst ein Jahr später als geplant, im August 98, den Rang von "Draft - Standards" erreicht (vgl. RFC 2300 u. RFC 2400). Anstöße für die Reformulierung von IPv6 kamen unter anderem aus dem Routingbereich, der sich mit Verfahren zur Bandbreitenreservierung und zur übertragung zeitkritischer Dienste beschäftigt. Damit Datenpakete künftig in den Genuß solcher Formen der Sonderbehandlung gelangen können, muß ihr Kopf mit speziellen Feldern zur Kennzeichnung von Datentypen ("Traffic Class") und -flüssen ("Flow Label") ausgestattet sein (vgl. Deering & Hinden 1998). Auf diese Weise lassen sich dann Serviceanforderungen formulieren, die von den Routern verarbeitet werden, sofern sie dazu irgendwann in der Lage sind.

1997, das Jahr, in dem die "core specifications" von IPv6 zum "Draft Standard" avancieren sollten, wurden auch noch einmal erhebliche änderungen am Format des Adreßfeldes eingeklagt. Dabei handelte es sich um den wohl vorläufig letzten Versuch, die Identifizierungs- und Lokalisierungsfunktion der IP-Adresse voneinander zu trennen, um zum einen die unerwünschten Nebenwirkungen der derzeitigen Adressierungsschemas zu beseitigen, zum anderen, um eine noch stärkere Hierarchisierung des Adreßraums zu erzielen. (vgl. O'Dell 1997; Crawford et al. 1998; Hofmann i. E.) Die Initiative war zwar nicht erfolgreich, führte aber doch zu einer neuen Partitionierung des Adreßfeldes. Diese näher anzuschauen lohnt, weil sie unmittelbar anschaulich macht, daß und wie durch das Design von IP in die Raumordnung des Netzes eingriffen wird. Das Adreßfeld ist in einzelne Abschnitte unterteilt, die die vorgesehenen Hierarchiestufen im Adreßraum repräsentieren. Sein pyramidenförmiger Aufbau entspricht wiederum der erwünschten Rangordnung unter den Serviceanbietern und -nutzern im Netz (vgl. RFC 2374): The aggregatable global unicast address format is as follows:

      | 3|  13 | 8 |   24   |   16   |          64 bits               |
      +--+-----+---+--------+--------+--------------------------------+
      |FP| TLA |RES|  NLA   |  SLA   |         Interface ID           |
      |  | ID  |   |  ID    |  ID    |                                |
      +--+-----+---+--------+--------+--------------------------------+

      <--Public Topology---> Site
                                      <-------->
                                        Topology
                                                   <------Interface
                                                   Identifier----->
      Where        FP Format Prefix(001)
      TLA ID       Top-Level Aggregation Identifier
      RES          Reserved for future use
      NLA ID       Next-Level Aggregation Identifier
      SLA ID       Site-Level Aggregation Identifier
      INTERFACE ID Interface Identifier

Das erste, drei bits umfassende, Feld gibt den Typ der Adresse an, gewissermaßen als Leseanleitung für alle nachfolgenden Bits. 23Die verbleibenden 125 bits sind in eine öffentliche und einer private Topologie unterteilt - eine Grenzziehung im Datenraum, die IPv4 nicht kennt. öffentlich gemäß der Philosophie von IPv6 ist der "Transitbereich" der Daten, d.h. die Ebenen der Netzhierarchie, die allein zur Weiterleitung des Datenstroms dienen; privat sind dagegen alle Orte ohne Durchgangsverkehr. Die private Sphäre, sozusagen das Innere einer Site, wird durch zwei Felder in der IP-Adresse kodiert: dem Identifier bzw. Namen, der die Schnittstelle zwischen Rechner und Netz kennzeichnet, sowie dem Site-Level Aggregator, einem Feld zur Gliederung großer lokaler Netze. Die Felder zur Beschreibung der öffentlichen Topologie ordnen zugleich die Beziehung unter den Providern. Im Adreßfeld sind dafür zwei Hierarchiestufen vorgesehen, wovon die untere mit komfortablen 24 bits ausgestattet ist, um die Hierarchie unter den Providern in einer Weise abbilden zu können, "that maps well to the current ISP industry, in which smaller ISPs subscribe to higher level ISPs" (King 1998). Während das rangniedrigere Feld der öffentlichen Topologie die gegenwärtige Konstellation unter den Providern gewissermaßen nachempfindet, ist das Feld an der Spitze der Adreßpyramide bewußt darauf ausgerichtet, den Internetanbietern eine bestimmte Ordnung aufzuoktroyieren. Der 13 bit große Adreßraum beschränkt die Anzahl derjenigen Organisationen, die sich in der "default-free region" ansiedeln können, auf maximal 8.192. (vgl. Löffler, Sand & Wessendorf 1998) Unter dem Gesichtspunkt der Datenflußsteuerung bedeutet dies, daß die Router auf der obersten Hierarchieebene des Kommunikationsraums Verbindungen zwischen höchstens 8.192 Objekten im Netz berechnen können müssen. Durch die Größe des obersten Adessfeldes läßt sich somit der Umfang topologischer Komplexität im Internet kontrollieren. Aus Sicht der Zugangsanbieter bedeuten diese 13 bits freilich "significant constraints on operations, business models and address space allocation policies" (Karrenberg, IPng, 4996, 1. 12. 97). Nicht zuletzt deshalb wurden von Seiten der IETF Erkundigungen darüber eingezogen, ob solch schwerwiegende Eingriffe in die ökonomie des Netzes überhaupt zulässig sind:

"I asked the lawyers that do work for the IESG what restrictions in flexibility we (the IETF) have in the area of defining rules and technology that restricts ISP practices. I was told that the only time we can be restrictive is when there is no other technically reasonable option ." (Bradner, IPng, 4997, 1. 12. 97)
Und, so mag man sich fragen, gibt es aus technischer Sicht tatsächlich nur diese eine, 13 bit umfassende Option zur Organisation der obersten Ebene des Adreßraums?
"if anyone expects a magic formula which says '13' and not something else, you won't get it. (...) would 14 work? - certainly. Like everything else, 13 is an engineering compromise - chosen to balance one set of considerations against a bunch of others, and after ruminating over it a long time, the consensus was 13 was the best choice." (O'Dell, IPng 5000, 2. 12. 97)
Designentscheidungen wie die Partitionierung des Adreßfeldes zeigen exemplarisch, daß mit der Interpretation und Allokation einzelner Bits im Kopf der Datenpakete Raumordnungspolitik betrieben wird. Im Namen der guten Architektur, die globale Konnektivität ohne behindernde Skalierungsprobleme gewährleisten soll, wird beispielsweise das Leistungsvermögen der Router mit den Geschäftsinteressen der Provider ausbalanciert. Das Ergebnis ist der Entwurf einer zukünftigen Ordnung des Kommunikationsraums. Ob IPv6 verwirklicht werden wird, hängt auch von denen ab, die sich dieser Ordnung unterwerfen sollen: den Providern und Nutzern.

Gegenwärtig scheint sich die Entwicklung von IPv6 ihrem Ende zu nähern. Nicht nur haben die wichtigsten Komponenten von IPv6 die vorletzte Stufe im Standardisierungsprozeß erreicht, Anzeichen für eine bevorstehende Fertigstellung sind auch die große Zahl von Implementationen und der expandierende Probebetrieb im Testbed "6 bone" 24. Zugleich mehren sich die Spekulationen über das Verhalten der Hersteller. Denn nur Standards, für die Produkte entwickelt und die von bestehenden Produkten unterstützt werden, können in Konkurrenz um die bestehende Installationsbasis treten.

5 5 "IPv4ever"?
 
"ipv6: the service provider general has determined that ipv6 cannot do any harm to asthmatics, pregnant women and men, dislexics, or ipv4."
(Crowcroft, IPv6 haters, 12.1.96)

Auch im Sommer 1998, kurz vor dem Abschluß der umfangreichen Entwicklungsarbeit, vermag niemand in der IETF zu sagen, ob sich IPv6 gegenüber IPv4 als neuer Standard im Internet tatsächlich durchsetzen wird. Man kann sogar den Eindruck gewinnen, daß die Zahl derjenigen, die sich von IPv6 distanzieren oder sein Scheitern prognostizieren, im Steigen begriffen ist. So wünschenswert ein größerer Adreßraum wäre, seine Realisierung hat an Dringlichkeit verloren - und IPv6 damit zugleich eine Erfolgsgarantie. Und weil die Durchsetzungschancen von IPv6 allgemein als unsicher gelten, werden praktisch alle neuen Produkte für die Ebene des Internetwork Layers nicht nur für IPv6, sondern auch für IPv4 entwickelt. Verschlüsselungs- und Authentifikationsmöglichkeiten etwa, mit deren Hilfe IPv6 den Datenverkehr sicherer machen sollte, liegen längst auch für IPv4 vor. Zumindest aus der Sicht von Providern und Netzbetreibern entfällt damit ein weiterer Grund für die Migration zur nächsten Generation von IP. Nicht nur die einst existentielle Dringlichkeit von IPv6 hat sich im Laufe der Jahre verloren, auch sein Ansehen in der IETF ist im Sinken begriffen. Stellvertretend für die Meinung vieler legte der Vorsitzende der IETF auf der IPng Mailingliste vor kurzem seine Sicht auf IPv6 dar:

"But what we thought at one time we might be forced to deploy as early as 1993 looks like (according to Frank Solenski's Address Usage statistics the last time I saw them) it might not be needed for as much as another decade. And in that time - well, maybe your crystal ball is clearer than mine, but my crystal ball doesn't preclude somebody having a better idea than IP6 as presently formulated. If we do indeed have a better idea in the meantime, I said, we would deploy that better idea." (Baker , IPng, 12. 11. 97, 4787; vgl. auch die Reaktionen in IPng 4775 und insb. IPng 4788).
Einem Adressierungssystem, das anfang der 90er Jahre nach allgemeiner Ansicht direkt auf seinen Zusammenbruch zusteuerte, wird nunmehr eine Lebensdauer von weiteren zehn Jahren bescheinigt. Und der Entwurf, der zwar keinen rough consensus in der IETF erreichte, aber doch nach überzeugung einer Mehrheit den selbst gesetzten technischen Kriterien am weitestgehenden entsprach, hat inzwischen die Reputation einer zweitbesten Lösung. Vergegenwärtigt man sich, daß die Internetgemeinde immerhin mehrere Jahre darauf verwendet hat, Einigung über einen Entwurf für IPng zu erzielen, um sich dann im Rahmen einer Arbeitsgruppe noch einmal rund 4 Jahre mit der Ausarbeitung und Implementierung von IPv6 zu beschäftigen, stellt sich die Frage, was diesen Meinungswandel in der IETF bewirken und den Status des einstmals zentralen Entwicklungsprojekt so nachhaltig unterlaufen konnte. In der IETF kursieren mehrere Erklärungen dazu, die wie ein fernes Echo auf die unterschiedlichen Positionen zur guten Netzarchitektur klingen, die sich angesichts der heraufziehenden Skalierungsprobleme anfang der 90er Jahe formiert hatten. 5.1 Network Address Translators - Das Netz hilft sich selbst   Bereits in den frühen 90er Jahren war davor gewarnt worden. Sollte die IETF nicht schnell Abhilfe gegen die Adressenknappheit im Internet schaffen, würden sich dezentrale Lösungen durchsetzen, die die Etablierung eines neuen, global einheitlichen Adreßraums erschweren, wenn nicht für immer unmöglich machen würden. Wenige Zeit später war die dezentrale Lösung am Markt erhältlich: sogenannte NAT-Boxen, Network Adress Translators, die aus einer einzigen Internetadresse einen neuen, beliebig großen Adreßraum erzeugen können. Hinter einer weltweit eindeutigen IP Adresse wird ein beliebig großer Adreßraum geschaffen, dessen Adressen jedoch nicht weltweit eindeutig und deshalb nur innerhalb der Site gültig sind. Mit Hilfe von NAT-Boxen lösen vor allem große Organisationen ihren Bedarf nach zusätzlicher Adressierungskapazität, die von Providern nicht oder nur kostenaufwendig zu erhalten ist. Und weil die neu entstehenden, lokalen Namensräume typischerweise unter wenigen IP-Adressen aggregiert sind, entlasten sie nicht nur die angespannte Adressierungskapazität des Netzes, sie erweisen sich sogar auch unter Routinggesichtspunkten als geradezu "topologically correct":
"NAT leads to IPv4ever (...) because I see NAT deployed and working on extending the lifetime of IPv4 addresses both in terms of sheer quantity and in terms of making the allocation [of addresses] more hierarchical and better aligned to topology." (Doran, diff-serv-arch, 10.3.98, 00338)
Unter dem Gesichtspunkt globaler Konnektivität betrachtet, gilt die dezentrale Antwort NAT-Box als "kludge" - eine häßliche Behelfslösung, deren Ausbreitung das Internet intransparenter und seine Administrierung schwieriger macht. Nicht nur befördern sie den womöglich unumkehrbaren Zerfall des globalen Adreßraums; zusammen mit den verbreiteten Firewalls verstoßen NAT-Boxen auch gegen architektonische Axiome des Internet. 25 Die Ausbreitung von NAT-Boxen, Firewalls und vergleichbaren Problemlösungen im Netz verdeutlicht exemplarisch, was sich in der Community als Einsicht längst durchgesetzt hat: Die IETF verliert nach und nach Einfluß auf die Entwicklung des Internet. Ihre Autorität im Netz geht in dem Maße zurück, wie die Bindungskraft, die von der Vorstellung vom Internet als kollektiv definiertem Gut ausgeht, erodiert. Das Projekt der guten, am Gemeinwohl orientierten Netzarchitektur mitsamt der Regulierungsmacht, die darin normativ wie auch praktisch gründet, bekommt Konkurrenz durch Einzelinteressen, die sowohl auf der Entwicklungs- als auch auf der Nutzungsebene Gewicht gewinnen. IPv6, verstanden als Antwort auf Skalierungsprobleme, die das Netz als Ganzes im Auge hat, ist nur mehr eine unter mehreren Entwicklungsoptionen.

Während die Einführung seines Vorläufers und bis heute gültigen Standards IPv4 noch in Form eines "big bang" angeordnet werden konnte (vgl. dazu Helmers, Hoffmann & Hofmann 1997), hängt die Zukunft von IPv6 davon ab, ob seine Verwendung genügend Akteuren im Netz opportun erscheint: "The deployment of IPv6 will totally depend on the users. We can design the most beautiful protocol on the world, if the users don't buy the software or see the merit of switching over to IPv6, technically speaking, it won't work. I think everybody in the IETF realizes that, that we are working on a protcol that might not be recognized by the market." (E. H.) Je länger die Anwendungsreife von IPv6 auf sich warten läßt, je mehr scheinen sich seine Erfolgsaussichten zu verschlechtern. Ein weiterer Grund dafür liegt in der Geschwindigkeit, mit der sich das Internet weiterentwickelt.

5.2 Data flows   Das Design von IPv6 beruht auf der Annahme, daß Datenpakete auch künftig die Norm bilden andere übertragungseinheiten oder -modi dagegen extra auszuweisende Sonderfälle bleiben. Das klassische Paketvermittlungsverfahren behandelt alle Daten gleich. Unabhängig davon um welche Anwendungstypen es sich handelt, sie teilen sich die verfügbare Leitungskapazität mit allen anderen Datenpaketen. Auch zusammenhängende, homogene Datenmengen, die etwa gleiche Quell- und Zieladressen aufweisen, werden als einzelne, mit vollständigen Absendern und Anschriften ausgestattete Pakete durch das Netz geschickt. Was im Falle von Verbindungsstörungen eine Stärke ist (verlorengegangene Daten lassen sich unkompliziert erneut übertragen), kann ein Hindernis sein, wenn große Datenvolumen möglichst schnell und ohne Zeitverzögerungen übertragen werden sollen.

Eine deutliche Steigerung der übertragungsgeschwindigkeit läßt sich erreichen, wenn Datenpakete mit gleicher Zielrichtung zu Datenflüssen zusammengefaßt werden. Datenflüsse sind eine hybride Erscheinung. Sie bestehen aus Datenpaketen, die die Zieladresse oder aber zumindest einen Teil ihrer Wegstrecke (im Transatlantikverkehr des deutschen Forschungsnetzes etwa die Verbindung zwischen den Austauschpunkten in Frankfurt am Main und Washington) gemeinsam haben. Die Datenpakete eines Datenflusses sind mit einem "tag" gekennzeichnet, das den Router oder Switch über die Zugehörigkeit zu einem "flow" informiert, so daß alle Pakete "durchgereicht" werden können, ohne daß deren jeweilige Zieladresse gelesen werden muß. Das sog. "tag" oder "IP switching" erzielt auf diese Weise einen ähnlichen Effekt wie die reservierte Leitung der Telefonwelt. Entsprechend groß sind die wirtschaftlichen Erwartungen, die sich mit diesem übertragungsverfahren verbinden. (vgl. Sietmann 1998) Seit einiger Zeit werden entsprechende Routingverfahren als kommerzielle Produkte für das Internet angeboten, und die untereinander konkurrierenden Hersteller versuchen, sich innerhalb einer Arbeitsgruppe der IETF auf einen gemeinsamen Standard zu einigen (vgl. Gillhuber 1997; Schmidt 1997; Callon et al. 1998). MPLS (Multiprotocol Label Switching) ist eine der ersten und daher aufmerksam beobachteten Arbeitsgruppen, in der das "one man, one vote" Prinzip der IETF offensichtlich außer Kraft gesetzt ist. Nicht individuelle, brilliante Köpfe, wie es die Selbstwahrnehmung der Gemeinde will, sondern die Vertreter von IBM, Cisco und kleinerer Unternehmen wie Ypsilon kämpfen um Anerkennung und Standardisierung ihrer jeweiligen Switchingverfahren - ein Umstand, der jedem bewußt ist, der das Geschehen in dieser Arbeitsgruppe verfolgt.

Sollten Datenströme den Status einer generischen Übertragungsgröße im Netz erhalten und gar Datenpakete als Paradigma ablösen, dann wäre IPv6, das Datenströme lediglich als Sonderfall berücksichtigt, an den Routingverfahren der Zukunft vorbeientwickelt worden. Rückblickend stellt sich heraus, daß das eigentliche Zeitproblem, mit dem IPv6 zu kämpfen hat, weniger in dem prognostizierten Adressierungsnotstand besteht, als in dem hohem Tempo, mit dem sich die Netzumgebung von IP weiterentwickelt. "Yesterday's technology for tomorrow's customers", heißt es dazu bissig auf der IPv6 haters-list (Yakov, 4.12.97). Unnachgiebig zeigt sich solcher Spott gegenüber dem Dilemma, daß sich tomorrow's technology heute nur schwer definieren und noch weniger standardisieren läßt, andererseits aber today's technology den Anforderungen an globale Konnektivität schon nicht mehr genügen mag, wenn sich die Community vermittels rough consensus and running code auf einen Standard geeinigt hat. In dem Maße, wie die offene Community wächst und die Interessen am Netz konkurrierender, kapitalkräftiger und insistierender werden, formalisiert und verlangsamt sich der branchenweite Normierungsprozeß, während die Produktentwicklung innerhalb der beteiligten Unternehmen weiter voranschreitet. Insofern mag der ambivalante Status von IPv6 innerhalb der Community auch auf die allmählich auseinanderdriftenden Geschwindigkeiten zwischen der Standardsetzung in der IETF und der Produktentwicklung am Markt zurückzuführen sein.

5.3 "IP Written in Stone?"  
"(...) but this is what the IETF seems to excel at, taking your pet dream, your clear and unfettered vision, and seeing it get all cloudy as everyone pees into it (...) "
(Knowles, IPv6 haters, 10.12.97)

Unter den Kritikern von IPv6 werden die unsicheren Zukunftsaussichten des Protokolls als Beleg dafür betrachtet, daß Simple Internet Protocol (SIPP) von Beginn an das verkehrte Modell, die Autoren von SIPP folglich die falschen Personen und die IETF inzwischen der ungeeignete Ort für die Entwicklung neuer Netztechnik ist. Aus Gründen der Stabilität des Netzes hatte sich die IETF mehrheitlich für die traditionelle, IPv4 lediglich aktualisierende Alternative ausgesprochen und deren Realisierung in die Hand einer "conservative design nature" gelegt, die das Risiko von "promissing new architectureal features" erklärtermaßen scheut (Deering , big I, 15.5.94, 0789). Eine wohl unvorhergesehene Folge davon war, daß eine Problematik, die zuvor im Mittelpunkt der Aufmerksamkeit gestanden hatte, allmählich an Beachtung verlor. Als so "simple" und "well understood" galt SIPP, daß sich diejenigen, die es zu technischem Neuland zieht, anderen Problemstellungen zuwandten:
"The people you would immediately recognize as the best and the bravest minds of the Internet were not going to IPng and IPv6 meetings. (...) They were going to working groups that were looking at the kinds of technical issues that were really unsolved. (L. C.)
"IPv6 is the 'b-ark' of the IETF." (N. C.)
Die Entstehung des Internet war getragen von einer Aura der Andersartigkeit und der Bereitschaft zum Bruch - nicht nur mit der über Jahrzehnte unangefochtenen "Designhegemonie" (Isenberg 1997) der Telefonwelt, sondern auch mit den eigenen architektonischen Heiligtümern. Kein Verfahren, so beschrieb der IAB-Vorsitzende Carpenter diese Haltung jüngst im Namen der Internetgemeinde, stehe unter Bestandsschutz: "Principles that seem sacred today will be deprecated tomorrow. The principle of constant change is perhaps the only principle of the Internet that should survive indefinitely." (RFC 1958) Soll IPv6 als ein Beispiel dafür gewertet werden, daß der Internetgemeinde die Distanz zu ihren Errungenschaften und damit eine der Voraussetzungen für die Verfolgung des "principles of constant change" abhanden kommt? Werden im Interesse globaler Konnektivität technisch überholte Konventionen festgeschrieben? Kurz: Steht das Internet vor einem Skalierungsproblem nicht nur im Hinblick auf seine regierenden Techniken, sondern auch die Techniken des Regierens?

Kritische Stimmen in der Internetgemeinde behaupten, die IETF sei religiös geworden. TCP/IP, aus der Sicht seiner Väter zunächst nicht mehr ein sich sukzessive weiterentwickelndes Experiment, das kaum mehr als "a few steps ahead of our success desaster" war (Van Jacobson, diff-serv-arch, 3.3.98, 00141), habe sich in einen Satz heiliger Axiome verwandelt, der im Fundament des Netzes wie auch im Denken seiner Gemeinde so tief verankert ist, daß er etwas Unantastbares und Unüberwindliches bekommt:

"Oh no (...) 'I feel a RANT COMING ON!!!'

(begin RANT)
along the way of becoming the sanctified protocols, we managed to breathe way too much of our own gas. one of the great strengths of IP is that you can glue together all kinds of feckless, misbegotten networks fragments and make something that has operational connectivity. somehow we decided, though, that networks *should* be built like that (...) that pervasive religious position is just plain wrong. we have transformed the liability of having only a hammer into the design principle that everything except nails is the work of the devil. that's just patent, braindead bullshit!!" (O'Dell, IPv6 haters, 12.7.98)

Pragmatische Behelfslösungen - O'Dell's RANT wählt die hop-by-hop- arbeitende Routingtechnik des Internet als Beispiel - die lediglich in Ermangelung besserer Verfahren zustande gekommen seien, verwandelten sich in netztechnische Tugenden, die die Umstände ihrer Entstehung gewissermaßen abgestreift haben. Die bereitwillige Heiligsprechung einstiger Improvisationen wird auf das Wachstum und den Kulturwandel in der IETF zurückgeführt. Im Umgang mit vorgefundenen technischen wie sozialen Konventionen zeige sich der Unterschied zwischen der akademischen Welt, aus der sich die Gründergeneration der Internetgemeinde rekrutierte und der industriellen Welt, die die nächste Generation in der IETF dominiere. Die große Mehrheit der Community betrachte das Internet heute als Tatsache, als manifestes Technikgebäude, das zwar weiterzuentwickeln, nicht aber grundsätzlich zu hinterfragen sei: "Now you have people coming along who weren't part of that thought process, who think these things are essentially God-given and are the scientific laws for building networks when in fact they are not." (J. D.)

Das Ideal einer fortwährenden Metamorphose des Internet scheint nach und nach von der Realität einer Dauerbaustelle überholt zu werden; eine Baustelle, an der zwar kontinuierlich ersetzt und ausgebessert, aber nichts mehr eingerissen werden darf. Und IPv6 gilt den Kritikern nur als eklatantes Beispiel für das Unvermögen der IETF, ihr eigenes Denken zu revolutionieren. An die Stelle des einstigen Pioniergeistes trete eine "unimaginative", politisierte Bürokratie, die die Internetgemeinde ihren Gegnern ISO und ITU allmählich ähnlicher werden lasse. Und während sich also die IETF nach Meinung der Aufrechten und Unbestechlichen weiter und weiter vom Ideal eines radikal offenen technischen Diskurses entfernt, wird die Frage laut, ob die IETF noch der geeignete Ort zur Entwicklung eines neuen Internet Protocols und mithin der guten Netzarchitektur ist:

"I don't think that the IETF is really the right place to start this effort. (...) Look back at how IP happened; a small number of people felt their way towards what was later recognized as fatesharing, as a fundemental advance over the original basic packet model of the ARPANet and Baran's work. (...) I just think the organizational dynamics [of working groups in the IETF, d. A.] are alle wrong. You'll never get the kind of large group you'd wind up with in the IETF which is a basically unimaginative organization incapable of taking a real step forward, viz IPv6) to make that big step forward, and come to agreement on it." (Chiappa, IPv6 haters, 12.1.96, 0140)
"I am actually surprised that the Big Players haven't formed a closed group to propose new standards. you can keep the useful side of the IETF process (open, free standards) while punting the downside (meetings open to clueless people who have every right to speak.) (Knowles, Ipv6 haters, 13.7.98)
"and how do you know they haven't?" - lautet die prompte Rückfrage (O'Dell, Ipv6 haters, 13.7.98) 14 Tage später kündigten AT&T und British Telecom an, die noch zu gründende Organisation, in die sie gemeinsam ihre internationalen Dienstleistungsgeschäfte einbringen wollen, werde auch ein neues Internet Protokoll entwickeln. (FAZ, 27.7.98)

Die Ironie der Geschichte besteht wohl darin, daß weder das kleine, handverlesene Designteam, noch die "Big Players" Gewähr für die Entwicklung eines ähnlich erfolgreichen Übertragungsprotokolls wie IPv4 bieten. Zum einen reicht der Konsens der Gegner von IPv6 über dessen Ablehnung kaum hinaus. Zumindest in der IETF, die ein breites Spektrum der kommunikationstechnischen Branche repräsentiert, gibt nach wie vor keine Einigkeit über die Eigenschaften, die die gute Architektur von morgen auszeichnet. Zum anderen käme auch eine kleine und unbürokratisch arbeitende Gruppe von Netzarchitekten nicht umhin, über die konzeptionellen Konsequenzen der großen Installationsbasis von IPv4 nachzudenken. Wie ließen sich Hundertausende Sites im Netz dazu bewegen, gleichzeitig in eine neue Protokollwelt zu immigrieren, weil andernfalls die globale Konnektivität des Internet an babylonischer Vielsprachigkeit scheitern würde?

Vergegenwärtigt man sich die inzwischen erreichte Größe, Komplexität und Dezentralität des Netzes, stellt sich die Frage, ob die unsichere Zukunft von IPv6 tatsächlich als Ergebnis falscher Entscheidungen oder nicht eher als Ausdruck stetig abnehmender Regulierbarkeit des Internet zu betrachten ist. Auch die zunehmende Behäbigkeit der IETF wäre aus dieser Perspektive lediglich ein Spiegelbild des nur mehr schwer manövrierbaren Tankers Internet, und die Kritik an ihren Verfahren und Entscheidungen entpuppte sich als Sehnsucht nach den alten Tagen, als die Bedeutung des Internet noch marginal und die Handlungsspielräume der Gemeinde schier grenzenlos schienen. Wie das Internet ist auch die IETF in der Normalität angekommen. Zu dieser gehören Flügelkämpfe zwischen Erneuerern, Bewahrern und Revolutionären vielleicht ebenso wie die Bildung von Legenden oder die Verehrung von Göttern und heiligen Kühen. Ist IP auf dem Weg zur Heiligsprechung? In der IETF geht man inzwischen davon aus, daß die Phase der Transition von IPv4 zu IPv6 mindestens zehn Jahre, wenn nicht sogar unbegrenzt währen wird. (RFC 1933; King et al. 1998) An der Beständigkeit von IPv4 würde voraussichtlich auch die Ausbreitung eines neuen übertragungsstandards wenig ändern, denn selbst eine Konkurrenz um die Muttersprache des Netzes wäre mit seiner offenen Architektur noch vereinbar, vorausgesetzt, die Kompatabilität bleibt gewahrt. In diesem Sinne lautet das Resumee: "The Internet will 'get big' whether or not IPv6 makes orbit." (O'Dell, IPng 6000, 7.7.1998)

6 "So long, and thanks for all the packets": Fazit   Die Entwicklung von IPv6 diente als Fallstudie zur Erkundung der politischen Dimension des Netzes. Abschließend stellt sich die Frage, welcher Art die Einsichten sind, die IPv6 über die Regulierung des Netzes eröffnet, und wodurch sich der Blickwinkel dieser von anderen Fallstudien unterscheidet. Ein naheliegendes, augenblicklich weitaus spektakuläreres Fallbeispiel hätte die vor mehr als einem Jahr begonnene Auseinandersetzung um die künftige Namens- und Adreßverwaltung des Internet geboten (vgl. Recke 1997). Der Konflikt um die überfällige Neuorganisation dieser Funktionen hatte sich gegen Ende 1997 so weit zugespitzt, daß die Regulierung des Netzes auch auf internationaler politischer Ebene zum Thema wurde. Zwischenzeitlich meldete gar die ITU Interesse an einer Aufsicht über das Internet an. (vgl. Cook Report 1998)

Der Streit um die Vorherrschaft über die Adreß- und Namensräume des Internet zeugt von den sich ausdehnenden Reibungsflächen zwischen dem dezentralen, bislang weitgehend sich selbst überlassenen Netz und seiner vergleichsweise hoch regulierten gesellschaftlichen Umgebung. Das Internet wird zum Schauplatz eines Ringens um politische, wirtschaftliche und moralische Einflußsphären, in dem es allenfalls beiläufig um das geht, was bei den Konflikten über die Zukunft des Internet Protocols im Vordergrund stand: die Verständigung über die Eigenschaften der guten Netzarchitektur. Anders als die Adreß- und Namensverwaltung hat die Entwicklung von IPv6 die allgemeine öffentliche Aufmerksamkeitsschwelle kaum je überschritten. Der Streit um IPv6 blieb ein Thema der Internetgemeinde und der angrenzenden Unternehmen. Von dramatischen Interventionen der Außenwelt verschont geblieben, wurde die Architekturreform deshalb konzeptionell wie auch praktisch weitgehend im (zeitgleich reformierten) Rahmen der angestammten Rituale und Prinzipien der Gemeinde betrieben. Unter Forschungsgesichtspunkten betrachtet ermöglichte IPv6 eine Binnenperspektive auf die sozialen und technischen Ordnungsweisen des Netzes, die sich in dieser Form nicht einstellen kann, wenn, wie im Falle der Verwaltung des Adreß- und Namensraums, diese Ordnungsweisen an Einfluß verlieren oder vollkommen außer Kraft gesetzt werden.

Die Fallstudie über IPv6 eröffnete den Zugang zu einer für die Netzwelt spezifischen Melange aus architektonischen, organisatorischen und symbolischen Ordnungsprinzipien. Kleidungs- und Kommunikationsrituale, technische und soziale Werthaltungen und Konventionen bilden zusammen einen Bezugsrahmen, dem im Laufe der Rekonstruktion von IPv6 politische Konturen abgewonnen werden konnten. Die grundlegenden architektonischen Axiome und Ideen, die zusammen die Verfassung des Netzes bilden, bezeichnen wir als regierende Techniken. Davon unterscheiden wir die Techniken des Regierens, jene Verfahrensregeln also, die das schier Unmögliche ermöglichen und auf Dauer stellen sollen: die kontinuierliche Weiterentwicklung und Transformation des Netzes unter gleichzeitiger Bewahrung seiner Identität.

Die Reform einer regierenden Technik im Netz vermag Dynamiken zu erzeugen, die den bekannten Konflikt- und Konsensbildungsmustern gesellschaftlicher Reformprojekte in mancher Hinsicht ähnlicher sind als man vielleicht erwarten würde. Globale Konnektivität läßt sich zwar als kollektives Projekt formulieren, nicht aber als solches auch unbeschadet realisieren. Ein Grund dafür ist, daß die Verwirklichung der guten Architektur aller Unbestechlichkeit von "rough consensus and running code" zum Trotz mit mehrdeutigen, unterschiedlich auslegbaren Problemen und entsprechend kompromißbedürftigen Lösungsmöglichkeiten konfrontiert ist. Mögen die Techniken des Regierens im Internet auch bewußt als Alternative zu demokratischen Entscheidungsverfahren angesehen werden, die Beschaffenheit der Probleme, über die auf die eine - technische -, oder andere - politische - Weise entschieden wird, ähnelt sich. Die Entwicklung von IPv6 zeigt nicht nur, welch unterschiedliche Vorstellungen sich auf diese gemeinsame Zielsetzung berufen, sondern auch, wie gering der Einfluß der IETF auf die Entwicklung des Netzes und mithin auf die Zukunft der guten Architektur geworden ist. Ob der Autoritätsverlust der Internetgemeinde problematisch für die weitere Entwicklung des Internet ist, bleibt eine offene Frage. So dürftig sind die Erfahrungen mit dezentralen Regelwerken globaler Reichweite, daß sich über deren Performanz nur wenig sagen läßt.

So lange IPv4 oder ein ihm verwandtes Protokoll wie IPv6 die regierende Technik im Internet bilden, wird sich an der Unregierbarkeit von IP land vermutlich wenig ändern. Denn auch ein von Grund auf neues, außerhalb der IETF entwickeltes übertragungsprotokoll wird sich bestenfalls in Koexistenz, nicht aber als Alternative zu IP etablieren können.

1 Die Bezeichnungen Internetgemeinde, Community und IETF werden hier gemäß dem Sprachgebrauch der IETF synonym verwendet. Daß dies nicht ganz unproblematisch ist, ergibt sich schon aus dem Umstand, daß es im Netz nicht mehr nur eine, sondern inzwischen viele Gemeinden gibt. Daß sich die IETF trotzdem als die Community versteht, hat mit ihrer Tradition zu tun, läßt jedoch auch einen gewissen Autoritätsanspruch gegenüber anderen Gruppierungen im Netz erkennen.

2 Zur Rationalität dieser Prinzipien vgl. Saltzer, Reed & Clark 1984; Cerf & Kahn 1974.

3 http://www.ietf.org/html.charters/ipngwg-charter.html

4 Eine naheliegende Erklärung für diese Leerstelle liegt in der Zusammensetzung der IETF: Die Mehrzahl der Netztechniker sieht ihren Beitrag zum Internet im Lösen klar eingegrenzter,"wohldefinierter" Probleme. Nicht nur die "Charter" der Arbeitsgruppen, auch die Diskussionskultur auf den Mailinglisten trägt dem Rechnung. Ohne eine disziplinierte Beschränkung auf das Arbeitsprogramm erreichten vielleicht auch die wenigsten working groups in der IETF ihr Ziel. Der Aufgabe, einen "business plan" für das Internet zu entwickeln, mangelt es gleich an beiden Voraussetzungen.

5 In der Einladung der beiden Listengründer heißt es: "Come see Noel and Sean display the emotionally immature, abusive, mean-spirited, vindictive and dark sides of their shabby smug childish vain characters as they viciously, cynically, cruelly and spitefully indulge their emotion-laden bias, belligerence, prejudice and uncontrollable hostility in an unparalled display of unprofessional and unfair attacks on the technical quality of a protocol design which their jealously and resentment does not allow them to admire..."

6 Bei den hier zitierten Mailinglisten handelt es sich um "Big Internet" (als big-I abgekürzt), die heute inaktive Liste, auf der IETF-weit über die Zukunft der Internet- und Routingarchitektur diskutiert wurde, bis der Entscheidungsprozeß so weit vorangeschritten war, daß die Detailarbeit von IPv6 der Arbeitsgruppenliste IPng überantwortet wurde. Die offizielle IPng-Liste und die IPv6 haters-list bilden zwei weitere Mailinglisten, aus denen zitiert wird. Ferner finden sich Zitate aus "diff-serv" (differentiated services). POISED (The Process for Organization of Internet Standards) und der IETF-Liste.

7 Die Anfang der 90er Jahre verwendeten Router konnten in etwa 16.000 Routen berechnen. 1992 wurde prognostiziert, daß dieser Umfang 12-18 Monate später erreicht sein würde. (RFC 1380) Derzeit berechnen die Router auf der Ebene der großen Backbones bis zu 40.000 Wege (vgl. King et al. 1998).

8 Das entspricht einer wesentlich schlechteren Nutzungsquote als sie etwa von den Telefonnetzen erreicht wird; vgl. Huitema 1996.

9 Zum Vergleich stelle man sich vor, der Adreßraum des internationalen Telefonnetzes wäre weder nach Regionen noch nach Dienstanbietern gegliedert, und die Vermittlungsstellen benötigten Datenbanken im Umfang aller weltweit gültigen Telefonnummern, um Verbindungen zwischen diesen herstellen zu können!

10 Einigkeit besteht in der Community, daß die IETF angesichts der Komplexität des Netzes nur noch Teilbereiche seiner technischen Entwicklung betreuen kann. Welche Teile das sind, warum manche Normierungsprojekte in die IETF hinein, andere dagegen aus ihr heraus "migrieren", kann vermutlich niemand sagen (vgl. Eastlake 3rd 1.6.98, POISED).

11 Zu den Ritualen im Vorfeld der IETF-Treffen gehört die Beschwerdeflut über das (frühzeitig) ausgebuchte Konferenzhotel. Schuld daran sind nach Meinung vieler die überhandnehmenden "goers", die im Unterschied zu den "doers" von Konferenz zu Konferenz reisen, anstatt Programmcode zu schreiben.

12 Diese Zahl stützt sich auf die Teilnehmerliste der 39. Tagung der IETF, die im Sommer 1997 in München stattfand. Volker Leib hat sie uns dankenswerterweise in tabellarischer Form zur Verfügung gestellt.

13 Im Grunde ist CIDR (auszusprechen wie die englische Version der Apfelsaftschorle) schon die zweite Neupartitionierung des Adreßfeldes von IPv4. Ursprünglich bestand die 32 bit lange Adresse aus zwei Teilen. Die ersten 8 bit dienten zur Identifizierung des Netzes, die folgenden 16 bit zur Adressierung der einzelnen Hosts. Nachdem sich herausstellte, daß das Internet in absehbarer Zeit mehr als 100 Netze umfassen würde, entstand 1981 das sogenannte "subnetting": Drei verschiedene Größenklassen (erkennbar an der Menge der Bits, die zur Identifikation der hosts zur Verfügung stehen), erweiterten die Adressierungskapazität von IPv4 um ein Vielfaches. (vgl. RFC 790) Da die meisten Organisationen einen Adreßblock mittlerer Größe für ihre Sites wünschten, entstand im Bereich der sogenannten "Class B-Adressen" der erste Engpaß. Eine Anfang der 90er Jahre erstellte Studie ergab, daß 50 % der Class B Adressen, die immerhin 65536 Hostrechner identifizieren können, weniger als 50 Hostrechner aufweisen (vgl. Ford, Rekhter & Braun 1993). CIDR, das "klassenlose" Adressierungsverfahren, auch "supernetting" genannt (RFC 1338), hebt die starren Bitgrenzen zwischen den Größenklassen auf und stellt es den Providern anheim, die verbliebene Adressierungskapazität des Internet paßgenauer auf die Bedarfe der Netzwerke ausrichten.

14 Zum Schichtenmodell, das beim blanken Kabel anfängt, bei der konkreten Anwendung endet und dazwischen die verschiedenen operativen Funktionen des Netzes aufeinandertürmt vgl. etwa Comer 1991 und Tanenbaum 1996.

15 Wie realistisch diese Gefahr tatsächlich war, ist bis heute umstritten. Einige in der IETF sind der Auffassung, die Befürworter von CLNP hätten geplant, das Internet der ISO zu überantworten. Andere sind der überzeugung, die ISO hätte der IETF die "change control" über CLNP zugestanden.

16 Eine schärfere Trennung findet sich dagegen im Telefonnummernsystem, das die ersten Stellen einer Nummer zur Lokalisierung und nur die letzten zur Identifikation des Teilnehmers verwendet. "Renummerierungen" betreffen bei diesem System deshalb immer nur Teile der gesamten Nummer (zum "Verhalten" von IPv4 Adressen vgl. RFC 2101).

17 Unabhängig von der topologischen Distanz zwischen zwei kommunizierenden Einheiten bleibt die Adresse immer gleich lang. Illustriert am Beispiel des Telefonnetzes bedeuteten fixe Adreßlängen, daß auch im Ortsnetz die internationale Landeskennzahl gewählt werden müßte.

18 Autokonfiguration bedeutet, daß Hostrechner ihre numerische Identität automatisch erhalten. Demnach "propagiert" ein Rechner sobald er ans Netz geht einen "link dependent interface identifier", typischerweise die Nummer seiner Netzkarte, um dann vom nächstgelegenen Server oder Router ein Prefix der Site zugewiesen zu bekommen. Aus beiden Komponenten soll dann wie von selbst eine vollständige Netzadresse entstehen, die allerdings weit größer als die kleine Reformvariante von 64 bits ausfällt, weil bereits die Netzkartennummer mindestens 48 bit umfaßt (vgl. Thomson & Narten 1998).

19 Dort heißt es: "Declaring that the address is the message, the IPng WG has selected a packet length format which includes 1696 bytes of address space. (...) Observing that it's not what you know but who you know, the IPng focussed on choosing an addressing scheme that makes it possible to talk to everyone while dispensing with the irrelevant overhead of actually having to say anything." (RFC 1776)

20 Gemäß der Logik des geographischen Adressierens sind es Ortswechsel, die adressenwirksame topologische änderungen verursachen. Netze multinationaler Organisationen würden analog zur Telefonwelt für jeden Standort eine eigene Adresse benötigen.

21Kaum hatte POISED seinen Auftrag beendet, wurde bereits eine neue Arbeitsgruppe mit Namen POISSON gegründet. Ihre Aufgabe besteht u.a. in der Formulierung eines "Codes of Conduct" für Mitglieder der IETF (vgl. O'Dell 1998) sowie in der überarbeitung jenes Regel- und Prinzipienkatalogs für Arbeitsgruppen, den POISED zuvor verfaßt hatte. Man darf wohl davon ausgehen, daß "The Internet Way of Doing Things" zum Dauerthema in der IETF geworden ist.

22 Technisch häßliche oder schlechte Lösungen, ob innerhalb oder außerhalb der Community entwickelt, werden in der Regel auf politicking zurückgeführt. Bekanntestes Beispiel dafür ist OSI (Piscitello & Chapin 1993; Rose 1990; Hafner & Lyon 1996). Cartoons über die politischen Hintergründe seines Designs werden sogar auf T-Shirts herumgetragen. (vgl. Salus 1955, 122; Ferguson , IPv6 haters, 16.2.96, 047)

23 IPv6 enthält drei Typen von Adressen: Die Unicast-Adresse identifiziert einen Netzknoten (Hostrechner oder Router), die Multicast-Adresse eine Gruppen von Netzknoten und die neu hinzugekommene Anycast-Adresse ebenfalls eine Gruppe, von der jedoch nur der nächst erreichbare kontaktiert wird (vgl. RFC 2373).

24 Auskunft über Implementationen von IPv6 gibt: http://playground.sun.com/pub/ipng/html/ipng-main.html. Informationen zum 6 bone finden sich unter: http://www-6bone.lbl.gov/6bone/ .

25 Dazu zählt etwa das "end-to-end" Prinzip, das die Aufsicht über den Datenfluß an die Peripherie des Netzes in die Hände der Anwendungen legt (RFC 1958; Hain 1998). Auch beruhen die Transport- und Kontrollmechanismen im Netz auf der Annahme gleichbleibender Ziel- und Absenderadressen.

 

home page Startseite about us Über uns Endbericht documents (Hyper-)Texte miscellaneous Allerlei Interaktionen search Suche
home page Startseite about us Über uns Endbericht documents (Hyper-)Texte miscellaneous Allerlei Interaktionen search Suche
Startseite Über uns Endbericht (Hyper-)Texte Allerlei Interaktionen Sitemap
Startseite Über uns Endbericht (Hyper-)Texte Allerlei Interaktionen Sitemap

Copyright 1994-1998 Projektgruppe "Kulturraum Internet". c/o Wissenschaftszentrum Berlin für Sozialforschung (WZB)
Reichpietschufer 50, 10785 Berlin. Telefon: (030) 254 91 - 207; Fax: (030) 254 91 - 209;
; http://duplox.wz-berlin.de.