Vom Digital Commons zum Network Commons

Aus wiki.freifunk.net
Zur Navigation springenZur Suche springen

Im anglo-amerikanischen Netzdiskurs ist in den letzten Jahren der Begriff "commons" in Mode gekommen. Dieser Begriff wurde ursprünglich auf ein gemeinschaftlich genutztes Stück Land angewandt. Das konnte z.B. eine Viehweide sein, die von allen Mitgliedern einer Dorfgemeinschaft genutzt werden konnte, aber auch ein Fischgewässer, ein Waldgebiet oder auch eine Wiese in der Mitte eines Dorfes, die für die verschiedensten Aktivitäten diente, wie z.B. Märkte, Feste oder politische Versammlungen und Kundgebungen. Mit dem Einsetzen der industriellen Revolution in England kam es zu einem systematischen Angriff auf diese Form des Kollektiveigentums, in Form der Politik der "enclosures" (engl. Umzäunungen), die im 18.Jahrhundert ihren Höhepunkt hatte und bis ins 19. Jahrhundert fortdauerte. Gemeinschaftlich genutztes Land wurde eingezäunt und privatisiert. Der Ärmeren Landbevölkerung wurde so die Lebensgrundlage genommen, und viele sahen sich gezwungen, in die Städte abzuwandern und sich als Lohnarbeiter in den aufkommenden Industrien zu verdingen. Auch städtische Commons wie z.B. Kennington Commons in Süd-London wurden umgewidmet. Aus den historischen Versammlungsplätzen des Volkes wurden eingezäunte königliche Parks mit zahlreichen Statuen und Monumenten, die symbolisch Plätze besetzten, an denen zuvor revolutionäre Freigeister umtriebig gewesen waren. In den amerikanischen Kolonien bezeichnete der Begriff Commons zunächst ebenfalls eine zentrale Dorfweide, die jedoch nach und nach zum Zentrum öffentlichen Lebens wurde, indem dort Versammlungslokale und Geschäfte errichtet wurden. Das deutsche Equivalent zum Commons ist die "Allmende", womit ebenfalls das Recht zur gemeinschaftlichen Nutzung von Ländereien gemeint ist, mit dem Unterschied, dass damit nicht nur die gemeinsame Ressource sondern auch die Nutzergemeinschaft bezeichnet werden konnte. Mit der Konsolidierung der zentralstaatlichen Gewalt verschwanden die Allmenden nach und nach.

Voraussetzung für die nachhaltige wirtschaftliche Nutzung eines Commons ist die Etablierung von Außengrenzen. Nur bestimmte Akteure erhielten das Recht, eine Weide oder bestimmte Fischgründe zu benutzen. Als Kriterien dienten z.B. die Mitgliedschaft in einer Dorfgemeinschaft oder einer bestimmten Berufsgruppe - unter dem Ausgangspunkt, dass diejenigen mit einem langfristigen Interesse am Erhalt der jeweiligen Ressource verantwortungsvoll mit dieser umgehen würden. Neben diesen Regeln zum Schutz des Commons nach außen gab es individuelle und lokale Binnenregeln für die Nutzung, wie z.B. welche Weidegründe zu welcher Jahreszeit genutzt werden.

Für die Debatte in der gegenwärtigen Situation wieder relevant wurde der Begriff durch den berühmten Text "The Tragedy of the Commons" von Garret Hardin aus dem Jahr 1968. Der Humanökologie von der Universität Kalifornien beschäftigte sich mit Bevölkerungswachstum, Spieletheorie und Wachstum in einer Welt mit begrenzten Ressourcen. Hardin ging von rational handelnden Individuen aus, die ihren eigenen Vorteil zu maximieren suchten. Während jeder Einzelne die Früchte egoistischen Handelns erntet, werden die nachteiligen Wirkungen dieses Handelns von der gesamten Gemeinschaft getragen. Das Resultat solchen Verhaltens kann die Abnutzung von Ressourcen bis zu jenem Punkt sein, ab dem sie sich nicht mehr im Rahmen normaler Zyklen erneuern können. Als die "Tragödie" des Commons sieht Hardin jedoch nicht die Zerstörung der Ressource, sondern das unweigerliche Eintreten desselben Dilemmas an. Commons haben laut Hardin einen inhärenten Makel, nämlich dass die "freie" Nutzung unweigerlich zu deren Zerstörung führt. Das ist vor allem dann der Fall, wenn durch hohes Bevölkerungswachstum und neue Techniken der Bewirtschaftung der Druck auf Ressourcen steigt, die zuvor unerschöpflich erschienen waren. Ein Hardin diesbezüglich bestätigendes Beispiel ist die europäische Fischereipolitik. Obwohl es im Rahmen der EU seit langer Zeit Regeln zur Kontingentierung gibt, wurden bestimmte Fischbestände, so z.B. Kabeljau in der Nordsee, bis an den Rand des Absterbens leergefischt. Island hingegen, das in den siebziger Jahren seine Fischereigründe unilateral auf eine 200-Meilenzone ausweitete, was zu gewalttätigen Konfrontationen mit schottischen und spanischen Hochseefischern führte, erfreut sich auch heute noch guter Fischbestände in seinen Gewässern. Ein weiteres Beispiel ist die Luftverschmutzung und der wahrscheinlich durch diese verursachte Treibhauseffekt. Es gibt wohl niemanden, der möchte, dass eine von Menschen verursachte Klimaveränderung zum Abschmelzen der Polkappen führt. Dennoch ist das nur für wenige Grund genug, auf den Luxus der persönlichen Mobilität durch die Verwendung eines Autos zu verzichten. Für Hardin besteht die Lösung darin, dass die Freiheit durch starke von außen auferlegte Kontrolle eingeschränkt werden muss. "Individuen, die in der Logik des Commons eingeschlossen sind, sind nur insofern frei, als sie damit den universellen Ruin auslösen." (vorletzter Absatz http://www.sciencemag.org/cgi/content/full/162/3859/1243) Sich auf Hegels "Freiheit ist die Einsicht in die Notwendigkeit" berufend, fordert er als Ausweg aus dem Commons-Dilemma eine weltweite Geburtenkontrolle.

Es ist durchaus legitim, die Begriffe "Commons" oder auch "Allmende" im übertragenen Sinn zu verwenden. So bezeichnet der Begriff "digital commons" jene Elemente der digitalen Kommunikationssphäre, die als Gemeingut genutzt werden. Eine Säule des Digital commons ist die freie und quelloffene Software. Sie wird unter einer Lizenz vertrieben, der GNU/GPL, die es nicht nur jedermann gestattet, diese Programme frei zu verwenden, sondern auch Einblick in den Quellcode zu nehmen, diesen zu modifizieren und das modifizierte Produkt weiterzuvertreiben. Auf der Ebene des Netzes sind es die Protokolle und die Standards, auf denen diese beruhen, die als Gemeingut genutzt werden können. Weil es die frühe Internet-Community so wollte, "gehören" die Internet-Standards niemandem. Die technischen Spezifikationen sind frei im Netz einsehbar. Sie werden in Form sogenannter RFCs an einer zentralen Stelle im Netz veröffentlicht. Die Entwicklung der Standards erfolgt im Rahmen von Konferenzen, Workshops und Arbeitsgruppen der IETF. Wer das nötige technische Wissen besitzt, kann sich an diesen Prozessen beteiligen. D.h. auch der Prozess der Entwicklung der Komponenten, welche eine offene Netzwerkarchitektur definieren, erfolgt semi-öffentlich und einigermaßen transparent. Die physischen Komponenten des Netzes hingegen - die Kabel, Router, Satelliten, Funkstrecken - sind nicht Teil des Commons. Seit der Privatisierung des Internet in den neunziger Jahren befindet sich jeder einzelne Switch im Privateigentum. Der Zugang zu den Netzen, aber auch die Art der Nutzung, können daher von jenen kontrolliert werden, die signifikante Anteile an der physisch-materiellen Infrastruktur des Netzes besitzen. Die Inhalte können, müssen aber nicht Teil des Commons sein. Riesige Mengen an Information im Internet sind frei zugünglich. Homepages, die von Privatpersonen, Clubs, Vereinen, Universitäten für die freie Nutzung durch die Öffentlichkeit zur Verfügung gestellt werden, stehen jedoch einer wachsenden Zahl kosten- und anmeldepflichtiger Inhalte gegenüber, die von kommerziellen Verlagen ins WWW gestellt werden. Die Schutzinteressen der Rechteinhaber gehen so weit, dass versucht wird, die Technologie und die Gesetze dermaßen zu verbiegen, bis diese ausschließlich ihren eigenen Zwecken dienen und die Verfolgung des Allgemeininteresses sowohl technisch als auch rechtlich verunmöglicht wird.

Autoren wie der Rechtsprofessor Lawrence Lessig warnen daher davor, dass sich das Internet im Belagerungszustand befände. Die Freiheit des Commons werde einmal mehr von "Einzäunungen" bedroht. Zum Schutz dieser Freiheit haben Lessig und Konsorten eine Plattform namens Creative Commons gegründet. Dort wurden verschiedene Formen von Lizenzen entwickelt, die es ermöglichen sollen, neben Software auch andere Formen kultureller Produktion wie Bücher und Musik unter "freien" Lizenzen zu veröffentlichen. Autoren können mittels dieser Lizenzen gleichzeitig ihr Urheberrecht verankern, das Recht zur Verbreitung und Nutzung des geistigen Eigentums aber vergemeinschaften. Damit soll sicher gestellt werden, dass auf der Ebene der Inhalte das Gemeingut nicht nur erhalten bleibt, sondern ein wachsender Bereich von freien Gütern entsteht, die eine Basis für eine Wissens-Allmende bieten. Das hört sich alles durchaus nobel an und beruht wahrscheinlich auch auf den besten Absichten, hat jedoch einen fundamentalen Mangel. Die Rhetorik vom "digital commons" erkennt implizit die "Tragödie der Commons" an und ist ein defensiver Versuch, das Eintreten des Dilemmas abzuwenden. Gegen die Unabwendbarkeit der "Tragödie" sprechen jedoch zwei Gründe. Erstens besitzt das Internet als Ressource Eigenschaften, die mit denen von natürlichen Ressourcen nicht vergleichbar sind. Zweitens ist die Gültigkeit von Hardins Thesen auf quasi naturgesetzlicher Ebene alles andere als abgesichert. Arbeiten auf dem Gebiet der politischen Theorie in jüngerer Vergangenheit haben gezeigt, dass eine nachhaltige gemeinschaftliche Nutzung von Commons-Ressourcen durchaus möglich ist.

Im Internet gibt es zwei Ressourcen, die miteinander in Konflikt stehen. Die eine Ressource ist die Information. Vergleicht man sinnvolle Einheiten von Information (Artikel, Bücher, Bilder, etc.) mit den Gütern, die bei natürlichen Commons-Ressourcen zur Disposition stehen, so offenbart sich ein ganz grundlegender Unterschied. Die Ressource Information wird durch ihren Gebrauch nicht verbraucht. Wenn z.B. eine Textdatei von einem Server aus dem Netz geladen und auf dem eigenen Rechner gespeichert wird, so wird das Original dadurch nicht unbrauchbar gemacht. Dieses verbleibt unverändert und unbeschädigt auf seinem Speicherplatz. Was mit dem Vorgang des "Herunterladens" eigentlich geschehen ist, war das Anfertigen einer Kopie für den eigenen Gebrauch. Man kann sogar soweit gehen, und ich persönlich tendiere dazu, mich dieser Sichtweise anzuschließen, dass die Information durch die Kopie nicht ab- sondern aufgewertet wird. Ein Rezipient "konsumiert" die Information nicht, sondern fügt dieser durch seine Rezeptionsleistung etwas hinzu. Aus der Tradition der frühen Internet-Kultur heraus hat sich trotz zunehemnder Kommerzialisierung eine Tauschökonomie zwischen ihren Benutzern nicht nur etabliert und gehalten, sondern geradezu gigantische Dimensionen angenommen. Täglich werden Gigabytes an freien Inhalten produziert, die wiederum auf anderen Inhalten beruhen. Durch Kulturtechniken wie Sampling, Remixing, Appropriation, Collage, Parodie und verschiedenste kollaborative Produktionsformen (kollaborativer Text, Wikis, Web-logs, etc.) werden auf der Basis von originären Artefakten neue Artefakte geschaffen. Mittels Aggregation von Inhalten durch Rezeptionstechniken wie Linklisten, Katalog-, Such- und Verweissysteme wird ein zusätzlicher Mehrwert auf der Basis der originären Artefakte geschaffen. In jedem Rezeptionsvorgang steckt bereits die Saat eines kreativen Akts. Ohne nun allzu philosophisch werden zu wollen, tendiere ich dazu zu behaupten, dass der Wert von Information durch ihre Verbreitung nicht geschmälert sondern erhöht wird. Gegner dieser Sichtweise argumentieren, dass durch die freie Verbreitung von Information der Anreiz für ihre Erzeugung entfällt. Es müsse durch starken Schutz des Copyrights sichergestellt werden, dass eine finanzielle Belohnung für die Erzeuger von Inhalten erfolgt. Wenn niemand mit seinen geistigen Schöpfungen Geld verdienen könne, würden wir in einem neuen "dark age" landen.

Die zweite elementare Ressource des Internet ist die Bandbreite, also die Möglichkeit, zu einem bestimmten Zeitpunkt eine bestimmte Anzahl von Bits innerhalb einer Zeiteinheit zu übertragen. Diese Ressource hat, wie die Definition schon zeigt, einen stark temporären Charakter. Die Langezeitbeobachtung von Traffic in Datennetzen zeigt, dass die durchschnittliche Nutzung weit unter der maximal möglichen Nutzung liegt. Nur zu bestimmten Zeiten kommt es zu drastischen Zunahmen des Verkehrs, und damit zu Datenstau, Paketkollisionen und einer für alle Teilnehmer deutlich verlangsamten Kommunikation. Darauf gibt es mehrere mögliche Antworten. Entweder man findet sich damit ab, dass das Netz manchmal langsamer ist und verändert entsprechend seine Nutzungsgewohnheiten oder die Kapazität wird soweit erhöht, dass es auch zu Spitzenzeiten zu keiner wahrnehmbaren Störung kommt. Nachdem im Laufe des Internetboom in den späten neunziger Jahren Dollar-Milliarden an Hochgeschwindigkeits-Netzinfrastruktur in der Erde verbuddelt wurden, sollte es aber eigentlich für die absehbare Zukunft keine gravierenden Bandbreitenengpässe geben, zumindest nicht in der westlichen Welt. Die Tendenz ist nach wie vor, dass Bandbreite immer billiger wird. Nachdem also die Information quasi unerschöpflich ist und die Bandbreite nur temporäre Engpässe erkennen lässt, ist es auf dieser Ebene schwierig einzusehen, warum das Commons-Dilemma die Verwüstung der Ressource Internet zur Folge haben sollte.

Eine Reihe von theoretischen Antworten auf das Commons-Dilemma geben Arbeiten in der politischen Theorie. In "Coping With the Tragedy of the Commons" widerlegt Elinor Ostrom Hardins Untergangsszenario - und damit auch jene, die dessen Text als große Keule gegen jede Form der Befürwortung von Kollektivnutzung eingesetzt haben, und das in durchaus ideologischer Art und Weise, als Totschlagargument gegen die Unterwanderung amerikanischer Werte durch linke Ideologien und Neoismen wie Cyber-Kommunismus und Wissens-Kommunismus. Ostrom benutzt eine Mischung aus Laborversuchen und Feldforschungsergebnissen. Sie stellt fest, dass die Betrachtungsweise des Commons-Dilemmas auf Annahmen beruht, deren Gültigkeit nicht aufrechterhalten werden kann. Die erste dieser Annahmen ist, dass die Nutzer gepoolter Ressourcen wertfreie Maximierer unmittelbaren Gewinns sind (also mit anderen Worten, ungebremste Kapitalisten) und nicht mit anderen Nutzern zusammenarbeiten, um das Eintreten des Commons-Dilemmas zu verhindern. "Sorgfältig durchgeführte Laborversuche ergaben, dass Nutzer fehlbar sind, nur eingeschränkt rational und durchaus bereit, sich Normen zu unterwerfen." Sobald den Nutzern Kommunikationsmöglichkeiten zur Verfügung stehen, können sie ihre Handlungen untereinander abstimmen und so die Ressource besser, im Sinne der Effizienz ebenso wie der Nachhaltigkeit, nutzen. Aus der Binnenkommunikation der Nutzer untereinander entstehen Regelwerke. Sanktionen werden gegen jene eingeführt, die diese Regeln durchbrechen. Aus Studien über lokale Gemeinschaften in Fischfang, Waldwirtschaft und Bewässerung gewinnt Ostrom zahlreiche Beispiele, wie Formen von Selbst-Regulation zu besseren Resultaten führen als gar keine Regulation oder zentral gesteuerte Regulation. Ihrer These, dass komplexe adaptive Systeme die beste Antwort auf Regulationsfragen bei Commons-Ressourcen sind, mag man nun folgen oder nicht. Denn auch diese These schmeckt ein wenig nach dem derzeit immer noch gängigen Neo-liberalismus und dessen anti-staatlichen Tendenzen. Doch immerhin bis zu diesem Punkt mögen wir Ostrom gerne folgen: "Eine Schlussfolgerung, die im Lichte ausgiebiger empirischer Beweise gemacht werden kann, ist die, dass die Übernutzung und Zerstörung gemeinschaftlicher Pool-Ressourcen kein vorher feststehendes und unausweichliches Ergebnis ist, wenn eine Anzahl von Nutzern mit dem Commons-Dilemma konfrontiert ist." Hardins Commons-Dilemma, das von vielen wie ein Naturgesetz behandelt wurde, ist also letztlich eine Frage unterschiedlicher Ideologien und Praktiken. Die Bedingungen und Parameter jeder Common-Pool-Ressource - die Eigenschaften der Ressource, der Nutzer, die Grenzen nach außen und innen - müssen genau untersucht werden, bevor spezifische Aussagen über die Chancen des Eintretens oder Abwendens der "Tragödie" getroffen werden können.

Freie Netze werden in dem Bewusstsein aufgebaut, dass die Tragödie des Gemeinguts keine von vorneherein feststehende Tatsache ist. Durch die Kommunikation der Teilnehmer untereinander können Regeln für die Mikro-Regulation der Netze entwickelt werden, die optimal den lokalen Gegebenheiten angepasst sind. Elemente dieser Regeln lassen sich jedoch auch als kleinster gemeinsamer Nenner extrahieren und für globale Selbst-Regulation heranziehen (siehe Pico Peering Vertrag). Frei nach dem Motto "Angriff ist die beste Verteidigung" wird die Vernetzungsfreiheit aktiv in den verschiedensten Bereichen vorangetrieben. Die physisch-materielle Infrastruktur freier Netze befindet sich im Besitz der Nutzer. Aus den Rechten, die in bürgerlichen Gesellschaften mit dem Besitz verbunden sind, leiten sie die Freiheit ab, anderen Teile dieser Kommunikations-Kapazität frei zur Verfügung zu stellen. Während rundum Zugangsschwellen aufgebaut werden, arbeitet ein internationaler loser Zusammenschluss an der Aufhebung oder Verminderung der Zugangsschwellen. Die Rede und Realität des "Digital Commons" wird auf die Hardware, Software und Organisationsstruktur von Netzen ausgebaut - ein Netzwerk-Commons entsteht. Die physische-materielle Ebene der Vernetzung wird ebenfalls Teil der digitalen Allmende. Nicht nur die Informationen, die durch Netze fließen, sollen frei sein, sondern auch die Trägermedien der Netzwerkkommunikation - die Hardware-Infrastruktur und das elektromagnetische Spektrum. Wie die erfolgreiche Öffnung des ISM-Bandes für 802.11-Technologie zeigt, würde es sehr schwierig sein, diesen der Öffentlichkeit zur Verfügung gestellten Teil des Spektrums wieder zu privatisieren. Stattdessen wurden bereits zusätzliche Teile des Spektrums für die öffentliche Nutzung freigegeben und eine internationale Lobby formiert sich, die auf die Öffnung weiterer Bereiche drängt. Die dezentralen Funk-Netze wachsen langsam, sind aber schwer aufzuhalten. Freie Netze erweitern den Digital Commons auf die Träger der Netzkommunikation. Sie stehen damit Schulter an Schulter mit den Entwicklern freier und quelloffener Software. Deren Existenz bedingt sich gegenseitig.