c't 20/2001, S. 176: Open Source

Gundolf S. Freyermuth

Offene Geheimnisse

Aus der Open-Source-Geschichte lernen, Teil I

Die Softwarebranche als Laboratorium der Zukunft: Die Open-Source-Praxis entwickelt historisch neue Organisations- und Rechtsformen und damit Modelle für eine Überwindung der industriellen Ordnung.

Aus der Open-Source-Geschichte lernen (Teil 1): von der Selbstermächtigung der Anwender in den 60er Jahren zur entorteten Echtzeit-Produktion der 80er Jahre

Mehrere Jahrzehnte, nachdem sie begann, geriet die globale Vernetzung Mitte der neunziger Jahre plötzlich ins öffentliche Bewusstsein - als reine Geschäftsgelegenheit. Der raketengleiche Aufstieg der dot.coms, für den Netscapes Börsenerfolg im August 1995 den Startschuss gab, und die nicht minder spektakulären Bruchlandungen fünf, sechs Jahre später verdecken im breiten Bewusstsein eine simple Wahrheit: dass die Konstruktion des globalen Datenraums wahrlich nicht das Werk geschickter Geschäftsleute war. Nicht nur der PC musste geradezu gegen den Widerstand der Konzerne durchgesetzt werden. Auch das Software-Fundament des Internet legten keineswegs kommerzielle Entwickler, sondern technisch begeisterte Männer (und wenige Frauen) - Programmierer und Techniker, Professoren und Studenten -, die sich das Ergebnis ihrer Brillanz nicht im Interesse individuellen Profits patentieren ließen.

Über Jahrzehnte hinweg stellten sie die Ergebnisse ihrer Arbeit gratis und samt Quellcode zur Verfügung. Mit dieser Form der Veröffentlichung ihrer Programme sorgten sie dafür, dass ihre Werke für andere nicht nur benutzbar, sondern les- und veränderbar waren. Im offenen, durch kein Copyright behinderten Austausch der Experten konnte so die Software perfektioniert werden. Diese Zehntausende von digitalen Handwerkern und Bastlern, denen es primär nicht um Tausch-, sondern Gebrauchswert ging, schreibt Jon Katz, Slashdots einflussreicher Medienkritiker, waren ‘die wahren Architekten der neuen Ökonomie’. Auf ihren kollektiven, dem Gemeinbesitz überantworteten Kreationen beruhen bis heute die wichtigsten Programme, die das Internet am Laufen halten, unter anderem Sendmail, Bind, Apache, Perl, Python. Die Bedeutung von Offenheit demonstriert das Internet zudem über reine Software hinaus. TCP/IP, das offene Basisprotokoll des Netzes, hat mittlerweile proprietäre Protokolle wie IPX oder NetBEUI fast völlig verdrängt. Nahezu alle Standards und Protokolle liegen als RFCs (Requests For Comment) vor und verdanken ihre Existenz öffentlichen Diskussionen.

Auch das heute zentrale HTTP entwickelte Tim Berners-Lee in einem offenen Prozess, zu dem viele beitrugen. Nicht mit allen Namen und Kürzeln wird jeder auf Anhieb deren exakte Funktion und vor allem deren genaue Entstehungsgeschichte verbinden können. Die Details sind freilich in diesem Zusammenhang nicht entscheidend [1]. Es reicht, sich ihre grundsätzliche Bedeutung zu vergegenwärtigen, etwa in einem Bild analoger Technik: Benutzte der Datenverkehr die Eisenbahn, so erfüllten Weichen, Stellwerke, Signale und Fahrpläne ähnliche Funktionen.

Gar nichts also ginge ohne diese Software, deren Quellcode eben kein Geschäftsgeheimnis ist - weshalb sich Ende der neunziger Jahre für sie der Begriff Open Source einbürgerte. Das Programm Sendmail etwa läuft auf 80 Prozent aller Mailserver, kaum eine elektronische Post, die auf ihrem verschlungenen Weg vom Sender zum Empfänger nicht mit diesem Gratis-Code in Berührung käme. Ebenso abhängig sind Surfen im WWW und E-Commerce von freier Software: Im August dieses Jahres waren 60,5 Prozent aller Webserver freie Apaches, während Microsofts Closed-Source-Angebot Internet Information Server (IIS) mit 27,9 Prozent abgeschlagen auf Platz zwei dümpelte.

Mehr noch bedroht Linux den Redmonder Softwarekonzern: Binnen eines Jahrzehnts stieg, was mit 10 000 Programmzeilen eines Studenten begonnen hatte, zu einem Kollektivschatz von über 100 Millionen Codezeilen auf - allein der Betriebssystemkern umfasst 3,5 Millionen Zeilen. Nach den üblichen Tarifen der Branche stellen sie einen Investitionswert von mehreren Milliarden Dollar dar. Eine zweistellige Millionenzahl von Nutzern hat zudem Linux weltweit zum zweitbeliebtesten Server-Betriebssystem werden lassen.

Die Infragestellung des Industrialismus

Beinahe-Monopolist Microsoft hat die Open-Source-Bewegung denn auch als Gefahr erkannt. Unablässige Abwehrversuche zeugen davon: Die berüchtigten ‘Halloween Papers’, die 1998 an die Öffentlichkeit gerieten, ebenso wie CEO Steve Ballmers Reden, in denen er Linux im Januar als ‘Bedrohung Nr. 1’ und im Juni als ‘Krebsgeschwür’ charakterisierte, oder die Angriffe von Senior Vice President Craig Mundie, der Anfang Mai die Open-Source-Praxis für ‘ungesund’ und zum ‘Sicherheitsrisiko’ erklärte. Vor allem Ratlosigkeit spricht aus den Attacken: Nicht nur ist die ungeplante, in globaler Kooperation hergestellte Software derjenigen qualitativ überlegen, die in den üblichen bürokratisch-hierarchischen Verfahren gelingt. Obendrein versagen die üblichen Methoden der Konkurrenzabwehr, mit denen Konzerne wie Microsoft über die Jahrzehnte so erfolgreich waren. Denn der neue Gegner ist zugleich allgegenwärtig und unfassbar; was unter anderem heißt: nicht firmenweise aufkaufbar.

Open-Source-Software bedeutet so eindeutig mehr als eine Konkurrenz unter anderen. Sie ist Teil eines Trends, einer historischen Bewegung. Von digitaler Technik ermächtigt, operieren die Open-Source-Projekte nach gänzlich neuen Gesetzen. Indem sie erstmals aus den digitalen Technologien angemessene Konsequenzen für die Arbeitsorganisation ziehen, stellen sie nichts weniger als die etablierte Ordnung industrieller Produktion in Frage. Zu den Wettbewerbsvorteilen, die ihre neue Praxis dem Bruch mit den Traditionen verdankt, zählen beschleunigtes Entwicklungstempo, gesteigerte Flexibilität in der Produktion sowie überlegene Qualitätskontrolle. Sie vor allem sorgt für hohe Stabilität der Produkte wie für deren Angepasstheit an spezifische Nutzerbedürfnisse.

Der Erfolg der Open-Source-Bewegung beruht daher keinesfalls nur darauf, dass die in ihrem Kontext hergestellte Software am Ende gratis oder zumindest vergleichsweise billig abgegeben wird. Von weitreichenderer Bedeutung als dieser eher beiläufige Umstand sind strukturelle Innovationen. Sie betreffen zwei grundsätzliche Bereiche der industriellen Ordnung: die Arbeitsorganisation und die Regelung geistigen Eigentums.

Zum einen weist die Open-Source-Praxis mit den Prinzipien freiwilliger Assoziation und Selbstorganisation, wie selbst Forbes erkannte, ‘einen alternativen Weg, bessere Software zu produzieren’. Das ist nicht wenig, da die Softwareindustrie inzwischen weltweit fast anderthalb Millionen Menschen beschäftigt und über 175 Milliarden Dollar Umsatz erzielt. Doch die Bedeutung der Neuerungen geht über den Bereich der Softwareherstellung hinaus. Seit der Industrialisierung pflegen von Innovationsdruck getriebene Schlüsselbranchen Verfahren zu entwickeln, die später das gesamte Wirtschaftsleben beeinflussen. Richtungsweisende Beispiele dafür waren etwa zu Anfang des 20. Jahrhunderts die Taylorisierung bis hin zur Einführung des Fließbands, die von der Autoindustrie ausging, oder aber ab der Jahrhundertmitte die generelle Übernahme industrieller Technologien und Arbeitsprinzipien in die Agrarwirtschaft.

Was zu industriellen Zeiten fortschrittlich war und auf nahezu alle Bereiche der Produktion, selbst auf Verwaltung, Schulen und Universitäten abfärbte - hierarchisch-zentralistische Kontroll- und Kommandostrukturen, die auf inhaltliche wie zeitliche Fremdbestimmung von jedermanns Handeln zielen -, bremst heute freilich die gesteigerten produktiven und kreativen Möglichkeiten digitaler Technologien. Eine ähnliche Pionierrolle, wie sie einst die Autoindustrie in der Überwindung handwerklicher und agrarischer Organisationsformen der Arbeit erfüllte, fällt daher nun der Hard- und Software-Branche zu. Die Geltung ihrer Organisations- und Eigentumsmodelle, schreiben etwa Don Tapscott und David Ticoll, Autoren von ‘Digital Capital: Harnessing the Power of Business Webs’, ‘ist keineswegs auf die Einsen und Nullen von Software beschränkt. Mit der Durchsetzung des Internet können geschickte Firmen aus vielen Aspekten der Open-Source-Philosophie Gewinn ziehen, um sich Wettbewerbsvorteile in der Entwicklung auch von handfesten Produkten wie einem neuen Auto zu verschaffen.’

Der zweite Bereich struktureller Innovation betrifft die Neuregelung geistigen Eigentums unter Bedingungen kollektiver Produktion und vernetzter Distribution. Das geltende Urheber- und Patentrecht, dessen Prinzipien der Frühzeit der Industrialisierung verpflichtet sind, kollidiert praktisch wie ethisch mit dem Potenzial digitaler Technologien. An den Modifikationen der veralteten juristischen Rahmenbedingungen, über die gegenwärtig weltweit gestritten wird, hängen wesentlich das Tempo und auch die Richtung der weiteren digitalen Modernisierung. In keinem anderen Bereich immaterieller Produktion ist die Suche nach alternativen Eigentums- und Rechtsformen so weit fortgeschritten wie in der Open-Source-Praxis. Besonders wegweisend sind ihre Ansätze für die Besitzregelung im Falle kollektiver Arbeiten, deren einzelne Bestandteile separat nicht verwertbar sind und die unter den gegenwärtig üblichen Bedingungen von Einzelnen - juristischen oder natürlichen Personen - als geistiges Kapital vereinnahmt und damit sowohl ihren eigentlichen Schöpfern wie der Öffentlichkeit entzogen werden.

Die Open-Source-Bewegung operiert so an der vordersten Front der Digitalisierung. Das bringt sie zwangsläufig in Widerspruch, wie Steven Johnson bereits 1998 in Feed schrieb, ‘zu politischen Werten, die in einem entschieden anderen Kontext entstanden, als Ressourcen knapp waren und Informationen nur langsam übermittelt werden konnten. Über die Open-Source-Politik in Kategorien der traditionellen politischen Taxonomie zu sprechen ist, als benutze man die Anatomie von Säugetieren, um den Atemapparat von Fischen zu erklären: Es gibt gewisse Gemeinsamkeiten, aber die zugrunde liegende Struktur ist so unterschiedlich, dass es besser ist, man definiert alle Begriffe von Grund auf neu.’

Nachvollziehbar, wenn auch umso bedauerlicher sind daher die immer noch begrenzte Aufmerksamkeit und vor allem das geringe Verständnis, das diese neue Praxis unter Computernutzern, in der Geschäftswelt und erst recht in der breiten Öffentlichkeit findet. Denn die Open-Source-Verfahren stellen in der Tat die industrielle Ordnung der Dinge in Frage. Sie betreiben die Aufhebung dessen, was der Soziologe Manuel Castells Industrialismus nennt, und laufen auf eine Außerkraftsetzung des Überholten wie zugleich die Bewahrung zukunftsträchtiger Traditionen auf einem entwickelteren, zeitgemäßeren Niveau hinaus.

Von Open Source für die Zukunft lernen

In den sich dabei ausbildenden innovativen Organisationsstrukturen, Managementverfahren und Eigentumsregelungen erscheinen die Konturen einer neuen, digitalen Ordnung. Die Open-Source-Praxis erprobt Arbeits-, Verkehrs- und auch Rechtsformen, die erhebliche Produktivitäts- und Wettbewerbsvorteile bieten und eher früher als später andere Branchen erfassen dürften. Von dem Vorbild der Open-Source-Bewegung lässt sich insofern einiges für die Zukunft lernen. Voraussetzung freilich für eine gelungene Übertragung auf beziehungsweise Adaptation an die spezifischen Erfordernisse anderer Bereiche ist ein besseres Verständnis des historischen Weges, der in den vergangenen vier Jahrzehnten die Open-Source-Bewegung von den Rändern der Gesellschaft in ihr Zentrum führte.

Bis vor kurzem war die Geschichte der Bewegung ungeschrieben und allein innerhalb der Free-Software-Zirkel selbst als individuelles Erfahrungswissen ihrer Veteranen gespeichert. In den zurückliegenden Monaten jedoch erschienen nun, ermuntert durch die steigende Popularität und den noch schneller wachsenden wirtschaftlichen Erfolg von Linux, eine Flut von Publikationen, deren Spektrum von wissenschaftlichen Studien über journalistische Zeitgeschichte und Manifeste bis zu Autobiographien von Schlüsselfiguren reicht [2].

Bei allen Schwächen - mancher Veröffentlichung merkt man die Hast an, mit der sie auf den gerade günstigen Markt geworfen wurde - bieten diese jüngsten Untersuchungen erstmals einen kompletten Überblick über die Entstehungsgeschichte, die Motive von Schlüsselfiguren und den Zusammenhang zwischen technologischem Entwicklungsstand und sozialer Dynamik. Als Gesamtbild ersteht aus ihnen die Ansicht von der Open-Source-Bewegung als einem Laboratorium der digitalen Zukunft. Im Hinblick auf eine solche avantgardistische Allgemeingültigkeit der bisherigen Open-Source-Praxis ragen sechs grundsätzliche Innovationen heraus.

Prinzip 1

Die Selbstermächtigung der Anwender

Einem Bedürfnis vor allem verdankt die Bewegung ihre Entstehung: dem Interesse einzelner Anwender - Techniker wie Endverbraucher -, begrenzende Fremdbestimmung und bestehende Angebotsmängel zu überwinden. Gestrebt wird nach weitgehender Souveränität im Umgang mit Produkten, die professionell oder privat wichtig sind. Welche Art freier Software in der Vergangenheit entstand, hing insofern stets vom Stand der Technik ab und von den zeitgenössischen Varianten unzulänglicher oder unerschwinglicher kommerzieller Produkte oder auch behindernder institutioneller Arrangements. Sie zu überwinden, bildeten sich die wechselnden losen Assoziationen.

Die Anfänge der Produktion freier Software gehen auf die Zeit der Mainframes zurück. Damals litten Ingenieure, Programmierer und erste Studenten des neuen Fachs Informatik unter der Unfähigkeit zur interaktiven Nutzung der wenigen teuren Computer. Rechenzeit war kostbar, und das übliche Verfahren, optimalen Einsatz zu gewährleisten, bestand im batch processing durch Mittelsmänner. Gegen diese behindernde Form des indirekten und zeitversetzten Umgangs taten sich an US-Universitäten unzufriedene Nutzer zusammen, um terminalzentrierte Time-Sharing-Verfahren zu entwickeln. Sie ermöglichten zum ersten Mal Normalsterblichen den direkten Kontakt mit Computern. Die Erfahrungen, die damals von einer ganzen Generation von frühen Anwendern gewonnen wurden - mit einfacheren Programmiersprachen wie mit ersten Computerspielen -, markieren den Anfang populärer Computerkultur. Diese von Nutzern entwickelte Software legte die technische wie soziale Basis für die Entwicklung des PCs in den siebziger Jahren und damit für die digitalen Gründerjahre.

Bereits in dieser Frühphase, ein Vierteljahrhundert, bevor der Begriff Open Source überhaupt geprägt war, schälte sich so die vielleicht wichtigste Lehre der Bewegung heraus: Nichts beschleunigt technischen und dann auch ökonomischen Erfolg so sehr wie die Einbeziehung derjenigen, die mit den jeweiligen Produkten arbeiten und leben müssen. Umgekehrt jedoch behindern verhärtete Gleichgültigkeit von Großinstitutionen und kurzsichtiger Eigennutz von Firmen einen Fortschritt, der gerade diesen Institutionen und Firmen beachtlichen Nutzen bringt, wenn er nur von engagierten Nutzern erst einmal durchgesetzt worden ist.

Die Selbstermächtigung der Anwender in der Open-Source-Bewegung lässt heute erkennen, was die industrielle Praxis und die von ihr geprägte Mentalität lange verbargen. ‘Die normale Forschungsliteratur konzentriert sich auf die Entwicklung von Innovationen als etwas, was allein Hersteller betreiben’, sagt Eric von Hippel, Ökonom an der Sloan School of Management des MIT und Autor von ‘Sources of Innovation’. Von Hippels Forschungen ergaben, dass Verbraucher und Anwender schon immer für einen wesentlichen Teil aller Neuerungen verantwortlich waren: ‘Nutzer entwickelten viele, wenn nicht die meisten der wichtigen Innovationen, etwa auf dem Feld der Halbleiterherstellung, bei wissenschaftlichen Instrumenten und auch im Bereich der Konsumgüter, von Kuchen und Keksen über Kleidungsstücke bis zu Sportartikeln.’ Jüngste Beispiele sind Müsliriegel oder Skateboards.

Unter analogen Verhältnissen freilich bestand - wollten Verbraucher ihre eigenen Interessen durchsetzen - nur die Wahl zwischen zwei Extremen. Einzelne konnten in individueller Heimarbeit ein bestehendes Produkt verbessern oder neu konstruieren. Oder sie konnten versuchen, gegen den institutionellen Widerstand beziehungsweise die Gleichgültigkeit der Produzenten indirekten Einfluss zu nehmen, etwa durch das Einreichen von Verbesserungsvorschlägen oder durch Teilnahme an Marktuntersuchungen. Solches Kundenfeedback mochte zu partiellen Re-Designs führen. Erst aber mit dem Aufkommen digitaler Kommunikationstechnologien gewann die Einbeziehung von Anwendern eine funktionale Qualität. Plötzlich konnten sie zu gleichberechtigten Mitentwicklern an professionellen Projekten jeder Größenordnung avancieren - in Echtzeit und unabhängig von geografischen Begrenzungen.

Prinzip 2

Evolution der Standards

Die erste Phase freier Softwareentwicklung endete daher mit den sechziger Jahren. Damals kulminierten Entwicklungen in drei parallelen Strängen der Digitalisierung, wobei in allen Fällen nicht Institutionen und Konzerne, sondern die Initiativen einzelner Anwender die entscheidende Triebkraft waren. Zum einen mündete der jahrelange Trend zum vernetzten Echtzeitrechnen in die ersten Knoten des Arpanet. Aus ihm entstand ein Jahrzehnt später dank des offenen TCP/IP-Protokolls das Internet und damit das wichtigste Produktionsmittel für freie Software. Das Bedürfnis nach individueller Verfügung über Computer ließ weiterhin Bastler die für Taschenrechner 1969 entwickelten Mikroprozessoren zweckentfremden. Diese Hardware-Hacks begründeten die PC-Industrie, deren Siegeszug Anfang der achtziger Jahre dann die erste Organisation der Bewegung erzeugen sollte.

Zum dritten nahm sich - wiederum 1969 - der Programmierer Ken Thompson eines Projekts an, das Bell Labs, MIT und General Electric nach hohen Investitionen schlicht aufgegeben hatten: Aus dem Mehrplatzbetriebssystem Multix entwickelte er zusammen mit Dennis Ritchie, der zur gleichen Zeit die Programmiersprache C schuf, ein Einplatzsystem. Folgerichtig wurde es Unix getauft. Es sollte für die nächsten dreißig Jahre die avancierte Software-Entwicklung für Mikrocomputer, PC und Internet prägen. 1975 wurde die erste Unix-Version auf einem Magnetband vertrieben - ohne jede institutionelle Unterstützung, ohne Marketing, ohne Helpline. Doch binnen 15 Jahren hatte das Programm all die Mikrocomputer-Betriebssysteme verdrängt, die zuvor den Markt unter sich aufteilten - wobei der Erfolg allerdings bald proprieäre Unix-Versionen auf den Markt kommen ließ.

Bereits Unix’ Version 7 sowie Xenix, die erste Portierung von Unix auf einen Intel-Prozessor, verschlossen 1979 den Quellcode selbst für akademische Zwecke. Dass eine der beiden kleinen Firmen, die mit AT&T-Lizenz Xenix gemeinsam produzierten, ein weitgehend unbekannter Krauter namens Microsoft war, der erst zwei Jahre später mit dem ebenfalls nicht von ihm erfundenen MS-DOS größeren Erfolg haben sollte, lässt diese plötzliche Wendung von Unix zum argwöhnisch bewachten Closed-Source-Betriebssystem verständlicher erscheinen.

Unix gab so vor allem in den Jahren zwischen 1969 und 1979, die auch den PC hervorbrachten, ein frühes und ungemein erfolgreiches Beispiel für die Effektivität freier Software - ein Beispiel, das im Übrigen bis heute nachwirkt. In der von dem Studenten Bill Joy 1977 in Berkeley entwickelten Variante stellte Unix 1982 die Software-Grundlage der heutigen Milliardenfirma SUN. Die Leistungsfähigkeit von Unix inspirierte ebenso das von Richard Stallman 1984 begründete freie GNU-Projekt, mit dem ein freies, Unix-artiges Betriebssystem geschaffen werden sollte (GNU ist ein rekursives Akronym für ‘GNU’s Not Unix’).

Die vorhandenen Elemente der GNU-Variante wiederum halfen 1991 Linus Torvalds, den Linux-Kernel zu programmieren und zu kompilieren. Die GNU-Bewegung inspirierte Torvalds ebenfalls, seinen Kernel als freie Software unter die GPL (General Public License) zu stellen. Darüber hinaus schuf das GNU-Projekt die Systemtools und Anwendungen, die Linux erst zu einem benutzbaren Betriebssystem machen - weshalb viele bis heute statt der einfachen Bezeichnung Linux den Terminus GNU/Linux bevorzugen. Und Unix selbst, in der Berkeley-Variante, liegt schließlich noch dem neuen Apple-Betriebssystems Mac OS X zugrunde, dessen X zugleich die Version 10 wie den Unix-Ursprung indiziert.

In den siebziger Jahren machte der Erfolg von Unix - wie später der vieler anderer offener Protokolle und Standards - einen weiteren zentralen Unterschied zwischen freier und proprietärer Software deutlich: Solange Firmen und Institutionen eifersüchtig den Entwicklungsgang bestimmen, pflegen hinderliche Inkompatibilitäten zu wuchern. Man erinnere sich nur daran, dass es lange Zeit so gut wie unmöglich war, Daten zwischen den Computern verschiedener Hersteller auszutauschen - nicht einmal reine Textdokumente. Bereits Ende der fünfziger Jahre war daher der American Standard Code for Information Interchange (ASCII) entwickelt worden, der eine solche minimale Interoperabilität gewährleisten sollte. Doch es dauerte fast eine Dekade, bis er akzeptiert, und weitere fünfzehn Jahre, bis er allen Ernstes implementiert wurde und auch nur die nötigsten Sonderzeichen umfasste. Mit einer gewissen Zwangsläufigkeit behindern proprietäre Programme und die mit ihnen verbundene Geheimniskrämerei die Ausbildung von offenen Standards und damit eine optimale Nutzung.

Offene Standards

In der Entwicklung freier Software hingegen setzen sie sich zügiger, weil naturwüchsig durch. Dafür gibt es subjektive wie objektive Gründe. Aus der Wirtschaftstheorie ist bekannt, dass Marktmechanismen weit über Ab- und Einsichten von Individuen wie einzelnen Gruppen hinaus geordnete Systeme zu initiieren vermögen - weshalb am Ende nahezu aller Entwicklungszyklen Standards stehen. Im Falle der Closed-Source-Verhältnisse beschränkt sich die Wirksamkeit solcher Selektionsmechanismen weitgehend auf komplette Produkte. Open-Source-Strukturen hingegen dehnen die Wirkung der Marktmechanismen bereits auf den Entwicklungsprozess aus, wodurch der Standardisierungsdruck eskaliert. Anwender nämlich sind, egal, wie viel sie für eine Ware bezahlt haben, primär an deren Gebrauchswert interessiert. Daher opponieren sie allem, was eine effektive Nutzung beschränkt - vor allem Inkompatibilitäten mit anderen Hard- und Softwareprodukten, die sie oder Menschen in ihrem Umfeld bereits einsetzen.

Der Ausdehnung von Marktmechanismen auf den Entwicklungsprozess verdankt sich die notorische, den gesunden Menschenverstand verblüffende Einheitlichkeit und historische Kontinuität der Open-Source-Projekte. Man sollte erwarten - und selbst die meisten Entwickler in der freien Softwarebewegung taten das auch anfänglich -, dass die ungeplante und weitgehend unkontrollierte Arbeit von Hunderten oder Tausenden von Personen, die über den Erdball verteilt leben und sich kaum je kennen, zur inhaltlichen Zersplitterung, auch zur Kurzlebigkeit von Projekten und damit zu einem höheren Maß an divergierenden Entwicklungen und Inkompatibilitäten führt. All dies geschah zwar auch in der Geschichte freier Software. Die drei freien BSD-Varianten FreeBSD, NetBSD und OpenBSD etwa zeugen von der immer möglichen Zersplitterung. Und natürlich kamen auch viele Open-Source-Projekte - nicht anders als in der Closed-Source-Welt - kaum über ihre Anfänge hinaus und gingen sang- und klanglos unter. Doch diesen durchaus zahlreichen, wenn auch schnell vergessenen Ausnahmen steht die beachtliche Stabilität der großen Projekte gegenüber.

Sie resultiert aus der spezifischen Struktur des Open-Source-Prozesses. In ihm nämlich konkurrieren alle Projekte um eine begrenzte Zahl von talentierten Entwicklern. In der Konsequenz führt das zu einer beschleunigten Selektion: Unattraktive Projekte verlieren recht schnell ihre besten Mitarbeiter zu Gunsten populärerer Projekte, die sich dadurch zügig stabilisieren. Und selbst in den Fällen, wo zwei oder gar mehr konkurrierende Ansätze überleben, ist unbeabsichtigte Inkompatibilität allein aufgrund des offenen Quellcodes so gut wie ausgeschlossen. Einerseits also kann Unverträglichkeit kaum zufällig entstehen, andererseits macht im Gegensatz zur Closed-Source-Welt auch ihre gezielte Produktion wenig Sinn, da sich mit mangelnder Kompatibilität bei gleichzeitig offenem Quellcode keinerlei Konkurrenzvorteile, vielmehr sogar Nachteile im Hinblick auf die Akzeptanz verbinden.

Aus diesen strukturellen Gründen neigt kollektives Design im historischen Verlauf statt zur Kurzlebigkeit zu Kontinuität und statt zu Diversifikation zur Standardisierung. Daraus ergibt sich der Gesamteindruck des Gegensatzes zum hierarchisch verwalteten Closed-Source-Bereich. Dessen primärer Anreiz zur Mitarbeit besteht in der finanziellen Entlohnung, und dementsprechend bestimmt Fluktuation das Bild: Programmierer finden besser bezahlte Stellungen und verlassen ein Projekt, zahlreiche Firmen verschwinden durch Übernahme oder Schließung vom Markt, die meisten Produkte haben eine kurze Halbwertzeit. In den diversen Open-Source-Nischen, deren Mitglieder um den besten Code wetteifern, herrscht dagegen relative Dauerhaftigkeit der wichtigsten Projekte, personelle Konstanz ihrer Entwickler sowie eine langfristige Kompatibilität der Produkte vor.

Das älteste, bis in die digitale Vorzeit der sechziger Jahre zurückreichende Beispiel gibt dafür die dreißigjährige Geschichte der Unix-Familie in ihrer charakteristischen Mischung aus Generationen-Zersplitterung zwischen proprietären und offenen Varianten bei grundsätzlicher familiärer Kontinuität. Wirklich bedeutend für die Entwicklung freier Software und die damit verbundene Ausbildung von Standards war Unix zwar allein in seinem ersten Jahrzehnt, den siebziger Jahren. Doch sein freies Erbe wirkt fort, nicht zuletzt in der - wesentlich auf Unix basierenden - Infrastruktur des Internet mit seinen offenen Protokollen wie TCP/IP, SMTP oder HTTP.

Prinzip 3

Produktionsgemeinschaft der Gleichen

Die sukzessive Eröffnung des Datenraums seit den siebziger Jahren mit der Möglichkeit zum Transfer von Daten, mit E-Mail und Usenet-Foren versetzte dem keimenden Trend zur freien Softwareentwicklung zunächst einen qualitativen, später auch einen quantitativen Schub. Das Internet verband die geografisch verstreuten und voneinander isolierten Widerstandsnester, die sich an Institutionen wie Bell Labs, MIT oder der University of California in Berkeley gebildet hatten. Rund um die Produktion freier Software formte sich eine erst nationale und seit den achtziger Jahren internationale Gemeinschaft. Angesichts der damals recht rudimentären Gestalt globaler Vernetzung stand im Vordergrund der Bemühungen zunächst der nutzergerechte Ausbau des Datenraums selbst.

Freie Software entwickelte wesentlich die Infrastruktur des Internet. Eric Allman von der University of California in Berkeley schrieb 1981 Sendmail für Unix, um den Austausch elektronischer Post zwischen dem Universitätsnetz, dem er angeschlossen war, und dem weitläufigeren Arpanet zu ermöglichen. Ebenfalls Anfang der achtziger Jahre entstand BIND - Berkeley Internet Name Domain -, das Protokoll, das bis heute die Eingabe simpler Namen statt jener Zahlenkolonnen erlaubt, aus denen die Netzadressen realiter bestehen. Weitere Beispiele für den Erfolg freier Software im Umfeld des Internet geben Perl (Practical Extraction Report Language), Python oder PHP. Perl, 1987 von dem Linguisten und damaligen Staatsangestellten Larry Wall entwickelt und zur freien Nutzung im Usenet veröffentlicht, war Anfang der neunziger Jahre die Standardsprache zum Entwickeln dynamischer Webinhalte, ohne die E-Commerce kaum denkbar gewesen wäre. Mittlerweile haben zwei andere freie Software-Entwicklungen diese Funktion weitgehend übernommen: Python, Anfang der neunziger Jahre von Guido van Rossum entwickelt, und PHP (ursprünglich Personal Home Page, heute verstanden als Abkürzung für PHP Hypertext Preprocessor), entstanden Mitte der neunziger Jahre im Kontext von David J. Hughes’ mSQL, einer ursprünglich freien relationalen Unix-Datenbank.

Das Internet spielte auch eine wesentliche Rolle für die Anfänge von Linux: Linus Torvalds, 1991 Student an der Universität von Helsinki, nutzte auf seinem Heimcomputer 386-Minix, eine experimentelle Version des auf Unix basierenden Minix-Lehrbetriebssystems. Um von seinem PC aus Usenet-Nachrichten oder E-Mail auf dem Universitätsserver lesen zu können, schrieb Torvalds eine eigene Terminalemulation. Um wiederum die zu nutzen, bedurfte es eines Neustarts, nach dem die üblichen Minix-Features nicht mehr zugänglich waren. Aus Torvalds Anstrengungen, das eigene Programm mit den Features zu verbinden, die Minix bot, entstand am Ende Linux. Glyn Moody betont in seinem Buch die historische Ironie: Weil Torvalds nicht ins Internet konnte, entwarf er ein Betriebssystem - das dann nur dank Internet überhaupt reifen konnte. In dieser engen historischen Verknüpfung zeigt sich entortete Echtzeitkommunikation als conditio sine qua non der Open-Source-Praxis. Ihre Konsequenzen sind technischer wie sozialer Art.

Zunächst einmal beschleunigte die Vernetzung die wissenschaftliche Basistechnik des ‘peer review’, bei dem Fachleute die Arbeiten von Kollegen begutachten. Kein anderes Verfahren hat über die Jahrhunderte hinweg die Produktion von Wissen so nachhaltig geprägt. Der ‘organisierte Skeptizismus’, wie Robert Merton in der Renaissance den aus der Antike überkommenen kritischen Dialog der Gebildeten nannte, garantiert die Qualität auf dem Markt des Wissens. Im 19. und 20. Jahrhundert, als die Verwissenschaftlichung von Wirtschaft und Alltag fortschritt, gewann die Expertenkritik an Bedeutung. Hinderlich war freilich im alltäglichen Zusammenhang der mit peer reviews verbundene Verlust an Zeit, da sie, wenn nicht teure Parallelgutachten in Auftrag gegeben werden konnten, vorrangig an die Publikation in Büchern und Zeitschriften gebunden waren. Und noch stärker wurde außerhalb des wissenschaftlichen Diskurses die Wirksamkeit von Expertenkritik durch die kommerzielle Praxis eingeschränkt, Firmenwissen nicht mit Außenstehenden zu teilen. Ohne freien Informationsfluss, ohne die Kommunität der Erkenntnisse, wie sie in der Wissenschaft üblich ist, konnten peer reviews nicht wirklich produktiv werden.

Beide Einschränkungen überwindet die Open-Source-Praxis. Dabei steigert sie zudem die Leistungsfähigkeit der tradierten Wissenstechnik. Wenn die Begutachtung von Verfahren und inhaltlichen Vorschlägen ohne Zeitverlust erfolgt, wandelt sich der Charakter von peer reviews so radikal, wie sich etwa transkontinentale Kommunikation verändert, wenn sie statt Briefen, die Wochen mit der Schiffspost unterwegs sind, Telefon oder Chat nutzt. Die Echtzeitbedingungen der Open-Source-Praxis schufen so ein interaktives dialogisches Produktionsmittel für geografisch zerstreute Gruppen. Ihr wichtigstes Kennzeichen ist, schreibt Eric Raymond, was Soziologen den ‘Delphi-Effekt’ nennen: den Umstand, dass die Zuverlässigkeit von Expertenentscheidungen mit der Zahl der Beteiligten steigt.

Die technologische Aufwertung des peer reviews durch die digitale Vernetzung ergänzt die Ausbildung virtueller Gemeinschaften. Erst der exponentielle Zuwachs an Internetnutzern in den achtziger und vor allem neunziger Jahren brachte dafür die kritische Menschenmasse. Seitdem sind Zusammenschlüsse zu nahezu jedem denkbaren Interesse lebensfähig - und in ihnen kollaborative Produktionen praktikabel. Dank des globalen Talentpools lassen sich qualitativ hochwertige Ergebnisse erzielen und zugleich der Einsatz an Arbeitskraft in der wichtigen, aus den ‘scientific communities’ vertrauten Währung der ‘peer recognition’ belohnen. Programmierer und Techniker, wo sie leben und für welche Firmen sie arbeiten mögen, lösen so in Open-Source-Projekten nicht nur ihre dringendsten technischen Probleme beziehungsweise die ihrer Arbeitgeber. Sie finden auch soziale Anerkennung durch Gleichgesinnte und Gleichqualifizierte, die ihre Leistungen angemessen zu würdigen verstehen.

Von Free Software zu Open Source

Die gänzliche Abhängigkeit der Open-Source-Praxis vom Einsatz digitaler Technik bindet ihre Fortschritte an deren Weiterentwicklung. Die Jahre um 1969/70 schufen insofern mit der Einführung des Mikroprozessors, der Etablierung der ersten nationalen Netzwerkknoten des Arpanet und der Geburt von Unix die Voraussetzungen für die in der Folge eskalierende Selbstermächtigung der Anwender, für die Etablierung von offenen Software-Standards und vor allem für die Ausbildung einer historisch gänzlichen neuen, potenziell globalen Produktionsgemeinschaft der Gleichen.

Der nächste qualitative Entwicklungssprung kündigte sich ab Anfang der achtziger Jahre an - im Gefolge der massenhaften Durchsetzung des PC und der zunehmenden Internationalisierung sowie Privatisierung des bis dahin primär amerikanisch-staatlichen Internet. Fortschritte in der Mikroprozessorherstellung, die Multimedia-PCs in einer Leistungsklasse erschwinglich machten, die bis dahin teuren Mikrocomputern vorbehalten gewesen war, sowie die Eröffnung des World Wide Web schufen dann die Voraussetzungen für den digitalen Boom der 90er Jahre. Diese Mischung aus technologischen Durchbrüchen und sozialer Durchsetzung der neuen Techniken war es, die den Weg für die Produktion und Akzeptanz von freier Software auf breiterer Basis ebnete.

Teil 2

c't 21/2001, S. 270: Open Source

Die neue Hackordnung

Aus der Open-Source-Geschichte lernen, Teil II

Die Softwarebranche als Laboratorium der Zukunft: Die Open-Source-Praxis entwickelt historisch neue Organisations- und Rechtsformen und damit Modelle für eine Überwindung der industriellen Ordnung.

Aus der Open-Source-Geschichte lernen: Von Richard Stallmans Versuch einer Neuordnung geistigen Eigentums über Linus Torvalds pragmatischer Neuorganisation der Arbeit zu Eric Raymonds Legitimierung der neuen digitalen Praxis - die Open-Source-Praxis als Modell geistigen Eigentums und kreativer Arbeit in der digitalen Epoche.

Viel zu geringe Aufmerksamkeit habe die Menschheit den untergründigen Religionskriegen der digitalen Epoche geschenkt, schrieb Umberto Eco einmal: Zweifelsfrei nämlich kämpften die Evangelisten des grafisch üppigen Macintosh für die katholische, himmelreichere Version des Rechnens, während die DOS-Anhänger mit protestantisch-lustfeindlicher Unerbittlichkeit daran gemahnen, dass es nicht jedem beschieden sei, erlöst zu werden. Ecos furiose Glosse für das italienische Magazin Espresso fing am Ende der Gründerjahre des PC ihren vergehenden Geist ein. Der Text erschien 1994, ein Jahr also, bevor Microsoft mit Windows 95 mehr oder weniger die Kopie des Mac OS gelang, und just um die Zeit herum, als unter weitgehendem Ausschluss der Weltöffentlichkeit - weil nur in Finnland und im noch kaum bevölkerten Cyberspace - Linux 1.0 veröffentlicht wurde [3].

Das freie Betriebssystem sollte zwar mit verblüffender Schnelligkeit das ungleiche Desktop-Duopol von Macintosh und DOS/Windows unterminieren und zur wesentlichen dritten Kraft werden. Doch an dem eifernden Charakter der Auseinandersetzungen änderte es nichts. Im Gegenteil: Viele, die Bill Gates als Antichrist verteufelten, verehrten Linus Torvalds bald als Heiland. Steven Johnson etwa stellte in Feed, der von ihm herausgegebenen einflussreichen (und im Juni 2001 eingestellten) Online-Zeitschrift, die Veröffentlichung von Linux in eine Reihe mit dem Port-Huron-Statement, dem Epoche machenden Manifest, das 1962 einer ganzen Generation amerikanischer Studenten die Protest-Agenda setzte. Neutralere Beobachter bestaunten eher den virulenten Messianismus im Umkreis der Open-Source-Bewegung. Mit ‘Luthers Übersetzung der Bibel in die Volkssprache’ werde Linux verglichen, wunderte sich Harvey Blum in der Online-Ausgabe des ehrwürdigen Magazins Atlantic und zitierte den Perl-Erfinder Larry Wall, der Open Source als Software-Ausdruck der alten christlichen Botschaft beschreibt, dass die Schöpfung nicht abgeschlossen und der Mensch mit freiem Willen und der Fähigkeit zur kreativen Kollaboration begabt sei.

Ihren Anhängern bedeutet freie Software so je nach Ausrichtung politische Revolte, religiösen Sinn und auch große Kunst: 1999 wurde das Betriebssystem Linux für seine Verdienste um eine demokratische Digitalisierung mit dem Prix Ars Electronica ausgezeichnet. Linus Torvalds selbst erfreut sich folgerichtig, wie Andrew Leonard in seiner Open-Source-Geschichte feststellt, ‘des am schnellsten wachsenden Personenkults in der Welt der Technologie’.

Damit spielt Torvalds heute in der Open-Source-Szene eine ähnliche Rolle wie Richard Stallman in den achtziger Jahren innerhalb der Free-Software-Bewegung. Damals war die Entwicklung freier Software durch technologische Fortschritte ebenfalls an eine neue Schwelle getreten. Die Selbst-ermächtigung der Anwender, die mit der Time-Sharing-Bewegung der sechziger Jahre begann, hatte im Zuge der beginnenden Vernetzung in den USA während der siebziger Jahre zur Ausbildung einer Vielzahl offener Produktionsgemeinschaften geführt (Prinzip 1 im ersten Teil [2]). Diese lockeren Gruppen von Programmierern machten Unix damals zum wichtigsten Betriebssystem für Mikrocomputer. Ebenso etablierten sie freie Software und offene Protokolle sukzessive als Standards in zentralen Bereichen der verschiedenen Netze (Prinzip 2). Die wichtigste Innovation war dabei die Beschleunigung des ‘peer review’ auf Echtzeit. Sie verwandelte das Werkzeug wissenschaftlicher Kritik in ein interaktives dialogisches Produktionsmittel für geografisch zerstreute Gruppen (Prinzip 3).

Anfang der achtziger Jahre kam es dann zu zwei entscheidenden Innovationen: Die Einführung von TCP/IP ermöglichte die Verbindung der wachsenden Zahl unverbundener öffentlicher und privater Netze zum Internet. Gleichzeitig ließen Leistungssteigerung und Verbilligung Personal Computer in vielen Bereichen an die Stelle der teureren Mikrocomputer treten. Damit entstand das Bedürfnis, freie Software auch für PCs zu produzieren.

Prinzip 4

Geistiges Gemeineigentum

Diese Nachfrage zu erfüllen, setzte sich Richard Stallman vom Artificial Intelligence Laboratory des MIT zum Ziel. Seinen Ruf als Experte für freie Software hatte er sich seit 1975 mit Emacs erworben (kurz für Editing MACroS). In diversen Varianten ist das Programm bis heute einer der besten Texteditoren und ein unentbehrliches Werkzeug zur Softwareproduktion. 1984 initiierte Stallman dann das GNU-Projekt zur Schaffung einer freien PC-Version von Unix. 1985 gründete er die Free Software Foundation. Mit seinen einflussreichen Non-Profit-Initiativen sorgte er so dafür, dass freie Software auch in den Zeiten von Microsofts erfolgreichem Streben nach Desktop-Dominanz lebensfähig blieb. Belohnt und geehrt wurde Stallmans Engagement 1990 mit dem hoch dotierten MacArthur Genius Grant.

Dass allerdings Anhänger freier Software damals plötzlich eine eigene Institution für notwendig hielten, zeugt von den Anfängen sozialen Selbstbewusstseins. Mit der Stiftung versuchte Stallman, die Programmier- und Distributionspraxis, die sich in den siebziger und frühen achtziger Jahren naturwüchsig herausgeschält hatte, auch intellektuell zu begreifen und vor allem durch neuartige Formen sozialer und juristischer Verträge abzusichern. Vorrangigstes Ziel war (und ist) es dabei, die Freiheit von Software zu gewährleisten - worunter primär die Freiheit der Nutzer zu verstehen ist, Programme zu kopieren, weiterzuverteilen und den eigenen Bedürfnissen gemäß zu verändern.

Dementsprechend formulierte die Stiftung eine General Public License (GPL). Sie leitet seit anderthalb Jahrzehnten juristisch die Veröffentlichung freier Software an. Ihr Grundgedanke ist das dem Copyright durchaus ironisch entgegengesetzte Copyleft. Es erlaubt, geistiges Eigentum anderer beliebig zu modifizieren und auch profitabel zu vertreiben, solange das neue Produkt freien Zugang zum Quellcode gewährt. Verboten sind unter der GPL also proprietäre Hinzufügungen, die für die Zukunft die Freiheit des peer review und damit Verbesserungen verhindern.

Mit ihrem neuartigen Ansatz zur Regelung geistigen Eigentums schuf die Free-Software-Foundation ein folgenreiches Modell - viele Jahre, bevor das Internet zum Medium der Massen wurde und in ihm nicht nur Programme, sondern auch digitalisierte Texte, Töne und Bilder mehr oder weniger frei kursieren konnten. Heute nun, da die technische und damit praktische Unhaltbarkeit geltender Copyrightbestimmungen zu Tage liegt und Fragen geistigen Eigentums zu einem zentralen Konfliktfeld der Digitalisierung geworden sind, wird die Hellsicht deutlich, mit der sich Stallman bereits vor bald 20 Jahren dem Problem stellte. Gleichzeitig aber erlaubt der historische Abstand auch, die Verhaftung der Free-Software-Bewegung im Zeitgeist und die daraus resultierenden Mängel ihrer Lösungsangebote zu erkennen.

Gegenkulturelle Wurzeln, libertäre Früchte

Nicht nur Stallmans damalige Äußerungen, auch die GPL waren beeinflusst von Werten und Haltungen der alten Hippie-Hacker-Gegenkultur. Typisch für deren Ziele war der Schlachtruf des Hypertext-Erfinders Ted Nelson: ‘Computer Power to the People’. Er verlangte Anfang der siebziger Jahre nach einer radikalen Demokratisierung des bürokratisch-elitär geregelten Zugangs zu den wenigen und teuren Rechnern. Diesen guten Zweck gedachte man allerdings durch Vergesellschaftung des Vorhandenen zu erreichen. Zehn Jahre später, zurzeit der Stiftungs-Initiative, äußerten sich die antikapitalistischen und eigentumsfeindlichen Wurzeln der Free-Software-Ideologie noch im changierenden Gebrauch des Adjektivs frei. Software sollte mal frei sein im libertären Sinne von freier Liebe und freier Meinungsäußerung, mal frei im sozialistischen Sinne von Freikarten und Freibier - und in der Regel möglichst beides.

Zwar besaß die Forderung nach freierem Zugang zu Computern und Programmen in den sechziger und siebziger Jahren ihre Berechtigung, da digitale Technologien für Normalbürger praktisch unerschwinglich waren. Mit der Durchsetzung des PC als Konsumgegenstand wurde die Forderung nach Gratis-Hard- oder Software jedoch zunehmend gegenstandslos. Statt durch Verwaltung des vorhandenen Mangels erwirtschaftete der Kapitalismus einmal mehr massenhafte Verfügung durch produktiven Zuwachs. Die stete Verbilligung von Hard- und Software ließ denn auch innerhalb der Free-Software-Bewegung in den neunziger Jahren libertäre Gedanken über die sozialistischen siegen.

Demokratische Kontrolle

In der Gegenwart sind die Grundgedanken des Copyleft gar zum politisch wie wirtschaftlich interessanten Eigentumsmodell geworden - für den immer mehr zur Regel werdenden Fall geistiger Produkte, die nicht individuell, sondern in Kollaboration geschaffen wurden. Was nämlich unter einer Perspektive, die vom einzelnen Schöpfer ausgeht, einer Enteignung gleicht, bewirkt im Falle kollektiver Kreation gerade das Gegenteil: indem es die übliche individuelle Aneignung gemeinschaftlich geschaffener Werte durch private oder juristische Personen verhindert.

Die meisten Programme - wie im Übrigen viele andere Varianten intellektueller Schöpfung beziehungsweise geistigen Eigentums, von Filmen bis zu Forschungsprojekten - entstehen heute als Ergebnis einer Vielzahl von Einzelanstrengungen. Individuelle und ausschließliche Besitztitel entsprechen diesen Arbeitsprozessen nicht. Zudem verhindern sie eine freie Weiterentwicklung durch interessierte Gruppen, selbst durch die ursprünglichen Mitarbeiter. Gegenüber einem wesentlichen Teil der avanciertesten Produkte der Wissensgesellschaft versagt so die Patent-Haltung zum geistigen Eigentum. Gerecht wird ihnen eher ein anderes, allemal so bewährtes Modell: das akademische.

Gegen den Einwand von Microsofts Vizepräsident Craig Mundie, die GPL entwerte die Idee kreativer Arbeit, wendete denn auch Red-Hat-CTO (Chief Technology Officer) Michael Tiemann ein, dass dies genauso wenig der Fall sei, wie die Abschaffung der Sklaverei einst die Idee des Privateigentums schmälerte: ‘Da Software mehr und mehr Teil unseres Lebens wird, die Basis unserer Kommunikation und die Verkörperung unserer persönlichen Identität, sollten wir, das Volk, nicht diejenigen sein, die über die Freiheit verfügen, die Software zu kontrollieren (und nicht umgekehrt)?’

In der Wissensgesellschaft gehört, wie Harvard-Jurist Larry Lessig im Microsoft-Monopol-Prozess deutlich machte, eine demokratische Kontrolle über die digitale Infrastruktur unabdingbar zur Erhaltung von intellektueller und wirtschaftlicher Freiheit. Programme und Protokolle ermöglichen und limitieren zugleich zivilisatorische Erfahrungen. Was den Alltag so nachhaltig prägt und wovon auch das Überleben unzähliger Unternehmen abhängt, kann nicht auf Dauer Privatbesitz und außerhalb des Einflusses der Mehrheit der Anwender bleiben. ‘Die brutale Wahrheit ist einfach die’, schreibt Eric Raymond in ‘The Magic Cauldron’: ‘Wenn die entscheidenden Vorgänge in deinem Geschäft von undurchsichtigen Bits abhängen, in die du keinerlei Einsicht hast (mal ganz abgesehen davon, dass du sie nicht verändern kannst), dann hast du die Kontrolle über deinen eigenen Laden verloren. Du brauchst deinen Lieferanten mehr, als der dich braucht - und du wirst für dieses Ungleichgewicht der Kräfte bezahlen, mehr und immer mehr.’

Verstaatlichung oder staatliche Kontrolle, die in der industriellen Epoche übliche Lösung solcher Infrastrukturprobleme, bedeutete jedoch, den Teufel des wirtschaftlichen Monopols mit dem bürokratischen Beelzebub auszutreiben und technologischen Stillstand zu riskieren. Dass die Mehrheit der US-Computernutzer dem Versuch skeptisch gegenübersteht, Microsoft auf die eine oder andere Weise unter Staatsaufsicht zu stellen, hat darin seinen Grund. Einen moderneren Ansatz zur demokratischen Kontrolle der digitalen Infrastruktur bietet dagegen die Open-Source-Praxis.

Wie existenziell sie für die Wohlfahrt der gesamten Menschheit werden könnte, deutet die Verschmelzung von Informatik und Genetik an. Bei vielen geschützten Programmen, deren Quellcode als Kronjuwelen einer Firma geheim gehalten werden, geht es bereits um genetisches Wissen - um die Programme unseres Lebens. Auf dem Gebiet der Bioinformatik braucht es daher wie auf keinem anderen freie Verfügbarkeit von Informationen. Permanenter peer review kann Missbrauch verhindern und - wichtiger noch - die Forschung beschleunigen. Proprietärer Besitz hingegen, der die Mehrheit der Wissenschaftler von der Mitarbeit ausschließt, kostet Zeit und damit Leben. ‘Wir können uns’, sagen Experten wie Drew Endy vom Molecular Sciences Institute in Berkeley, ‘ein biologisches Microsoft nicht leisten.’ Die Erfolgsgeschichte von Linux deutet die Alternative an.

Prinzip 5

Die neue Hackordnung

Mit Intels 386er-Prozessor und verbilligten Speichermedien wurde Anfang der neunziger Jahre erstmals digitales Gerät für Privatleute erschwinglich, das so leistungsfähig war wie zuvor nur Mikrocomputer zum Preis einer Luxuslimousine. Mit den neuen PCs wuchs der Bedarf nach entsprechend professioneller Software. Stallmans GNU wie auch andere experimentelle Anläufe, Unix zu portieren, waren jedoch noch nicht weit genug gediehen. Zu einem epochalen Entwicklungssprung hatte dagegen das Internet angesetzt - dank seiner Internationalisierung und Privatisierung, vor allem aber dank eines weiteren Beispiels freier Software. Timothy Berners-Lee, damals am CERN-Institut in Genf, heute MIT, veröffentlichte 1991 die Software, die das World Wide Web begründete - in akademischer Tradition ohne jeden Copyright-Anspruch. Das freie WWW verdrängte binnen weniger Jahre andere Ansätze, das Netz benutzerfreundlicher zu machen, etwa das um 1990 erfolgreiche Gopher-System, auf das jedoch 1993 die Universität von Minnesota kommerzielle Ansprüche erhob.

Aus der explosiv wachsenden Online-Bevölkerung rekrutierten sich die Programmierer für Linus Torvalds’ Projekt eines Unix-Kernels für 386er-Prozessoren. Was sie in so überraschend großer Zahl zu Linux zog, war eine zentrale Innovation. Sie beschreibt Eric Raymond in seinem Manifest ‘The Cathedral and the Bazaar’, das 1997 am Anfang der formellen Gründung der Open-Source-Bewegung stand: ‘Das wichtigste Feature von Linux war nicht technisch, sondern soziologisch.’ In der freien Softwarebewegung nutzte man zwar schon vorher das Internet zur Kommunikation und Übermittlung von Code. Doch die Organisation größerer Projekte hatte sich den neuen technischen Möglichkeiten kaum angepasst. Bei aller geografischen Zerstreutheit bildeten die Beteiligten recht geschlossene Hierarchien, die ihre Arbeitsergebnisse nur untereinander austauschten und Programme erst nach Fertigstellung veröffentlichten.

Torvalds brach mit dieser Tradition. Er verzichtete so weitgehend wie niemand vor ihm auf Zwangsjacken in der industriellen Tradition. Es gab kaum lineare Abschnitts- und Terminplanungen, keine hierarchischen Vorgaben und restriktiven Zugangskontrollen. Grundsätzlich konnte sich jeder beteiligen. Neuen Code testete Torvalds nicht lange intern, er veröffentlichte ihn vielmehr in schneller Folge im Internet. Das Auffinden von Fehlern und ihre Beseitigung blieb damit weitgehend der globalen Gemeinschaft überlassen. Mit dem Fortschreiten des Projekts kam es zudem zu einer modularen Strukturierung, die Verantwortung für Teilbereiche auf interessierte Subgruppen übertrug. An jeder Aufgabe arbeiteten so jeweils Menschen, denen ihr Part nicht zugeteilt worden war, sondern die ihn sich ihren Qualifikationen und Motivationen entsprechend ausgesucht hatten.

Dieser sozialen Innovation verdankte sich der enorme Anklang, den Torvalds Bitte um Mithilfe fand. Globale Offenheit statt lokaler Geheimniskrämerei, Einbeziehung Interessierter statt Ausgrenzung fremder Hilfe, dynamische Selbstorganisation statt statisch-linearer Planvorgaben, Zeitsouveränität statt Fremdbestimmung, Eigenverantwortlichkeit statt verwalteter Kontrolle, permanente peer reviews statt Beurteilungen durch Vorgesetzte und Management - mit dieser gebündelten Abkehr vom Vorbild industrieller Arbeitsorganisation entwarf das Linux-Projekt bereits in seiner Frühzeit ein Modell vernetzter Wissensproduktion. Richard Gabriel von SUN beschreibt es als ‘eine Art semi-chaotische, selbst organisierende Verhaltensstruktur, in der zahlreiche kleine Reparatureingriffe schnell zum Aufbau komplexer und massiver Kreationen führen können.’

Entscheidend für den Erfolg von Linux war neben der optimalen Nutzung der technischen Produktivkräfte zur entorteten Echtzeit-Kollaboration die ebenfalls verbesserte Nutzung der knappen Ressource menschlicher Kreativkraft - die gesteigerte Motivation der Mitarbeiter. Denn die Linux-Praxis gewährte Arbeits- und Gemeinschaftserfahrungen, die im Gegensatz nicht nur zur verwalteten kommerziellen Softwareproduktion, sondern auch zur bis dahin üblichen Organisation freier Projekte standen. Die Befriedigung, die viele Mitarbeiter in ihrer Arbeit fanden, erinnerte vielmehr an die durch wissenschaftliche oder künstlerische Arbeiten. Sie werden ja gleichfalls nicht fremdbestimmt, zu festen Arbeitszeiten und allein zum Zwecke des Lebensunterhalts aufgeübt. Bei ihnen geht es wesentlich auch um das eigene Selbstwertgefühl und Ansehen in der Gemeinschaft.

Historische Vorbilder solch kollaborativer Produktion, die schon zu analogen Zeiten auf die Open-Source-Praxis vorausweisen, finden sich in den Experimenten der künstlerischen Avantgarden des 20. Jahrhunderts, etwa in Techniken der Appropriation - der kreativen Aneignung fremden Materials wie etwa beim Collagieren und Sampling - und vor allem in den Schreibspielen der Surrealisten. Diese Nähe der Open-Source-Praxis zur Kunst lässt sich nicht nur im historischen Rückblick feststellen. Sie prägt durchaus die aktuelle Praxis. Davon zeugen die Selbstäußerungen führender Vertreter der Free-Software- und Open-Source-Gruppen, die immer wieder von Selbstausdruck und Selbstverwirklichung sprechen. Eric Raymond zum Beispiel schreibt in ‘The Cathedral and the Bazaar’: ‘Ich tue, was ich tue, primär als künstlerische Befriedigung.’

Open Source: die Theorie zur Praxis

Im Zentrum seines 1997 verfassten Open-Source-Manifestes steht denn auch die Auflösung der kapitalistischen Kontrollwirtschaft. An ihre Stelle tritt, schreibt er, ein Modell der Arbeit, das lineare Planungshierarchien, wie sie beispielsweise den Bau einer Kathedrale prägen, durch die offenen, von Gleichberechtigung ausgehenden Transaktionsstrukturen eines Bazars ersetzt. Raymonds Thesen, die er auf Kongressen vortrug und im Internet publizierte, fanden weiten Anklang - nicht zuletzt, weil sie der zunehmend erfolgreichen Praxis freier Software ein theoretisch-historisches Fundament verliehen und dabei gleichzeitig den ideologischen Ballast abwarfen, der Stallmans Free-Software-Bewegung gehindert hatte, breitere Akzeptanz zu finden.

Zu den prominentesten Lesern, die sich von Raymonds Manifest beeinflussen ließen, gehörte Netscape-Gründer Jim Barksdale. Er fasste den Entschluss, mit der industriellen Geheimniskrämerei zu brechen und den Quellcode des Netscape-Browsers zu veröffentlichen. Ironischerweise popularisierte damit die Firma, deren Börsengang keine drei Jahre zuvor das Internet als Geschäftsgelegenheit ins Bewusstsein der breiten Öffentlichkeit katapultiert hatte, nun auch Anfang 1998 die Gegenbewegung. Nach Jahren eher verborgenen Wirkens gerieten die Vertreter der freien Software ins Licht der Medien. Raymond beschloss, die Gunst der Stunde zu nutzen. Er, Bruce Perens und andere Anhänger suchten nach einem pragmatischen Slogan, einem treffenden Markenzeichen, das anders als der von Stallman, dem Kommunarden des Code, geprägte Begriff der ‘Free Software’ nicht mehr die sozialistischen Träume der analogen Gegenkultur der sechziger Jahre assoziieren ließ.

Mit Open Source fanden sie die magische Wortkombination. Der Begriff war mehr als eine unverdächtige und mehrheitsfähige Sprachregelung. Er erfasste, was sich durch Linux verändert hatte. War Free Software der Kampfbegriff einer kleinen Minderheit gegen die erdrückende und Veränderungen unterdrückende Übermacht proprietärer Produkte gewesen, so entsprach die konsensträchtige Rhetorik der Open-Source-Bewegung der Realität des Jahres 1998: dem massenhaften Erfolg bei den avanciertesten Anwendern, dem Aufstieg der freien Software vom subkulturellen Billigparia zum technologisch ernst zu nehmenden Konkurrenten und vor allem auch zum leistungsfähigen Wirtschaftspartner. Denn bereits zwischen 1992 und 1994, dem Jahr, als Linux 1.0 veröffentlicht wurde, waren erste und durchaus erfolgreiche Open-Source-Firmen entstanden.

Prinzip 6

Geschäftsmodell konkurrierender Kollaboration

Deren Geschäftsmodell weicht freilich von dem traditioneller Softwarefirmen dramatisch ab. Im Verhältnis zu anderen Open-Source-Anbietern ersetzt es die übliche Konkurrenz mittels proprietärer Angebote durch so genannte coopetition, eine Mischung aus Zusammenarbeit (cooperation) in technologischer Hinsicht und Konkurrenz (competition) im serviceorientierten Wettbewerb um die Kunden. Diese Konzentration auf Service wiederum beruht auf der Einsicht, dass Software - die immaterielle Abspaltung der in mechanischen und industriellen Maschinen materiell gefangenen Algorithmen - ihrem Charakter nach eben kein abgeschlossenes industrielles Produkt darstellt, sondern vielmehr einen prinzipiell nach hinten offenen Prozess. Jede Version ist nur eine Stufe in einem steten Entwicklungsvorgang, der auf die Befriedigung der sich wandelnden Ansprüche der Anwender zielt. Auch gratis erhältliche Open-Source-Software bietet daher reichlich Service- und damit Geschäftsgelegenheiten. Firmen wie SuSE, gegründet bereits 1992, oder Red Hat und Caldera, beide 1994, sammeln aus der Menge freier Software, die sich im Netz akkumuliert, funktionierende Pakete zusammen, sorgen für die Komplettierung des einen oder anderen fehlenden Elements und verleihen ihrem Auswahlangebot durch Supportleistungen gesteigerten Gebrauchswert.

Dieser Erfolg der letzten zwei, drei Jahre verdankte sich wesentlich der intellektuellen und institutionellen Open-Source-Plattform von 1998. Mit ihr wurde der freien Software der Weg in die Geschäftswelt geebnet. Das nützte den Open-Source-Firmen nicht zuletzt deshalb, weil es damals binnen weniger Monate gelang, mächtige Verbündete zu gewinnen. Zu ihnen zählen heute Intel, Oracle, Dell und vor allem IBM, das allein dieses Jahr eine Milliarde Dollar für die Durchsetzung von Linux ausgeben will. Der Einsatz der etablierten Firmen für Open-Source-Ware - neben Linux insbesondere auch für Apache - sowie die gelegentliche Freigabe von eigenem Quellcode (‘outsourcing to Open Source’) hat die Akzeptanz von freier Software erhöht und die Nutzerbasis stark verbreitert.

Gewissen ökonomischen Rückschlägen im Gefolge der dot.com-Krise zum Trotz, zeichnet sich ein Ende der Neunziger-Jahre-Erfolgsgeschichte von Linux und anderer offener Software, wie es viele Skeptiker nach den schnellen Anfangserfolgen befürchteten, denn auch bislang nicht ab. Eric Raymond behauptet im Gegenteil einen doppelten historischen Trend zu offenen Systemen. Er zeige sich zum einen im Zyklus einzelner Programme, die mit zunehmendem Alter gegenüber innovativer Konkurrenz nur bestehen können, indem sie zu De-facto-Standards avancieren. Als Beispiel führt Raymond Doom an: Die Veröffentlichung des Quellcodes zog eine Vielzahl freier Entwickler an, die dem Spiel neues Leben einhauchten und so seine Auswertungszeit verlängerten.

Zum zweiten aber tendiere die Digitalisierung grundsätzlich zur Etablierung offener Standards. Vom Fünfziger-Jahre-Chaos proprietärer Betriebssysteme und Programme, deren Daten nicht einmal zwischen Computermodellen desselben Herstellers austauschbar waren, führe so über proprietäre Standardisierungen, wie sie Microsoft leistete, eine gerade Entwicklungslinie zu offenen Standards, wie sie sich mit Linux ankündigen. Ob Raymonds Behauptung eines solchen langfristigen Trends stimmt oder nicht: Gegenwärtig gewinnt die Open-Source-Bewegung unentwegt an Tempo - vorangetrieben durch Microsofts eskalierende Rücksichtslosigkeit, aber auch durch die unbestreitbaren praktischen wie politischen Vorteile des Systems und nicht zuletzt, wie Andrew Leonard in Wired schrieb, ‘von einem wachsenden sozialen Bewusstsein, dass das Teilen von Informationen funktioniert’.

Jenseits von Software

Die Open-Source-Praxis erscheint daher als eine epochale kulturelle Anpassungsleistung an die Möglichkeiten, die sich mit digitalen Technologien und der globalen Vernetzung eröffneten. Ihr Siegeszug geht an die Wurzeln der industriellen Ordnung. Auffällig sind dabei Parallelen zur Industrialisierung vor rund 200 Jahren. Im Vergleich erlauben sie ein distanzierteres Verständnis des historischen Prozesses, dessen unmittelbare und daher leicht bewusstlose Zeitgenossen wir sind. Denn auch damals betrieben neue Technologien die Überwindung der etablierten Strukturen. Und auch damals standen im Zentrum der Entwicklung die beiden Elemente, um die heute wieder gerungen wird: die Verfügung über geistiges Eigentum und eine bessere, weil den neuen Technologien entsprechendere Arbeitsorganisation.

Bei dem Wandel im Umgang mit intellektuellem Kapital nach 1800 ging es zunächst darum, im Interesse des industriellen Fortschritts die Rechte an innovativem geistigen Besitz zu sichern. Denn erst solche juristischen Garantien ermöglichten im Rahmen der ebenfalls neu geschaffenen Rechtsformen industrieller Firmen die private Kollektivfinanzierung von Großkonzepten wie der Errichtung großer Fabriken oder dem Ausbau der Eisenbahn. Eine radikale Modernisierung und institutionelle Absicherung des Patent- und Urheberrechts begann. In der Frühzeit der Industrialisierung vollendeten sich damit Bestrebungen nach einer tendenziellen Gleichstellung von materiellem und geistigem Besitz.

Eingesetzt hatten sie bereits im 17. Jahrhundert als Folge von Mechanisierung und Verbürgerlichung. Unter agrarisch-feudalen Verhältnissen war eine Emanzipation des geistigen Kapitals jedoch von marginalem sozialen Interesse und politisch wie praktisch nur partiell zu realisieren. Erst mit der Industrialisierung erhielt das Streben der bürgerlichen Intelligenz nach patent- und urheberrechtlichem Schutz ihrer Arbeit gesteigerte soziale Dringlichkeit und wurde im Interesse industriellen Fortschritts gelöst. Im 19. Jahrhundert etablierte sich so ein historisch neuer Begriff identifizierbaren geistigen Privateigentums, abgesichert durch entsprechende gesetzgeberische Maßnahmen, neue Institutionen wie zum Beispiel nationale Patentämter und auch internationale Abkommen.

Die Neuordnung geistigen Eigentums

In seinen Details wurde dieses industrielle Verständnis geprägt von der materiellen Repräsentation intellektuellen Besitzes, seiner mechanischen Reproduktion und realweltlichen Distribution. Die gegenwärtige Ersetzung analoger Technologien durch digitale stellt wesentliche Elemente des damals etablierten industriellen Umgangs mit geistigem Besitz wieder in Frage. Nicht nur fallen mit digitaler Reproduktion und Distribution zunehmend die nöti-gen Kontrollmechanismen aus. Obendrein bremst das überholte System der Eigentumssicherung heute schon digitalen Fortschritt so nachhaltig, wie vor 200 Jahren umgekehrt der Mangel an Eigentumsgarantien die Finanzierung der industriellen Entwicklung hemmte. Free-Software- und Open-Source-Bewegung scheinen insofern einen Ausweg aus den industriellen Verhältnissen aufzuweisen. Auch für die zunehmend wünschenswerte Öffnung des zivilisatorischen Wissens nach ihrem GPL-Vorbild gibt die Frühzeit der Industrialisierung ein historisches Beispiel: die Ver-Öffentlichung der privaten Bibliotheksbestände von Adel und Kirche.

Bücher waren zur Zeit der bürgerlichen Revolution das dominierende Speichermedium für zivilisatorisches Wissen. Sie standen daher im Zentrum des sozialen Machtkampfes. Die um 1800 im großen Maßstab teils konfiszierten, teils aufgekauften Bände wurden in der ersten Hälfte des 19. Jahrhunderts zur materiellen Grundlage einer gänzlich neuen industriellen Organisations- und Distributionsform von Informationen, zentriert um öffentliche und neugegründete nationale Bibliotheken. Der Bestand etwa der Pariser Bibliothèque Nationale, eröffnet 1795, verdoppelte sich durch Zwangsakquisition binnen zwei Jahrzehnten auf über 600 000 Bände. Ähnliches geschah im deutschsprachigen Raum. Die Frühzeit der Industrialisierung sah so die Geburt des modernen, an den staatlichen Bürokratien orientierten Bibliothekswesens mit seinen Signaturen, Standnummern, Magazinen und innovativen Klassifikationen wie etwa Melvil Deweys Dezimalsystem aus dem Jahre 1873.

Historisch notwendig wurde die Entprivatisierung, Ver-Öffentlichung und Umorganisierung des Buchbestandes im 19. Jahrhundert aus ökonomischen Gründen: Die technologische Aufrüstung der Arbeitsprozesse in den Fabriken und noch mehr der Ausbau nationaler Bürokratien zur Verwaltung der industriellen Massen verlangten nach qualifizierteren Arbeitskräften, als sie unter den Bedingungen agrarisch-feudaler Wissensvermittlung in ausreichender Zahl entstanden. Wissen wurde damit von einem Luxus der Oberschichten zu einem existenziellen Überlebensmittel. Der politische Kampf um Volksbildung, die Umwandlung von individueller Bildung in massenhafte Ausbildung begann.

Die Bibliotheken waren zentrale Agenturen dieses Prozesses. Ihre Philosophie war die akademische. Sie unterschied zwischen materiellen Gegenständen, deren Menge begrenzt war und durch Verbrauch im Wert reduziert wurde, weshalb mit ihnen sparsam umzugehen war, und intellektuellem Kapital, dessen Wert sich durch Gebrauch nicht reduzierte, sondern durch Verbreitung sogar wuchs. Öffentliche Bibliotheken stellten die dem Stand der Reproduktionstechniken angemessene Kompromissform dar: Sie machten das in dem begrenzten Vorrat an gedruckten Büchern gespeicherte Wissen einer maximalen Menge von Menschen zugänglich.

Die revolutionäre, mittels juristischer Zwangsmaßnahmen durchgesetzte Ver-Öffentlichung der Buchbestände stellte von daher eine der wichtigsten kulturellen Adaptionsformen an die gewandelten Erfordernisse der Industrialisierung dar. Vergleichbares beginnt sich nun an der Schwelle zur digitalen Epoche zu vollziehen. Erneut wird eine historische Anpassung im Umgang mit dem zivilisatorischen Wissen notwendig. Die Bedeutung der digitalen Infrastruktur wächst. Ihre Nutzung wandelt sich von einem Luxus oder Hobby zur sozialen und ökonomischen conditio sine qua non. Je unverzichtbarer aber Software wird, desto weniger kann der Mangel an Kontrolle durch die Anwender bestehen. Angesichts des akzelerierten Entwicklungstempos wie auch des gewandelten Demokratieverständnisses kommen in der digitalen Epoche freilich hierarchische Bürokratien nicht mehr als Medium einer notwendigen öffentlichen Kontrolle in Frage. Diese Rolle fällt neuartigen beweglicheren, effektiveren und vor allem offeneren Strukturen zu. Für sie bietet die Open-Source-Praxis ein Modell.

Demokratisierung der Arbeit

Den Ansätzen zu einer digitalen Ver-Öffentlichung des zivilisatorischen Wissens, wie sie die GPL leistet, entspricht eine zweite, ebenso historische Open-Source-Innovation: die Ansätze zur Überwindung der industriellen Arbeitsorganisation. Fabrik wie Bürokratie raubten im 19. Jahrhundert den Individuen die Zeitsouveränität, die sie in der agrarischen und handwerklichen Produktion genossen hatten. Deren Abläufe waren nicht auf das quantitative Abarbeiten von Zeit gerichtet gewesen, sondern auf qualitative Aufgabenerfüllung wie Aussaat und Ernte oder die handwerkliche Erledigung von Aufträgen. Erst unter industriellen Bedingungen wurde Arbeitszeit für die Mehrheit der Menschen zur Fremdzeit, zu einem Teil des Tages, an dem physische Anwesenheitspflicht herrscht und erwachsene Bürger durch Anweisungen und Beaufsichtigung systematisch entmündigt werden.

Was Jahrtausende selbstverständlich gewesen war - dass man sich die eigene Arbeit relativ selbstständig nach sachlichen Erfordernissen einteilte -, wandelte sich zum Privileg und blieb die Regel allein in Nischen des hoch qualifizierten Handwerks und künstlerischer oder wissenschaftlicher Tätigkeiten. Die überwiegende Mehrheit der Menschen verrichtete ihr Tagewerk dagegen im 20. Jahrhundert unter dem Zeichen des Taylorismus. Das von Frederick Winslow Taylor entwickelte hierarchische Managementsystem seziert im Interesse einer möglichst ökonomischen Organisation maschinengestützter Produktion die Arbeitsvorgänge und menschlichen Bewegungen. Indem der Taylorismus dem Einzelnen Bewegungsfreiheit und Eigenzeit nimmt, um ihn zum Anhängsel der Maschine und insbesondere des Fließbands zu machen, steigert er die mechanische Effizienz - und vernichtet psychische Motivation und auf Selbstständigkeit basierende Kreativität.

Die industrielle Ordnung der Arbeit machte sie so zur Last - weshalb ihre Verwalter auf eine Vielzahl von Kontroll- und Zwangsmaßnahmen sowie auf eine stete Steigerung der finanziellen Anreize angewiesen waren. Unter analogen Bedingungen ließ sich daran kaum rütteln. Alle utopischen Gegenbewegungen scheiterten an den Sachzwängen industrieller Technologie. Erst mit der Digitalisierung schuf sich die Menschheit die nötigen Voraussetzungen, um das Joch industrieller Arbeit abzuschütteln. Das Linux-Projekt war in den neunziger Jahren dafür wegweisend, indem es die globale Vernetzung nicht länger nur zur Kommunikation, sondern für eine prinzipielle Umorganisation der Arbeit nutzte.

Ausgehend von der Tradition der Anwender-Selbstermächtigung und aufbauend auf den Betriebssystemen und der digitalen Infrastruktur, die freie Software in den siebziger und achtziger Jahren geschaffen hatte, setzte Torvalds gleichsam naturwüchsig abstrakte digitale Werte praktisch um; insbesondere Enthierarchisierung und Dezentralisierung. Ihnen entsprachen die beiden zentralen Praktiken der Rekrutierung von Arbeitskraft auf dem Wege der globalen Selbstselektion und ihr zeitlich selbstbestimmter Einsatz. Nicht die Arbeitsteilung, wohl aber die Arbeitszuteilung wurde aufgehoben. An die Stelle von überwachender Kontrolle trat Eigenverantwortlichkeit in autonomen Teilbereichen.

DigitaleAvantgarde

Darin gibt die Open-Source-Praxis ein Modell sozialer Organisation von Arbeit und speziell Wissensproduktion in der digitalen Epoche. Die Forschung, der das Prinzip des peer review als Medium der Kritik ursprünglich entstammt, kann von dessen Echtzeitbeschleunigung zum Mittel der Erkenntnisproduktion ebenso lernen wie weite Bereiche der Wirtschaft. Der Einsatz digitaler Techniken etwa zum Zwecke von Kollaborationsstrukturen mag es erlauben, auf einengende lineare Planungen zu verzichten, um Selbstselektion und zeitliche Autonomie und damit Motivation und Kreativität zu befördern.

Diese doppelte epochale Anstrengung, die Verfügung der Menschheit über ihr Wissen und die Organisation der gesellschaftlichen Arbeit neu zu ordnen, macht die Open-Source-Praxis in der Tat, wie Steve Johnson schreibt, zur ‘ersten wirklich eingeborenen politischen Schöpfung der digitalen Welt’. In der Unterwerfung des Einzelnen unter den industriellen Apparat war der Taylorismus nicht nur, wie oft bemerkt wurde, Ausdruck einer Maschinenwerdung des Menschen. Er war auch eine durch und durch vordemokratische Organisationsform, in deren System die faschistischen und kommunistischen Diktaturen bereits angelegt waren, die im 20. Jahrhundert in so vielen Ländern den Prozess der Industrialisierung vorantrieben. In der Open-Source-Praxis gleichberechtigter und teilautonomer Kollaboration drücken sich dagegen genuin demokratische Werte aus. Ihre Ermächtigung des Individuums macht tendenziell die Entmündigung rückgängig, die der Industrialismus der Mehrheit der Arbeitenden antat.

Der oft recht unduldsame Enthusiasmus der Open-Source-Fans, der bei einer so prosaischen Angelegenheit wie der Software-Produktion befremdet, die bisweilen penetrante Mischung aus genialem Gestus, religiöser Erweckung und politischem Eifer wird unter dieser Perspektive zwar nicht sozial erträglicher, aber doch historisch verständlich - als Ausdruck des berechtigen Bewusstseins, Teil einer bahnbrechenden Avantgarde zu sein.

Literatur

[1] Wer sich informieren will, findet online zahlreiche Computerlexika, etwa www.techweb.com/encyclopedia/.

[2] In der Reihenfolge ihres Erscheinens:

Chris DiBona (Hrsg.), Open Sources: Voices From the Open Source Revolution (1999)

Peter Wayner, Free for All: How LINUX and the Free Software Movement Undercut the High-Tech Titans (Juli 2000)

Russell Pavlicek und Robin Miller, Embracing Insanity: Open Source Software Development (September 2000)

Pekka Himanen, Hacker Ethic (Januar 2001)

Glyn Moody, Rebel Code: Linux and the Open Source Revolution (Januar 2001)

Eric Raymond, The Cathedral and the Bazaar (Januar 2001; aktualisierte Sammlung seiner seit 1997 erschienenen und zum Teil bereits 1999 gesammelt veröffentlichten Aufsätze)

Linus Torvalds und David Diamond, Just for Fun: The Story of an Accidental Revolutionary (Mai 2001)

Andrew Leonards work in progress zur Open-Source-Geschichte auf www.salon.com

[3] Oliver Diedrich: Happy Birthday, Tux! Zehn Jahre Freies Betriebssystem. c't 19/01, S. 162