Anarchie und Technik

1 Beitrag / 0 neu
Bild des Benutzers Rene Wolf
Rene Wolf
Offline
Verbunden: 19.05.2012 - 09:03
Anarchie und Technik
DruckversionPDF version
 
"Das Internet ist geradezu ein Parademuster, wie Anarchie - d.h. Ordnung ohne Herrschaft - funktionieren kann."  (Anette Schlemm)
 
Es gibt nicht viele Wissenschaftlerinnen, die über ihren Tellerrand hinaussehen. Eine davon ist Frau Doktor Anette Schlemm. 
 
Annette Schlemm ist politische Philosophin; in insgesamt drei Büchern, mehreren Beiträgen in politischen und wissenschaftlichen Büchern sowie Vorträgen und Diskussionsworkshops entwirft sie Utopien für eine freiere, gerechtere und nachhaltigere Gesellschaft.Unter anderem arbeitete sie zur Zeit der EXPO 2000 bei der Zukunftsutopie "Freie Menschen in freien Vereinbarungen" als Alternative zu dem konzern- & elitengesteuerten Zukunftsmodell der EXPO. In dem Buch "Surfende Schmetterlinge im politischen Chaos" wendet sie die Chaostheorie aus der Physik auf die Politik an. Beruflich lernte sie Landwirtschaft, studierte Physik und promovierte in Philosophie mit einer Arbeit über den Wirklichkeitsbezug von Naturgesetzen. Sie betreibt im Internet das „Philosophenstübchen“ (www.philosophicum.de).
 
Der folgende Text ist ein Auszug aus "Technik als Megamaschine und Mittel kooperativer Selbstorganisation" von A. Schlemm.
 
 
Die revolutionären Potenzen der Informationsgesellschaft
 
                                        Das Internet
 
Das Internet ist geradezu ein Parademuster, wie Anarchie - d.h. Ordnung ohne Herrschaft - funktionieren kann (Borsook). Es wird oft betont, daß die technischen Strukturen des Internet durch ihre militärische Wurzel und dem Bedürfnis der nicht zentralen Angreifbarkeit bestimmt werden. Noch wichtiger allerdings wurde die weitere akademische Nutzung, die dem Internet "offene Standards" aufprägte. 
 
Obwohl man hier durch die Kommerzialisierung seit den 90er Jahren Abstriche machen muß, bleiben die Erfahrungen mit den grundlegenden Prinzipien des Internet extrem wichtig:
Wesentlich ist die Offenheit und freie Zugänglichkeit der Standards. Die Internet Engineering Task Force (IETF) bringt als organisatorische Basis der Internet-Weiterentwicklung lediglich Kompetenzen zusammen, garantiert aber gleichzeitig die Macht "der Basis", das heißt der Anwender. Technisch gesichert wird dies über das Internet Protocol, eine Unabhängigkeit von der konkreten Netzumgebung und das Paketvermittlungsprinzip (Dierkes, Hofmann, Marz).
 
Die Richtlinien des Umgangs miteinander im Netz, die Netiquette, beruhen nur auf sozialem Druck, haben keine Möglichkeit, administrativ eingreifend zu wirken. Es stellt sich heraus, daß sie solange funktionieren, wie Gemeinschaften existieren, bei denen moralische Sanktionen einen Effekt haben - die Kommerzialisierung wirkt dem leider massiv entgegen (Djordjevic) 
 
Es wird eingeschätzt:
"In Abwesenheit von zentralen Steuerungsinstanzen hat sich eine Vielfalt von Formen einer dezentralen Handlungskoordination herausgebildet. "Informierter Konsens" oder, allgemeiner formuliert, "informierte Handlung" wäre dabei als ein erstes Regulierungsmuster zu nennen" (Hoffmann 1997a). Die Kommunikation wird dabei von der Anwenderseite, d.h. "von unten" her dezentral strukturiert.Das Internet gibt uns ein Beispiel, wie herrschaftsfreie Zustände möglich sind. Es besteht ja durchaus nicht aus einer absoluten Un-Ordnung, sondern schuf sich seine eigenen Steuerungselemente. Deren "Sanktionsgewalt ist lokal begrenzt und beschränkt sich in der Regel auf Ermahnungen und Appelle an die Eigenverantwortlichkeit, mit unterstützt durch Gruppendruck anderer Netzteilnehmer. Im ärgsten Fall besteht eine Sanktion in einer Verbannung der Malefikanten aus dem Netz." (Hoffmann 1997b)
 
"Schufen die zentralistisch strukturieren Telefongesellschaften zentralistische und proprietäre Technikkonfigurationen, die einen einzigen Anbieter, eben die nationale Telefongesellschaft, und eine einzige Anwendungsform, das Telefonieren, vorsahen, reflektiert die Technik des Internet eine dezentrale Organisationsform, die multiple Nutzungsweisen unterstützt" (Dierkes, Hofmann, Marz). Sie unterstützt sie - führt aber nicht automatisch dazu. 
 
Open Source Software 
 
Freiheit statt Kommerzialisierung - durch GPL-Lizenz
 
1984, also vor nicht allzu langer Zeit, begann etwas völlig Neues. In diesem Jahr wurde der bis dahin frei zugängliche Source Code des weitverbreiteten Betriebssystems UNIX unter ein Copyright gestellt. Dies geschah im Zusammenhang mit dem Rückzug der staatlichen Förderung und dem Einzug der privatkapitalistischen Kommerzialisierung in den Softwarebereich. Diese Okkupation machte Bill Gates zum Milliardär - stieß aber von Anfang an auch auf Gegenkräfte. Richard Stallman gründete das GNU-Projekt, in dem eine neue Software entwickelt wurde, die vor der Kommerzialisierung geschützt wurde. GNU heißt "GNU Is Not Unix". Der Schutz vor Kommerzialisierung erfolgte durch eine GNU General Public License (GPL), die im Gegensatz zum Copyright auch "Copyleft" genannt wird. Diese spezielle Lizenz umfaßt folgende Punkte:
  • das Recht zur freien Benutzung des Programms
  • das Recht, Kopien des Programms zu erstellen und zu verbreiten,
  • das Recht, das Programm zu modifizieren,
  • das Recht, modifizerte Versionen zu verteilen.
Das bedeutet gleichzeitig:
  • dass der Quelltext jederzeit frei verfügbar sein und bleiben muß,
  • dass die Lizenz eines GPL-Programms nicht geändert werden darf und
  • dass ein GPL-Programm nicht Teil nicht-freier Software werden darf (Meretz 2000b).
Das "Freie" an dieser Software ist nicht, daß sie wie "Freibier" kostenlos wäre (die Distributionen können durchaus kostenpflichtig sein), sondern daß der Quelltext (Source) nicht privatisiert, d.h. kommerzialisiert werden kann. 
 
LINUX-Produktionsweise - fast wie auf einem Basar
 
Die Produktionsweise der GNU-Software funktionierte erst noch in üblicher Weise - also zentralistisch gesteuert und "wie der Bau einer Kathedrale" organisiert. Viele Jahre gelang es jedoch nicht, den wichtigen Kernel für das GNU-System zu entwickeln.Das änderte sich erst, als Linus Torvalds 1991 dieses Vorgehen radikal änderte. Torvalds weigerte sich, wie bisher in einem kleinen eingeschworenen Team "die Kontrolle behalten" zu wollen - sondern stellte einfach seine Zwischenergebnisse beim Programmieren öffentlich ins Internet und forderte zur Fehlersuche und Mitarbeit auf. Manche fürchteten, die Koordination dieser Arbeitsweise würde so schwer werden wie "Katzen hüten". Es zeigte sich aber bald, daß diese Organisationsform der internetbasierten selbstorganisierten Kooperation die Leistungsfähigkeit der früheren starren "Kathedralen-"Organisation weit übertrifft. Eher "wie auf einem Basar" (Raymond) werden Informationen geteilt, mit Innovationen angereichert, weiter verteilt usw. 
 
"Maintainer, einzelne Personen oder Gruppen, übernehmen die Verantwortung für die Koordination eines Projektes. Projektmitglieder steigen ein und wieder aus, entwickeln und debuggen Code und diskutieren die Entwicklungsrichtung. Es gibt keine Vorgaben, wie etwas zu laufen hat, und folglich gibt es auch verschiedene Regeln und Vorgehensweisen in den freien Softwareprojekten. Dennoch finden alle selbstorganisiert ihre Form, die Form, die ihren selbst gesetzten Zielen angemessen ist... Ausgangspunkt sind die eigenen Bedürfnisse, Wünsche und Vorstellungen - das ist bedeutsam, wenn man freie und kommerzielle Softwareprojekte vergleicht." (Meretz 2000b). 
 
Es zeigt sich, daß diese, aus eigenen Bedürfnissen, der Fähigkeit zur individuellen Selbstentfaltung und kooperativen Selbstorganisation gespeiste Produktionsweise um ein vielfaches befriedigender, aber auch effektiver ist und zu qualitativ besseren Produkten führt.Dies bezieht sich vorerst natürlich "nur" auf die Softwareszene - im Bereich der Produktion von Hardware im weitesten Sinne, also materieller Güterproduktion ergeben sich noch zusätzliche Hürden, die mit den Eigentumsverhältnissen an materiellen Produktionsgrundlagen  und -mitteln zu tun haben. 
 
... auf dem Weg aus der Wert-Vergesellschaftung heraus
 
Die Versuche, diese verschenkte, also nicht kommerziell verwertete Arbeit wieder zurück in den Wirtschaftskreislauf zu zwingen, offenbart den Irrsinn der kapitalistischen Wirtschaft. Geld ist aus dieser Softwareszene nur zu machen, wenn die Ergebnisse künstlich verknappt werden, d.h. wenn der öffentliche, freie Zugang dazu unmöglich gemacht wird. Texte vom Linuxtag beispielsweise wurden von einem Verlag vermarktet - sie mußten aus dem Internet entfernt werden. Akzeptabel ist höchstens die Finanzierung der Leistung von Distributoren (Gebühr für den Vertrieb), wenn dadurch die GPL nicht verletzt wird und nicht unbezahlte Arbeit ausgenutzt wird. Trotz der weiter laufenden Versuche, diesen Ausbruch aus der Verwertung wieder einzufangen, wurde in einem Bereich erstmalig die Tür aufgestoßen in eine neue Welt, eine nichtkapitalistische Produktionsweise.
 
"Dies ist m.E. eine Form, wie ein gesellschaftliches Bedürfnis ohne staatliche Struktur und ohne privatwirtschaftliches Vorantreiben sich aufs Beste verwirklicht." (Merten 1999) 
 
"Auf lange Sicht ist das Freigeben von Programmen ein Schritt in Richtung einer Welt ohne Mangel, in der niemand hart arbeiten muß, um sein Leben zu bestreiten. Die Menschen werden frei sein, sich Aktivitäten zu widmen, die Freude machen, zum Beispiel Programmieren, nachdem sie zehn Stunden pro Woche mit notwendigen Aufgaben wie Verwaltung, Familienberatung, Reparatur  von Robotern und der Beobachtung von Asteroiden verbracht haben." (Stallmann 1984).
Es wird eingeschätzt, daß es auf dieser Grundlage durchaus sinnvoll ist, neu über experimentelle Werkstätten und Autonome Arbeit nachzudenken. "Das Herstellen wirklich global nutzbarer und nicht bewirtschaftbarer (=nicht zur Erpessung anderer produzierter) Handlungsvoraussetzungen" (Nahrada 2000) beantwortet das Problem von Karl Marx, der die Trennung der Arbeitskräfte von ihren Produktions- (und Lebens-)Mitteln als Grundübel des Kapitalismus ansah, auf neue Weise.
GIVE Teleökocommunity a chance...
 
Tatsächlich gibt es bereits erste Schritte auf diesem Weg. Auch der Erfinder der Computer-Maus, der erste, der Hypertext realisierte - Douglas Engelbart meint nach vielen Jahrzehnten der Beschäftigung mit Technik: "Technology is dull!" Er sieht die wahren Herausforderungen im sozialen Gebiet und entwickelt "bootstrap-communities", in denen kleine Forschungsgruppen sich den konkreten Lebensbedürfnissen zuwenden. Franz Nahrada erweiterte dieses Konzept für die Entwicklung "neuer Lebensmodelle für die Welt von morgen". Das Ziel besteht in der Ermöglichung eines urbanen Lebensstandards in natürlicher Umgebung. GIVE steht für " Globally Integrated Village Environment" und ist ein "Versuch, Elemente einer völlig neuen und Elemente traditioneller Lebensformen zu amalgamieren und die technischen Möglichkeiten zur Telekommunikation in einer passenden sozialen und ökologischen Umgebung zu realisieren." (Nahrada 1993).