freiheit für die hardware
Niels Boeing, Hamburg, Januar 2003

Die Technik ist mit dem Kapital? Nach freier Software könnte auch das Design von Chips und Computerbauteilen Teil des öffentlichen Wissenspools werden und Ansätze für eine neue Technikpolitik von links bieten
Eine erstaunlich alte Idee
Programmierbare Chips
Chips aus dem Drucker?
Ein "Volkscomputer" für die Dritte Welt
Der Anachronismus linker Technikskepsis
Die Black Box knacken
Orwell auf der Platine

Die Idee der Free-Software/Open-Source-Bewegung ist klasse: Lasst jeden, der das will und kann, den Code eines Programms lesen und nach seinen Bedürfnissen verändern. Und zwar kostenlos. Das Ergebnis wird eine Blüte der Software-Entwicklung sein ähnlich dem Aufstieg der modernen Wissenschaften, der darauf basierte, dass die neuen Erkenntnisse jedem zur Verfügung stehen. Der rasante Aufstieg des Betriebsystems GNU/Linux zeigt: Es ist möglich, eine gleichwertige Alternative zum Fast-Monopol von Microsofts Windows zu etablieren, die keinem Konzern gehört. Der Code von GNU/Linux ist inzwischen Allgemeingut wie die Quantenmechanik, die sich ja auch weiter entwickelt.

Das funktioniert, weil Software so wie jedes digitalisierte Wissen unbegrenzt vervielfältigt werden kann. Doch einige Informatiker und Enthusiasten wollen hier nicht stehenbleiben. Ihr Ziel heißt: "Open Hardware". Open Hardware? Festplatten, Speichermedien, Prozessoren sind Gegenstände, die sich nicht einfach kopieren lassen, oder? Natürlich geht es nicht um die Hardware an sich, sondern um das technische Wissen, das in ihnen steckt. Nämlich die Pläne, wie Schaltkreise und logische Bausteine angeordnet werden, bevor sie in das Material eingeätzt werden. Das geschieht derzeit mit photolithografischen Verfahren.

Eine erstaunlich alte Idee

Die Idee eines Open Hardware Design geht bereits auf die späten 60er Jahre zurück. Damals nahmen Pioniere wie der Informatiker Lee Felsenstein die Idee des Techniktheoretikers Ivan Illich auf, "Tools for Conviviality", etwa: Werkzeuge zum Zusammenleben, zu entwickeln. "Die Anfänge der Heimcomputer-Industrie waren ein loser Haufen von kleinen Firmen und Tüftlern, der auf einer Kultur der Offenheit aufbaute", sagt Graham Seaman von opencollector.org. Als mit dem Aufschwung der PC-Industrie Anfang der 80er Computer nach und nach zu unzugänglichen Black Boxes wurden, blieb die damalige Szene im Elektronik-Bastlertum stecken. Doch in den letzten Jahren ist die Idee wieder aufgelebt. Nicht nur in Europa und den USA, gerade auch in Schwellenländern der Dritten Welt wird ihr Potenzial inzwischen ernsthaft diskutiert.

Denn diese waren für die internationalen Computerkonzerne bislang kaum mehr als Standorte mit billigen Arbeitskräften für Halbleiterfabriken und Softwareschmieden. Eine eigene Industrie entwickelte sich – sieht man einmal von den südostasiatischen "Tigerstaaten" ab – nicht. Die fertigen Endgeräte werden letztlich immer von westlichen Unternehmen produziert oder zumindest vermarktet.

Programmierbare Chips

Das könnte sich demnächst, dank verschiedener technischer Trends sowie erster konkreter Projekte, ändern. Da ist zum einen die Entwicklung programmierbarer Chips, abgekürzt FPGAs. Im Unterschied zu Prozessoren wie Intels Pentium bestehen sie aus Rechenmodulen, deren Verbindung umgeschaltet werden kann. Dadurch lässt sich ein und derselbe Chip auf unterschiedliche Weise nutzen. Das ist deshalb wichtig, weil zwar das Design der Schaltkreise längst selbst am Rechner entworfen wird (mittels so genannter EDA-Software, von der es leider noch zu wenige Open-Source-Varianten gibt). Für einen physischen Test braucht man aber einen reale Siliziumprototyp, dessen Fertigung teuer ist.

Chips aus dem Drucker?

Inzwischen nehmen auch Techniken Gestalt an, mit denen sich Prozessoren drucken lassen. Im November hat das berühmte Forschungslabor Xerox Parc einen "Schaltkreis-Drucker" vorgestellt, der im Prinzip wie ein herkömmlicher Laserdrucker für Papier funktioniert. Der Siliziumwafer ist mit einer Kunststoffschicht überzogen, auf die das Schaltkreismuster projiziert wird. Entlang der Linien wird die elektrische Ladung in der Schicht verändert, so dass in einem zweiten Schritt, die Zwischenräume präzise ausgeätzt werden können. Damit hat man immerhin eine Auflösung von 800 Nanometer erreicht, dem 6-fachen der kleinsten derzeit fertigbaren Chips.

Das Münchener Fraunhoferinstitut für Zuverlässigkeit und Mikroorganisation entwickelt "Polytronic". Das sind Chips, deren Trägermaterial aus biegsamen Kunsstoffolien besteht. Zunächst für die billige Massenproduktion von Transponder-Chips konzipiert (etwa für elektronische Preisschilder im Supermarkt), können solche "Plastikchips" in mehreren Druckschritten auch für etwas anspruchsvolleres Rechendesign ausgelegt werden, wenn auch nicht als Konkurrenz zu heutigen Allroundchips. (hier könnte ggf. noch ein O-Ton von einem der Fraunhofer-Experten rein)

Sollte diese Techniken irgendwann die Produktion kleinerer Prozessoren für spezielle Aufgaben in kleiner Auflage ermöglichen, könnte damit ein ganz neues Kapitel in der Halbleitertechnik aufgeschlagen werden. Kleinen Garagenfirmen in aller Welt wäre es dann möglich, in den Nischen der globalen Computerindustrie billige, kleine Rechner anzufertigen.

Ein "Volkscomputer" für die Dritte Welt

Auch wenn das noch Zukunftsmusik ist, gibt es bereits erste unabhängige Hardware-Projekte in Brasilien (den "Volkscomputer" oder "Computador Popular" an der Universität Minas Gerais), in Südafrika (openH.org) sowie den indischen "Simputer", einen kleinen tragbaren Rechner, der an einen Palm-Organizer erinnert. "Demnächst wird es die ersten Geräte geben", sagt Yash Pal, ein Pionier der indischen Computertechnik und Berater von PicoPeta Simputer Ltd. Das Unternehmen und andere Lizenznehmer zahlen dafür nur ein Zehntel der sonst branchenüblichen 250.000 Dollar Gebühren.

Auf dem freien Betriebssystem Linux und einer eigenen Dokumentensprache (IML) basierend, ist er auf ländliche Drittweltregionen mit hoher Analphabetenrate zugeschnitten. Die Datenein- und ausgabe kann über Symbole erfolgen und unterstützt dank der universellen Vokabulardarstellung Unicode etliche Sprachen, deren Unterstützung für die bisherige Computerindustrie nicht lukrativ sind. Der Simputer wird noch auf einem Intel-Chip basieren. Doch könnten andere Projekte, die dem – hoffentlich erfolgreichen – Beispiel folgen, in einigen Jahren vielleicht schon auf freie Prozessorarchitekturen ohne Lizenzgebühren im Open Hardware Design zurückgreifen.

Der Anachronismus linker Technikskepsis

Die Linke, die sich noch immer nicht vollständig mit der Informationstechnik ausgesöhnt hat, sollte spätestens hier aufhorchen. Zwar nutzen ihre jüngeren Jahrgänge das Internet selbstverständlich und äußerst effektiv, wie Tausende von Foren, Mailinglisten oder unabhängige Nachrichtenseiten à la indymedia.org zeigen. Aber ein latentes Unbehagen bleibt allgegenwärtig. Begründet wird es mit dem Verweis auf die Kritik an der "Unbeherrschbarkeit der Computer", die vor allem das Informatik-Urgestein Joseph Weizenbaum formuliert hat, auf die massiven Arbeitsplatzverluste durch computerbedingte Rationalisierung in den vergangenen Jahrzehnten und auf die Geschäftspolitik mächtiger globaler Computerkonzerne. So verständlich diese Haltung ist, so wirkungslos bleibt sie.

Die Strategien der Free-Software- und der Open-Hardware-Design-Bewegung stehen dagegen für ein Ziel, das die Linke neben der kritischen Analyse der Verhältnisse immer hoch gehalten hat: aktive Emanzipation. Auf die Informationstechnik übertragen, bedeutet das: Code und Hardware gleichermaßen den Händen einer ökonomischen Elite zu entreißen und sie der Allgemeinheit zu übergeben. Das erreicht man nicht dadurch, dass Regierungen viel Geld ausgeben und jedem Schüler, ach was, jedem Bürger einen PC mit Internet-Anschluss auf den Schreibtisch stellen. Zu allererst muss die Black Box "Computer" nachhaltig geknackt werden – und genau das tut die Open-Source/Design-Bewegung.

Nun werden die meisten User selbst keinen Ehrgeiz haben, einen Blick in die Black Box zu werfen. Sie sind froh, wenn die Kiste funktioniert – und hoffentlich in Zukunft noch einfacher zu bedienen sein wird. Hier wird häufig das Argument angeführt, dass man zum Autofahren ja auch nicht wissen müsse, wie die Innereien des Motors funktionieren. Dieses Argument ist kurzsichtig.

Der Technikphilosoph Günter Ropohl hat in seiner "Systemtheorie der Technik" (1979) vier Arten des Umgangs mit technischen Systemen formuliert. Auf Computer übertragen, sind das: technisches Können – das einem durchschnittlichen User entspricht, der weiß, dass etwa der Back-Button des Browsers zur vorherigen Webseite führt; funktionales und strukturales Regelwissen – die nötig sind, um Hardware-Teile auszutauschen oder Skripte für den eigenen Rechner zu schreiben und ein Netzwerk zu verwalten; und technisches Gesetzeswissen – damit bewegt man sich auf der Ebene des Betriebssystem-Codes im Zusammenspiel mit den Befehlssätzen eines Prozessors. Und genau hier wird es spannend.

Die Black Box knacken

Denn die vierte Ebene ist in der Black Box heutiger Rechner weitestgehend dem Einblick der Öffentlichkeit entzogen. Verriegelt durch Patente und Copyrights. Sicher, Konzerne wie Microsoft lassen Zulieferer und Universitäten – und demnächst offenbar auch Regierungsbehörden in aller Welt – einen Blick hinein werfen. Aber nur, wenn diese einem Non-Disclosure-Agreement zustimmen. Selbst wenn sie dort Unerquickliches erblicken, enthüllen dürfen sie es nicht. Als vor drei Jahren in Microsofts Windows eine Verschlüsselungsschnittstelle mit dem Namen "NSA_key" gefunden wurde, war das einer Panne zu verdanken. Bis heute ist nicht klar, ob mit NSA der gleichnamige US-Geheimdienst gemeint war.

Hier sieht man allerdings sofort, warum der Vergleich mit dem Auto – das seit jeher als Gradmesser für den Stand der Computerindustrie gilt – hinkt. Dass ein Auto gebaut wird, dessen patentgeschützte Technik ein Linksabbiegen verhindert, hat es noch nie gegeben. Und selbst eine eingebaute Geschwindigkeitsbegrenzung würde vielleicht die Freude am Fahren trüben, nicht aber die Welt drumherum verändern. Die brandenburgischen Kiefern entlang der A2 wären immer noch da.

Eine im Detail nicht einsehbare Manipulation des Computers auf der untersten technischen Ebene dagegen würde hätte dramatische Folgen. Dort ließen sich Filter einbauen, die Informationen blockieren und damit das Aussehen des Cyberspace verändern, oder Sperren einrichten, die die Ausführung bestimmter Programme verhindern. Und zwar ohne dass ein User oder sogar Systemadministrator etwas dagegen unternehmen könnte.

Orwell auf der Platine

Das ist nun ausnahmsweise nicht Orwellscher Alarmismus, sondern die nahe Zukunft. Eine Initiative von weit über hundert internationalen Computerunternehmen, die Trusted Computing Platform Association, erarbeitet derzeit die technischen Standards für solche Blockaden. Offiziell geht es der 1999 von Intel, Microsoft, Hewlett-Packard, Compaq und IBM gegründeten TCPA darum, den Rechner sicherer zu machen. Also Attacken von außen durch Hacker vorzubeugen. Der Plan der TCPA sieht vor, die künftigen "Sicherheitsmechanismen" direkt in die Schaltkreise von Prozessoren (wie Pentium-Chips) einzustanzen. Ist das erst einmal geschehen, werden sie nicht so einfach zu knacken sein wie Software-Verriegelungen, weil dazu ein ungleich höherer technischer Aufwand nötig ist.

Tatsächlich dürfte hier aber der Bock zum Gärtner gemacht werden, denn die TCPA wird damit die Kontrolle über die Rechner bekommen, um ihre Profite zu sichern, die sie jetzt durch Raubkopien gefährdet sieht. Entscheidend ist hier, über den Reflex der technikskeptischen Erschütterung hinauszugehen und das Projekt "Knackt die Black Box Computer" zu unterstützen.

Für die Politik ergeben sich daraus sehr konkrete Handlungsansätze. Die Verbreitung freier Software kann unterstützt, ihre Patentierbarkeit zumindest EU-weit noch verhindert, die Entwicklung neuer "offener" Hardwaresysteme gefördert werden. Anstatt Schülern nur technisches Können wie Websurfen beizubringen, sollte das reiche Innenleben der Black Box "Computer Teil" eines jeden Lehrplans werden, und zwar anhand existierender, frei zugänglicher Beispiele. Und schließlich können Institutionen und Behörden verstärkt Systeme wie Gnu/Linux nutzen – auch wenn der Bundestag Anfang 2001 sich noch nicht dazu durchringen konnte, komplett darauf umzusteigen. All das stünde einer konsistenten linken Technikpolitik gut zu Gesicht. Die würde sich damit endlich konstruktiv einer Tatsache stellen: Dass Internet und Computer eine Grundlage der modernen Zivilisation sind, die nicht mehr verschwinden – aber sehr wohl an die Interessen der Mächtigen verloren werden können.

[zurück zum Anfang]



© 2004 km 21.0 - diese Seite ist Bestandteil von www.km21.org