Die Geschichte des Computers!

Seite 9: Blick in die Zukunft

Vom Relais zum Quant:

Bis 1944 waren Computer hauptsächlich aus langsam vor sich hinklickenden, verhältnismässig riesigen Relais aufgebaut. Danach wurden diese elektrischen Schalter durch etwas schneller arbeitende, aber nicht unbedingt kleinere Röhren abgelöst, die bis etwa 1955 ihren Dienst mehr schlecht als recht in Grossrechnern verrichteten. Wenn auch die meiste Zeit der Rechner stillstand, weil immer etwa die eine oder andere Röhre durchgebrannt war, so konnte man sich mit so einem Supercomputer im Keller doch zumindest gut durch den Winter heizen, eine Starkstromleitung vorausgesetzt. Kein Wunder verdrängte der kleine, sparsame Transistor in Windeseile diese beiden vorangehenden Schalter aus den Computerherzen. Zu den ersten Computern mit integrierten Schaltungen 1960 und hochintegrierten Mikrokontrollern 1970 waren da verhältnismässig schon kleinere Schritte, obschon sie ein Vielfaches an Performance auf bis dato kleinstem Raum brachten. Doch wenn es mit der Entwicklung so weitergehen soll wie bisher, braucht es unbedingt mal wieder eine komplett neue Technik. Die Strukturgrösse heutiger CPUs ist bereits 200 Mal kleiner als die vom ersten i4004, und für die Entwickler (welche, währen eine CPU gerade zum ersten Mal das Kunstlicht der Händlerregale erblickt bereits an der übernächsten Prozessorgeneration arbeiten) kommt bereits allmählich das Ende der Fahnenstange an Verkleinerung der Silizium-Kupfer-Kerne in Sichtweite. Erschwerend kommt hinzu, dass Aufgrund von Leckströmen und kapazitiven Verlusten sich die derzeitige Generation von CPUs nicht auf das Level takten lassen, wie es die Entwickler gern gesehen hätten (für 2004 geplant gewesen waren mal mindestens 5GHz, anstatt 3.8GHz). Um dieses Manko wettzumachen packen die führenden Prozessorhersteller künftig einfach zwei oder mehrere CPUs in ein Gehäuse, auf die Dauer ist das aber keine Lösung, da ohne Verkleinerung der Struktur die CPUs plötzlich wieder grösser würden, bei im gleichen Masse steigender Verlustleistung, und das wäre ein Schritt in eine Richtung, wie sie falscher nicht sein könnte. Vorschläge, wie man mit bewährter Fertigungstechnik noch mehr Geschwindigkeit bei gleichzeitig niedriger Verlustleistung gewinnen könnte, gibt es seit langem mit der Idee des asynchronen Prozessors. Dieser funktioniert so, dass die einzelnen internen Komponenten Daten weitergeben können, sobald diese zur Verfügung stehen, ohne auf einen Takt warten zu müssen. Grösster Nachteil dabei ist, dass diese Technik nicht ohne weiteres zu bisherigen PC-Standards kompatibel wäre, und komplett neue Hardwarekomponenten benötigt würden. Aus dem gleichen Grund, nämlich der Hard- und Softwarekompatibilität wegen, sind die heutigen Desktop-PC-CPUs noch immer nach dem eigentlich längst überholten Schema des fast 30 jährigen 8086er Prozessors aufgebaut, wo es mittlerweile viel effizientere Architekturen gäbe, (zB der neue Cell-Prozessor von IBM/Sony/Toshiba, der angeblich zehnmal so schnell wie ein aktueller Intel-Prozessor sein soll). Aber auf lange Sicht sind solche Geschwindigkeitsunterschiede von Faktor zwei bis zehn nicht weiter wichtig. Auf 20 bis 30 Jahre hinaus gesehen stellt sich die Frage, wie man einen Computer 100 oder 1’000 Mal schneller machen kann. Hierzu gibt es dann endlich mal wieder ganz neue Ansätze, wie die oft wage aber bisher noch nie konkret dargestellten Ideen eines biologischen oder laseroptischen Prozessors (wobei einfache, sogenannte Flip-Flop-Schaltungen angeblich schon erfolgreich aus diesen Techniken aufgebaut worden sein sollen). Ob diese beiden Systeme jemals zuverlässig laufen und zugleich auch noch wirtschaftlich herzustellen sein werden, steht leider ebenso wenig fest, wie in welchem Jahr oder Jahrzehnt mit einem ersten Prototyp gerechnet werden darf. Interessanter ist da schon die Idee eines Quantenrechners, hier dürfte vor allem aufgrund des zu erwartenden Geschwindigkeitsgewinns zumindest die Motivation der Entwickler schier unbegrenzt sein, so dass die Forschung in diesem Bereich sicher erstmal auf unbestimmte Zeit auf Hochtouren laufen wird. Quanten nennt man die kleinsten bekannten Energieteilchen, die nun wirklich nicht mehr teilbar sein sollen (dachte man ja bereits beim Atom, als es entdeckt wurde). Die Theorie der Quanten kommt daher aus der Mikrophysik, und fördert so einige schier unglaubliche Erkenntnisse zu Tage, wie dass Quanten untereinander Informationen mit Überlichtgeschwindigkeit austauschen würden. Also mit anderen Worten genau das richtige Kaliber für die CPU der Zukunft. Die Frage, wer die ganze Leistung überhaupt braucht, ist nicht mehr sehr originell, die wurde bisher bei praktisch jedem neuen PC gestellt (welches Programm wird die Leistungsfähigkeit eines 286ers jemals ausschöpfen?). Die ersten Computer konnte man wirklich für nichts anderes als zum Rechnen gebrauchen, dann kam die Tabellenkalulation, Textverarbeitung, MIDI-Steuerung, Bildbearbeitung, Tonbearbeitung, Spracherkennung, Videobearbeitung und 3D-Spiele. Irgendwas Fällt den Software-Schmieden immer ein, was sie einem Besitzer eines entsprechend ausgestatteten Rechners noch verkaufen könnten. Und wer weiss, auch wenn bisherige Versuche, eine künstliche Intelligenz zu programmieren stets in einer Sackgasse endeten, einem gewieften Programmierer, der einen Rechner mit 200 Teraflops zur Seite hat, könnte es vielleicht doch irgendwann mal gelingen…

Was von diesen Spekulationen Wirklichkeit wird, lässt sich derzeit noch nicht sagen. Man darf jedoch nicht vergessen, dass es vor zweihundert Jahren auch noch nicht für möglich gehalten wurde, akustische Signale aufzuzeichnen und wiederzugeben. Dass man es sich noch nicht vorstellen konnte, jemals mit annähernder Lichtgeschwindigkeit Informationen von Europa bis nach Amerika zu übertragen. Und dass viele es heute noch nicht glauben können, dass Fehler in den Stimmen der Musikstars, selbst bei Live-Konzerten, von Computern auskorrigiert werden. Während die ältere Generation der Technik noch Verunsicherung entgegen bringt, finde ich sie interessant, für die jüngste Generation ist sie schon immer da gewesen und deshalb einfach normal.







Nächste Seite: Interview/Glossar