Elemente
Bild: Stocksy
Zukunft Unternehmen Arbeitswelt

Die Geschichte des Computers wird
enden. In der Zukunft.

Für die Jubiläumskommunikation zum 50-jährigen Bestehen von DATEV hat sich Peter Glaser die Geschichte des Computers genauer betrachtet. Und überlegt, wohin diese in Zukunft führen wird. Ziel ist es, eine realitätsnahe Vision zu entwickeln. Veröffentlicht wurde der Artikel im DATEV-Jubiläumsbuch.

Peter Glaser: Als Bleistift sei er geboren, gibt das Multitalent aus Graz an, das 2002 den renommierten Bachmann-Preis mit seiner Erzählung „Geschichte von Nichts“ gewann. Zugespitzt, gedankenreich und kritisch begleitet das Ehrenmitglied des Chaos Computer Clubs den Menschen durch die digitale Welt – auf dass der seine Mündigkeit nicht verliere.

STACCATO SIGNALS OF CONSTANT INFORMATION

THESE ARE THE DAYS OF MIRACLE AND WONDER

Paul Simon, „The Boy In The Bubble“

Der Alptraum von Dr. Gordon Moore ist es, eines Tages aufzuwachen und keinen Bedarf nach mehr Computerleistung zu verspüren. 1965 formulierte er das nach ihm benannte Moore’sche Gesetz, demzufolge sich die Leistung von Mikroprozessoren alle 18 Monate jeweils verdoppelt.

Ein Dinosaurier: einer der ersten Apple Computer. Heute mittlerweile wieder „Kult“.
Foto: iStockphoto

Miniaturisierung, Digitalisierung und Virtualisierung haben sich zur zentralen technologischen Leitströmung ins 21. Jahrhundert verbunden. Dabei versuchen sich Hardware und Software ständig gegenseitig den Rang abzulaufen. Als Steve Jobs 1984 den Apple Macintosh präsentierte, bekam man für rund 10.000 DM einen Computer mit einem spektakulären grafischen Bedienkonzept, einer Maus und 128 Kilobyte Arbeitsspeicher. Die Maschine verkaufte sich nur schleppend – bis Software verfügbar war, die einen Nerv traf. 1979 hatten Dan Bricklin und Bob Frankston mit Visi-Calc die erste Tabellenkalkulation programmiert. Und sie hatten damit nicht nur Rechenblätter auf den Computer übertragen, sondern völlig neue Möglichkeiten eröffnet, Projekte und Geschäfte zu betrachten. Auch komplexe Kalkulationen ließen sich nun ganz einfach in den verschiedensten Variationen probefliegen. Software-Werkzeuge wie diese verwandelten PCs, bis dahin eher als Spielzeuge angesehen, in Maschinen, die eine Revolution auslösten.

Nicht nur Mikrochips scheinen dem Moore’schen Gesetz zu folgen. Auch in ihrer äußeren Form ist digitale Gerätschaft inzwischen in Millimeterregionen angekommen – immer flachere Tablets, dünnere Smartphones, leichtere Notebooks. Ein bonbonbunter iMac aus dem Jahr 2000 war knapp 16 Kilo schwer, seine Bildröhre 50 Zentimeter tief. Ein iPad von 2010 hatte nur noch 140 Gramm, war 9,3 Millimeter dünn und um Größenordnungen leistungsfähiger. Wobei Software und Hardware ins Leere wirken würden ohne das entscheidende dritte Element – den Menschen, der Computer und Netz mit Treibstoff befüllt, mit seinen Ideen und Absichten. Schon in den 80er-Jahren merkte der Supercomputer-Konstrukteur Danny Hillis an, er könne sich einen vieltausendmal mächtigeren Rechner als den jeweils schnellsten vorhandenen vorstellen, er wäre dann eben so groß wie ein Hochhaus. Das eigentliche Problem aber seien die Probleme. Sämtliche computergerecht formulierbaren Probleme wären angesichts der Leistungsfähigkeit einer solchen Maschine trivial. Und von allein wird kein Computer jemals anfangen zu denken.

Humane DNA: Das menschliche Gehirn wird nicht vollkommen durch Computer ersetzt werden.
Foto: Shutterstock

Auch im Bereich der Künstlichen Intelligenz verläuft die Entwicklung im Sinne Moores. Die größten sogenannten Neuronalen Netze, die heute in Computern aufgefahren werden, um das menschliche Wahrnehmungssystem nachzubilden, haben rund eine Milliarde Querverbindungen – das Tausendfache dessen, was noch vor ein paar Jahren möglich war. (Im Vergleich zum Gehirn ist das aber nach wie vor verschwindend wenig, es entspricht etwa einem Kubikmillimeter Hirngewebe.)

Aus einer Rechenmaschine hat sich der Computer in eine Wirklichkeitsmaschine verwandelt, die der analogen Realität eine immer weiter zunehmende virtuelle Vielfalt hinzufügt. Während in den nächsten Jahrzehnten die Atomkraftwerke verschwinden sollen, breiten sich auf der grünen Wiese bereits ihre Nachfolger aus: Datenkraftwerke. Die riesigen Data Center gehören zur Infrastruktur des nächsten digitalen Umbruchs. Die Miniaturisierung der Geräte ist an einem Punkt angelangt, an dem es nicht mehr schrittweise weitergeht. Bezeichnungen wie „Nano“, „Air“ oder „Lumia“ (Licht) weisen die Richtung: Die Dinge möchten winzig werden oder sich in Luft oder ein Leuchten auflösen. Allerdings ist der Platz, den eine Fingerspitze braucht, um ein Bedienelement zu treffen, nicht beliebig verkleinerbar. Der nächste Schritt muss also radikal ausfallen: Die Hardware muss ganz verschwinden, nur die Funktionen bleiben. Wobei die Hardware sich genau genommen in den Hintergrund zurückzieht. Projektionssysteme etwa, die Bildschirminhalte auf eine beliebige Fläche werfen und anstelle einer Maus die Bewegungen der Hand erkennen, gibt es längst. Die digitale Welt wird so zu einer neuen Umweltbedingung, die uns auf pragmatische Weise mit einer Fähigkeit ausstatten wird, die früher Zauberei hieß. Ein Wink genügt.