Home            Zurück

Fortsetzung...

Ebenfalls 1934 ersannen Jacques Herbrand, französischer Philosoph, und Kurt Gödel, österreichischer Mathematiker, einen mathematischen Funktionsbegriff, der die prinzipielle Leistungsfähigkeit von Rechenmaschinen auf Softwarebasis definierte Kerngedanke: "Es gibt kein Verfahren, welches die Mathematik vollständig mechanisiert" (Unvollständigkeits-Satz von Kurt Gödel).

Demgegenüber Georg Polya (1887 - 1985): "Man reduziere alle ungelösten Probleme der Welt auf die Mathematik; dort stelle man das Problem als ein Gleichungssystem dar, mache daraus eine einzige Gleichung, die dann zu lösen wäre". 

Die Mathematik des Computing als eine "Theory of Everything" scheint ein bißchen utopisch. Aber durchaus ernst zu nehmende Physiker und Mathematiker haben in neuester Zeit einen solchen Ansatz mit großem Elan verfolgt: Der Oxforder Astrophysiker David Deutsch präsentiert ein starkes Argument dafür, daß das Universum als eine Rechenmaschine dargestellt werden kann, nämlich als Richard Feynmann's "quantum computer". Der Mathematiker Sir Roger Penrose macht in seinen Büchern einen Erklärungsversuch für das Phänomen des Bewußtseins, ebenfalls basiert auf einem quantentheoretischen Computermodell. 

Die erste schalttafelgesteuerte Tabelliermaschine "D11" von IBM machte 1936 von sich reden. Sie beherrschte alle vier Grundrechenarten. Das Multiplizieren/Dividieren erledigte sie durch fortgesetzte Addition/Subtraktion.

1937 definierte Alan Turing Berechenbarkeit und Algorithmusbegriff, genannt "Turing-Maschine", die in der mathematischen Logik eine große Rolle spielt.

Sie ist ein besonders einfach aufgebauter und damit einfach beschreibarer, gedachter Computer und eignet sich besonders gut, um allgemeine mathematische Sätze über die prinzipiellen Eigenschaften von Computern zu beweisen.

Der Teil der Mathematik, der sich nur mit berechenbaren Funktionen beschäftigt, heißt konstruktive Mathematik. Da Computer im Prinzip Turing-Maschinen sind, können Computer sich nur mit den berechenbaren Funktionen beschäftigen. 

Wenn in der konstruktiven Mathematik eine Existenz von etwas behauptet wird, so heißt dies immer konstruktive Existenz, d. h. die entsprechende Turing-Maschine, der Computer, die Software, muß konstruierbar sein. 

Das Ziel vieler KI-Forscher (KI = Künstliche Intelligenz) war das Bestehen des "Turing-Tests". Ein Testverfahren, das einer der Gründerväter der modernen Computerwissenschaften, Alan Turing, vorgeschlagen hatte:      Ein Computerprogramm sei dann als "intelligent" anzusehen, so Turing, wenn ein Mensch mit dem Programm so kommunizieren könne, daß dieser keinen Unterschied zwischen Computer und Mensch ausmachen könne. Anfangserfolge, wie sie "Eliza" und andere sprachverarbeitende Programme aufweisen konnten, nährten die Hoffnung, daß der Turing-Test bis zur Jahrtausenwende erfolgreich absolviert werden könnte. "Elizas" Strategie bei der Gesprächsführung basierte auf einigen Regeln der Gesprächspsychotherapie, wie sie Carl Rogers vorgeschlagen hatte. Eine wesentliche Regel ist das "Spiegeln", das bedeutet, die Wiederholung von Gesagtem mit neuen Worten, so daß der Gersprächspartner feststellen kann, ob er richtig verstanden wurde oder nicht. Der folgende Ausschnitt aus einem "Gespräch" zwischen einer jungen Frau und dem Computerprogramm gibt einen Eindruck vom Verhalten des Programms (die Eingaben der Frau sind normal, die Ausgaben des Programms kursiv gesetzt):

"Die Männer sind alle gleich. In welcher Weise? Sie machen uns immer wegen irgend´was verrückt. Können Sie ein Beispiel nennen? Naja, die Idee zu diesem Gespräch stammt von meinem Freund. Die Idee zu diesem Gespräch stammt von Ihrem Freund. Er sagt, daß ich oft deprimiert bin. Es tut mir leid, von Ihnen zu hören, daß Sie deprimiert sind. Das stimmt, ich bin unglücklich. Glauben Sie, daß dieses Gespräch Ihnen hilft, nicht mehr unglücklich zu sein? Ich brauche jedenfalls Hilfe, Das steht fest. Was würde es für Sie bedeuten, Hilfe zu bekommen? Vielleicht könnte ich lernen, mit meiner Mutter auszukommen. Erzählen Sie mir mehr über Ihre Familie. [...] Sie haben Angst vor mir. Macht Ihnen der Gedanke Spaß. daß ich vor Ihnen Angst habe? Mein Vater hat vor jedem Angst. Was fällt Ihnen noch ein, wenn Sie an Ihren Vater denken? Angeber... Hat das etwas damit zu tun, daß die Idee zu diesem Gespräch von Ihrem Freund stammt?" (Weizenbaum, 1978) 
Weizenbaum äußert sich über das von ihm entwickelte Programm sehr kritisch. Dafür führt er drei Gründe an:                                                   

  • Einige Psychiater glaubten, daß das "Eliza"-Programm in absehbarer Zeit Teile von Psychotherapien selbstständig übernehmen könnte. 

  • Menschen, die sich mit dem Programm "unterhielten", entwickelten schnell eine emotionale Bindung zu dem Programm und vertrauten ihm selbst intimste Gedanken an. 

  • Viele Forscher glaubten, daß das Programm ein allgemeiner Ansatz des Sprachverstehens und -produzierens sein könnte, obwohl es nur einigen wenigen Regeln der Gesprächstherapie nach Rogers folgte.

Weizenbaum bestreitet weniger die tatsächliche Machbarkeit solcher Systeme, als vielmehr ihre Notwendigkeit.

1938 beschrieb Stephen Cole Kleene, engl. Mathematiker, partiell-rekursive Funktionen, welche die Leistungsfähigkeit von Computern exakt definieren. Claude Shannon konnte nachweisen, daß elektronische Schaltkreise logische Berechnungen ausführen können. 

1939 entwickelten John V. Atanasoff und Clifford Berry den ersten elektronischen, aber nicht programmierbaren Computer, den "ABC". Er konnte schon lineare Gleichungssysteme lösen:

Knapp ein Jahr später arbeiteten über 10.000 Engländer an dem Computerprojekt "Ultra". Aus diesem entstand "Robinson", ein funktionaler Computer, der mit Relais arbeitete und so leistungsfähig war, daß er die mit der ENIGMA verschlüsselten Nachrchten im 2.Weltkrieg entschlüsseln konnte.

Im Jahre 1940 führte George Robert Stibitz, in einer damals sehr aufregenden Demonstration, erstmals eine Verbindung von zwei Computern über eine Telefonleitung vor. 

Von New York nach New Hampshire war dies die erste Datenfernübertragung der Welt. Sie geschah in der damals üblichen Terminaltechnik: der Rechner war nicht direkt mit dem Monitor und der Tastatur verbunden, sondern beides konnte jeweils große Strecken voneinander entfernt sein. 

Später hingegen wurden bis zu 200 Terminals an einem Zentral-Rechner angeschlossen und konnten unabhängig voneinander arbeiten. 

Die erstmalige Untersuchung des Halbleiterstoffes Germanium erbrachte 1941 die Kenntnis über den Transistoreffekt.

Wesentlich größer als die "Z3" war die, von Howard H. Aiken an der Harvard University 1944 gebaute, ebenfalls elektromechanische Rechenmaschine, genannt "Mark I". Sie wurde von der US Navy für ballistische Berechnungen benutzt. Der "Mark I" gilt als der letzte Schritt auf dem Weg zum "echten" digitalen Computer:

    

"Mark I" war - im Gegensatz zur "Z3"- ein Riese. Die Frontfläche hatte eine Länge von 15 Meter und eine Höhe von 2,5 Meter. "Mark I" bestand aus rund 70.000 Einzelteilen. 3.000 Kugellager verbargen sich hinter der riesigen Frontseite. 80 km Leitungsdraht wurden benötigt, um die elektrischen Teile miteinander zu verbinden. Aiken verwendete vorwiegend Standardbauteile, wie z. B. Relais, Zahnräder, elektrische Kupplungen usw. 

Das Programm, das "Mark I" steuerte, war dual codiert und auf einem 24-spurigen Lochstreifen gespeichert. Acht Spuren speicherten die Anweisungen für die Rechenoperationen, die restlichen Spuren dienten zur Adressierung in den Speicherelementen. "Mark I" hatte 60 Festwertspeicher. Er besaß aber keinen Schreib- und Lesespeicher, also noch keinen "Arbeitsspeicher" wie wir ihn heute kennen. 

"Mark I" beherrschte die vier Grundrechenarten und konnte mit errechneten Ergebnissen weiterarbeiten- besaß also einen Zwischenspeicher. Die Maschine rechnete mit elektrisch angetriebenen Zählrädern im Dezimalsystem. Die Rechenwerke wurden über Stecktafeln angesteuert. 

Für eine Addition brauchte "Mark I" nur noch 0,3 Sekunden. Es dauerte etwa sechs Sekunden, zwei zehnstellige Zahlen miteinander zu multiplizieren. Eine Division wurde in ca. 11 Sekunden erledigt. 

Das Nachfolgemodell entstand 1952 und trug den Namen "Mark II", ebenfalls ein Relais-Rechner:

Rechner der "Ersten Generation" (ca. 1944 - 1954) waren gekennzeichnet durch:  

  • Externe Speicher in Form von Magnetbändern oder Magnettrommeln.
  • Erst am Ende der Periode Magnet-Kernspeicher. 
  • Kein Betriebssystem, keine Compiler.  
  • Vakuum-Röhren als Schaltelemente: 

    

 

Elektronenröhren wurden zu Beginn der 50er Jahre als Schaltelemente für Computer verwendet. Sie waren Nachfolger der Relais-Technologie und Vorläufer der Transistoren. Die Schaltzeiten von Elektronenröhren lagen bei 5 ns; sie beanspruchten viel Platz, Energie und waren störanfällig. 

Bei einer Elektronenröhre fließt ein elektrischer Strom von der Kathode zur Anode. Zwischen beiden befindet sich ein Gitter. Die gesamte Anordnung ist in eine Vakuumröhre aus Glas eingebettet. Wird an das Gitter eine elektrische Spannung angelegt, so stößt die negative Ladung die Elektronen ab - es fließt kein Strom. Wie das Relais ist also auch die Vakuumröhre ein  Schalter, nur kleiner und schneller. Eine Elektronenröhre schaltet 1.000 mal schneller als ein Relais. Elektronenröhren haben aber auch Nachteile: Sie verbrauchen eine vergleichsweise hohe Leistung (Verlustleistung) und sind nicht sehr langlebig. Die damaligen Programmierer waren mehr Mechaniker, als mit der Programmierung beschäftigt. 

Die erste elektronische Rechenmaschine "ENIAC" (Electronic Numerical Integrator and Calculator) wurde 1944 von John Presper Eckert und J. W. Mauchley an der University of Pennsilvania (in der "School of Electrical Engineering") in Betrieb genommen. Sie diente vornehmlich militärischen Zwecken, nämlich der Errechnung von Richttabellen für die Artillerie und für Berechnungen zur Weiterentwicklung der Atombombe: 

Ursprünglich sah man den "ENIAC" für die schnelle Berechnung von Geschoß-Flugbahnen vor, die mit unterschiedlichen Abschußwinkeln und bei unterschiedlichen Lufttemperaturen abgefeuert wurden. 

Der Zweite Weltkrieg war allerdings schon vorbei, bis der "ENIAC" fertiggestellt war und funktionierte. Daher wurde er niemals für diese ballistischen Berechnungen eingesetzt. Die ersten vom "ENIAC" durchgeführten Berechnungen dienten dem Zweck, die Herstellung einer Wasserstoffbombe zu prüfen. Die Lochkarten wurden vom "ENIAC" verarbeitet und eine Million neuer Karten generiert, die wiederum als Input für einen weiteren Berechnungsdurchlauf dienten: 

Der Wissenschaftler, der den Einfall hatte, das Programm für die Wasserstoffbombe auf dem "ENIAC" laufen zu lassen, war der berühmte Mathematiker John von Neumann. Er arbeitete im Waffenlaboratorium von Los Alamos, New Mexico, und war Berater der "ENIAC"-Gruppe, die aus Mauchly, Eckert und einigen anderen bestand. 

"ENIAC" enthielt 18.000 Röhren als Schaltelemente. Etwa 500.000 Lötstellen sorgten für die notwendigen Verbindungen zwischen den elektrischen Teilen. Der "ENIAC" belegte einen Raum von 18 Metern mal 7,5 Metern. Sein Gewicht betrug etwa 27 Tonnen. Die elektrische Anschlußleistung belief sich auf 174.000 Watt. 

"ENIAC" konnte 20 zehnstellige Zahlen speichern, beherrschte die vier Grundrechenarten und erledigte die Multiplikation zweier zehnstelliger Zahlen in 2,8 Millisekunden: 

Die Programme für den "ENIAC" wurden durch Schalter und Verbindungsdrähte auf Schalttafeln gesteckt. Wegen der umständlichen Art der Programmierung, der hohen Kosten und der geringen Zuverlässigkeit der Röhren, blieb er ein Einzelstück:

     

Für jede Rechnung oder Rechenschleife mußten hunderte von Schaltern von Hand in die richtige Position gebracht werden: 

Doch auf diesem Weg konnte er schon 5.000 Additionen oder 400 Multiplikationen in der Sekunde ausführen. Somit war er etwa 2.000 mal so schnell wie der "Mark I". "ENIAC" rechnete die Wirkung einer Wasserstoffbombe in einem Monat aus.

Die Herstellungskosten: etwa 3 Millionen US-Dollar!

Allerdings hatte der "ENIAC" auch einige Mängel: die empfindlichen Elektronenröhren fielen oftmals aus. Die Darstellung der Zahlen war zu aufwendig: 10 ringförmig angebrachte Elektronenröhren dienten als Zehnerstellen. Auch war das Programmieren über Schalter zu umständlich. 

1944 leitete Maxwell H. A. Newman in Bletchley Park, Großbritannien, ein streng geheim gehaltenes, militärisches Projekt, an dem auch Alan Turing mitarbeitete, und bei dem eine Reihe elektronischer Röhrenrechner mit der Bezeichnung "Colossos" entwickelt und gebaut wurden. Sie wurden erfolgreich bei der Entschlüsselung von Nachrichten der deutschen Wehrmacht eingesetzt (Enigma):

     

In Anlehnung an die Ideen von Turing und Newman wurden in Enngland ab 1942 für kryptoanalytische Zwecke einfache, aber schnelle, elektronische Zähl- und Auswertungsgeräte hergestellt. Die Geräte hatten Decknamen wie "Heath Robinson", "Peter Robinson" oder "Robinson and Cleaver". 

Um die Probleme der mechanischen Abnutzung zu beseitigen, wurde 1943 unter Verwendung von 1.500 Röhren eine Anlage unter dem Decknamen "Colossos" gebaut. Im März 1944 war sie für aussagenlogische Verknüpfungsberechnungen einsatzbereit:

 

Ihre genaue Wirkungsweise und der Verbleib der Anlage, wurde bisher nicht bekanntgegeben. Lediglich die Tatsache, daß auf dieser Basis weitere Entwicklungen folgten, ist bekannt.

Für die Daten und Programme im Speicher eines Computers stand 1946 der Name John v. Neumann

Aus historischen Untersuchungen der letzten Jahre ist bekannt, daß fast alle Konstrukteure der bisher vorgestellten Rechenautomaten den Gedanken entwickelten, auch die Programmsteuerung in einem größeren internen Speicher zu hinterlegen. 

Dieser Gedanke wurde bisher nur mit dem Namen des bedeutenden Mathematikers John von Neumann in Verbindung gebracht. Die historische Forschung und Aussagen der an der Entwicklung der Rechenautomaten Beteiligten, lassen heute nur die Feststellung zu, daß v. Neumann die Idee des intern gespeicherten Programms zusammenfassend formulierte und aussprach. 

Bis dahin waren die externen Programme starr, das heißt, sie konnten nur in der vorgegebenen Reihenfolge abgearbeitet werden. 

Speicherte man Programmstrukturen in der gleichen Weise wie Daten, so konnten sie auch wie Daten behandelt werden. Folglich ließen sich Speicheradressen auf Grund von Ergebnissen im Programmablauf verändern. Durch vorgegebene oder errechnete Bedingungen, konnten im Programm Verzweigungen ausgeführt werden. 

Neumann entwickelte das Konzept der Steuerung von Rechnern mittels eines gespeicherten Programmes, und faßte die Grundprinzipien für Rechenanlagen zusammen:

  • Das Programm wird gleichberechtigt zu den Daten im Rechner abgelegt.

  • Das Programm besteht aus einer Abfolge logischer Befehlsentscheidungen.

  • Bedingte Programmbefehle erlauben Entscheidungen über den Fortgang des Programms.

Die 5 Grundelemente von Allzweck-Rechnersystemen sind:

  • Eingabe, um das Eingeben von Zahlen und Zeichen in die Maschine zu erlauben.

  • Speicher, die als Gedächtnis für Daten und Programmanweisungen dienen.

  • Arithmetische Einheit, um anfallende Berechnungen auszuführen.

  • Leitwerk, um die Ausführung der Aufgabe nach Vorgabe eines Programmes zu steuern.

  • Ausgabe, um den Benutzern die Ergebnisse der Berechnungen mitzuteilen.

Funktionsbeschreibung: Die Struktur des Von-Neumann-Rechners ist unabhängig von den zu bearbeitenden Problemen. Zur Lösung eines Problems muß von außen eine Bearbeitungsvorschrift, das Programm, eingegeben und im Speicher abgelegt werden. Ohne dieses Programm ist die Maschine nicht arbeitsfähig. 

Programme, Daten, Zwischen- und Endergebnisse werden im gleichen Speicher abgelegt. Der Speicher ist in gleichgroße Zellen unterteilt, die fortlaufend durchnummeriert sind. Über die Nummer (Adresse) einer Speicherzelle kann deren Inhalt abgerufen oder verändert werden.

Aufeinanderfolgende Befehle eines Programmes, werden in aufeinanderfolgenden Speicherzellen abgelegt. Das Ansprechen des nächsten Befehls geschieht vom Steuerwerk durch Erhöhen der Befehlsadresse um Eins. Durch Sprungbefehle kann von der Bearbeitung der Befehle in der gespeicherten Reihenfolge abgewichen werden. 

Es gibt arithemtische Befehle:  Addieren, Multiplizieren, Konstanten laden, usw. Logische Befehle: Vergleiche, logisches NICHT, UND, ODER, usw. Transportbefehle: Vom Speicher zum Rechenwerk und für die Ein-/Ausgabe, bedingte Sprünge. Sonstige Befehle: Schieben, Unterbrechen, Warten, usw. Alle Befehle können in verschiedenen Adressierungsarten ausgeführt werden. Alle Daten (Befehle, Adressen usw.) werden binär codiert. 

Geeignete Schaltwerke im Steuerwerk und an anderen Stellen, sorgten für die richtige Entschlüsselung (Decodierung).  

Kennen Sie den?

Zwei Informatiker treffen sich im Park, der eine hat ein neues Fahrrad. Meint der andere: "Boah, dolles Fahrrad, was hast'n gelatzt?" "War kostenlos." "Erzähl mal!" "Naja, gestern bin ich hier durch den Park gegangen, da kommt 'ne Frau auf 'nem Fahrrad vorbei, hält an, zieht sich die Kleider aus und meint, ich könnte alles von ihr haben, was ich will." "Hey echt gute Wahl, die Kleider hätten Dir eh' nicht gepaßt." 

Der erste magnetische Kernspeicher (Ringkernspeicher) "Whirlwind I" wurde 1947 am MIT entwickelt: 

Magnetkernspeicher bestanden aus kleinen Eisenringen, die auf einem Geflecht von X/Y-Datenleitungen aufgezogen wurden. Ein elektrischer Strom, der durch diese Kerne floß, konnte diese an den Kreuzungspunkten magnetisieren oder entmagnetisieren. Beim Auslesen wurde in einer Leseleitung durch die Magnetkerne ein entsprechender Strom induziert, der die logischen Entsprechungen bot.

Die Zugriffszeiten lagen bei 500-1.000 ns; der Speicher war nichtflüchtig, behielt also nach dem Ausschalten seine Information bei. Magnetkernspeicher wurden in Handarbeit verdrahtet, dadurch teuer und setzten einer Miniaturisierung Grenzen. Die ersten Module bestanden aus 4 mm großen Ringen mit 64 Bit, die letzte Generation besaß 0,46 mm große Ringe mit 8 KB. 

Eingebaut im gleichnamigen Computer:

Den ersten Magnettrommelspeicher steuerte die University of Cambridge ebenfalls 1947 bei.

Transistoren wurden 1947 in den Bell Laboratories der Firma AT&T von William Shockley, Walter Brattain und John Bardeen erfunden. Alle drei erhielten dafür 1956 dafür den Nobelpreis für Physik:

Transistor steht als Abkürzung für "Transfer Resistance Device". Ähnlich wie die Elektronenröhre kann er Ströme verstärken, benötigt aber weniger Energie. Transistoren sind ideale Steuerelemente, da sie klein, leicht und weniger störanfällig als Röhren sind. 

Um wieviel kleiner allerdings Schaltungen hiermit werden könnten, und welche revolutionäre Wirkung für die Elektronik hiervon ausgehen würde, ahnte damals kaum jemand. Mit dem Einsatz von Transistoren begann die Miniaturisierung der Computer. 

Als schnelle (und teure) Speicher wurden weiterhin magnetisierbare Ferritkerne verwendet. Der Aufbau geschah weiterhin durch Handverdrahtung. Die Zugriffszeiten sanken auf etwa 1 Mikrosekunde (10-6s).  

"William Bradford Shockley war sehr aufgeregt, als er am frühen Morgen des 23. Dezember 1947 mit seinem Wagen durch die rauhreifbedeckten Hügel westlich von Newark, New Jersey, jagte. Der Mann mit der fliehenden Stirn und der gewaltigen Hakennase, nahm zwei Stufen auf einmal beim Weg in sein Büro, gespannt auf das Experiment, das die Mitarbeiter seines Teams am frühen Nachmittag vorführen wollten.

Seit Jahren schon, suchten William Shockley und seine Wissenschaftler, am Forschungszentrum der Bell-Telephongesellschaft, nach einer konkreten Alternative zu den großen Vakuumröhren, mit denen die elektrischen Signale in technischen Geräten verstärkt wurden. Es war die Zeit, in der Computer noch ganze Säle füllten, und wuchtige Fernseh- und Radiogeräte die Inneneinrichtung amerikanischer Wohnzimmer bestimmten; regelrechte Möbelstücke waren das, die minutenlange Aufwärmzeiten brauchten, ehe sie funktionierten.

Bereits acht Jahre zuvor war Shockley auf die Idee verfallen, die physikalischen Eigenschaften von Festkörpern zur Entwicklung eines Schalterelements zu nutzen. Nach mehreren Fehlschlägen übergab er das Projekt an John Bardeen und Walter H. Brattain. 
Die beiden Wissenschaftler bildeten eine perfekte Symbiose. Bardeen, damals 39 Jahre alt, galt als schüchtern und sprach so leise, daß man ihn auf den Fluren der Bell Labs nur den “Flüsterer” nannte. Der schmächtige, gedankenverlorene Mann, war in dem Duo der Ideenbrüter. Brattain, 45, ein schwadronierender Abenteurertyp vom Lande, setzte Bardeens Gedanken in geniale Experimente um.

Die beiden teilten sich ihr Büro seit zwei Jahren. Sie waren längst Freunde geworden und hatten die letzten Monate - mit Ausnahme der Sonntage - oft bis tief in die Nacht, Schulter an Schulter, zusammengesessen, um an einer Versuchsanordnung für ihre revolutionäre Idee zu feilen. Bardeen und Brattain wußten, daß die elektrischen Eigenschaften von Halbleitermaterialien wie Germanium oder Silizium, durch eine Art künstlicher Verunreinigung, systematisch beeinflußt werden konnten. Mit dem richtigen Aufbau müßte sich also ein manipulierbarer Schalter für den Strom elektrischer Informationen herstellen lassen. 

Es war kurz nach dem Mittagessen an diesem öden Dezembertag, draußen war der Regen in Schnee übergegangen. Bardeen und Brattain warteten nervös in ihrem Labor auf Shockley, dessen Vorgesetzten Harvey Fletcher und auf Ralph Bown, den Entwicklungschef der Bell Labs.

Nach ein paar erklärenden Worten setzte Brattain eine fragile Apparatur aus Plastik, Goldfolie und einer Germaniumfläche in Betrieb. Auf dem Bildschirm des Oszilloskops sprang ein heller Fleck abrupt nach oben oder unten, wann immer Brattain den Kippschalter bewegte - eindeutiger Beweis dafür, daß das Eingangssignal durch die Erfindung um ein Vielfaches verstärkt wurde.

Dann nahm Brattain ein Buch mit den Annalen der Bell Labs und las daraus in ein Mikrofon. Ralph Bown, dem Brattain ein Paar Ohrhörer aufgesetzt hatte, blickte wie vom Donner gerührt. Kein Zweifel, dieses seltsame Teil funktionierte als Verstärker - ohne daß dafür eine der unpraktischen Vakuumröhren nötig war.

Die Herren waren sich einig, diesen Durchbruch noch ein paar Monate geheimzuhalten, um die komplizierten patentrechtlichen Verfahren zu klären. William Shockley, dessen mehrere Jahre alte Ideen den eigentlichen Ausgangspunkt des sensationellen Experiments geliefert hatten, erinnerte sich später an durchaus gemischte Gefühle in der Stunde des Triumphs. “Ich war frustriert, daß meine langjährigen Bemühungen am Ende so wenig zum Erfolg beigetragen hatten.”

Nach dem Triumph seiner Untergebenen machte Shockley sich sofort daran, sein eigenes Transistor-Modell zu entwickeln. Ende Januar 1948 hatte er ein Notizbuch voller Entwürfe, wie ein serienreifer Transistor aussehen könnte. Aber es dauerte noch Jahre, bis die Herstellungsverfahren für Shockleys Variante so perfektioniert waren, daß sie sich in nennenswerten Stückzahlen produzieren ließen. Das Modell von Bardeen und Brattain dagegen, konnte Ende 1948 in Produktion gehen.

Die Presse, der der erste Transistor am 30. Juni 1948, an einem Sommertag in New York, feierlich präsentiert wurde, war wenig beeindruckt. Die New York Times meldete die Innovation auf Seite 46, versteckt in einer News-Spalte aus der Welt des Radios.

Doch Shockley war von seiner Weiterentwicklung so überzeugt, daß er die eigentlichen Erfinder des Transistors bald wie lästige Studenten behandelte. Er verließ die Bell Labs in Richtung Kalifornien, um die Millionen zu machen, die er verdient zu haben glaubte. Er gründete die “Shockley Semiconductor Laboratory”, die erste Halbleiterfirma überhaupt in einer Gegend, die später als Silicon Valley Furore machen sollte - aber vom großen Geld, das dort inzwischen verdient wird, hat William Shockley nie etwas abbekommen.

Die Freundschaft der drei Männer, Bardeen, Brattain und Shockley, hatte den Siegeszug ihrer Erfindung nicht überdauert. Bald empfand Shockley die beiden anderen nur noch als Konkurrenten beim Kampf um die nächste Stufe in der rasant voranschreitenden Transistorforschung. Genervt von den Attitüden seines Vorgesetzten, war Bardeen bereits 1951 zur Universität von Urbana, Illinois, gewechselt. Brattain hatte sich in eine andere Abteilung der Bell Labs versetzen lassen. Die drei sollten sich erst 1956 wiedersehen, als ihnen in Stockholm, mit großem Pomp, gemeinsam der Nobelpreis für Physik verliehen wurde. 

Es brauchte einige Zeit, bis die Erfindung des Transistors mit all ihren Auswirkungen richtig verstanden wurde. Mitte der 50er Jahre hatte “Texas Instruments” (TI) damit begonnen, Planartransistoren für tragbare Radiogeräte zu produzieren, die damals ansehnliche 49,95 Dollar kosteten. Doch TI hatte kein Vertrauen in den neuen Markt, den schließlich der japanische Newcomer Sony erobern sollte.  Bald rannten die Hipper und Cooler der späten 50er mit Transistorradios in Hemd- und Hosentaschen herum. Und als die Japaner in den 60er Jahren darauf verfielen, Transistoren auch in Fernsehgeräte einzubauen, setzten sie damit endgültig zur Eroberung des weltweiten Marktes für Unterhaltungselektronik an.

Doch die Erfindung brachte der Welt mehr als tragbare Radios und Fernseher. Einfach ausgedrückt ist der Transistor ein steuerbarer Widerstand, der über die Weiterleitung elektrischer Impulse entscheidet. So wurde er zur Nervenzelle der digitalen Welt, in der alle Informationen auf binäre Zahlenkombinationen aus "Null" und "Eins" reduziert werden.

1954 bauten die Bell Labs für die amerikanische Luftwaffe den ersten transistorgestützten Computer. 1958 wurde die erste integrierte Schaltung entwickelt - die Urform des heutigen Mikrochips. 1961 war die Halbleiter-Industrie in den USA bereits zu einem Milliarden-Dollar-Busineß mutiert. Heute entfallen auf jeden Menschen etwa 40 Millionen Transistoren. Jährlich werden so viele produziert, wie es Ameisen auf der Erde gibt. Nicht nur die Geräte sind durch die Erfindung des Transistors geschrumpft. Der rasend schnelle Fluß von Informationen hat eine Art globale Intimität geschaffen, die uns die Illusion gibt, daß auch die Welt in den vergangenen 50 Jahren ein Stück kleiner geworden ist." 

(Dieser Text basiert auf einem Artikel aus “Crystal Fire. The Birth Of The Information Age” von Michael Riordan und Lillian Hoddeson)


Home            Zurück                                                                                                                                     Fortsetzung