Home            Zurück

Fortsetzung...

Die Grundidee zum ersten Rechner stammte von Charles Babbage, Mathematiker, Mitbegründer der "Royal Astronomical Association" und Professor in Cambridge, aus dem Jahr 1822

Der erste lochkartengesteuerte Webstuhl, den der Franzose Joseph-Marie Jacquard 1805 konstruiert hatte, veranlaßte ihn, mit der Arbeit programmierbarer Rechenmaschinen zu beginnen. Schon 1812 hatte Babbage die Idee, eine Differenzenmaschine zu bauen, bekannt geworden unter dem Namen "Difference Engine". 

Mit Hilfe der Maschine sollten mathematische Tabellen berechnet und überprüft werden können. 

1822 war ein erstes Arbeitsmodell fertig. Die Maschine sollte Logarithmen und Potenzen berechnen. Eine Schwede namens Georg Scheutz baute nach den Vorlagen von Charles Babbage ein funktionsfähiges Modell :

Babbage ließ die zu berechnenden Gleichungen von Mathematikern und geübten Rechnern derart zerlegen, daß hauptsächlich nur noch Additions- und Subtraktionsaufgaben übrig blieben, die dann von "Rechenknechten" gelöst wurden. 

Auf diesem Prinzip konstruierte Babbage innerhalb von 10 Jahren seine "Difference Engine", die für 2 Differenzen und 8 Dezimalstellen geplant war (1822). Zwei Arbeitsabläufe sollte diese Maschine automatisieren: Berechnen und Drucken mathematischer Tabellen. Als Babbage die Konstruktion seiner "Difference Engine" veröffentlichte, zeichnete ihn die "Astronomische Gesellschaft" mit einer Goldmedaille aus:

 

Durch den Erfolg dieser Maschine angespornt, wollte Babbage eine größere Maschine, mit 7 Differenzen und 20 Dezimalstellen bauen. Er scheiterte jedoch an der damals nicht realisierbaren notwendigen Genauigkeit der Mechanik.

1833 entwickelte Charles Babbage das Konzept eines Universalrechners, der, programmgesteuert, digitale Befehle und Daten verarbeiten sollte. Er nannte diesen programmgesteuerten Rechner "Analytical Engine": 

Die Maschine sollte durch ein vorher ausgearbeitetes Programm gesteuert werden, Speicher für Zwischenergebnisse besitzen, Rechnungen unter Verwendung vorher berechneter und gespeicherter Zwischenergebnisse durchführen und die Ergebnisse ausgeben. Er entwarf diese Maschine um 1850

Die Anlage erwies sich aber als derart kompliziert, daß sie mechanisch nicht mehr herzustellen war. Die Arbeiten gerieten in Vergessenheit. Allerdings enthielt sie schon alle Merkmale moderner Computer. Babbage wird deshalb als "Vater der Computer" angesehen (obwohl seine Maschinen nie funktionierten).

Babbage war ein außerordentlicher Pedant. Er versuchte sogar, eine Partei zu gründen, mit dem Ziel, die vielen Straßen-Musikanten in London zu verbieten, die ihn abends und nachts sehr störten. Er wurde jedoch nicht gewählt. Obwohl er in seiner Fachwelt eine hohe Reputation genoß, endete er in Verbitterung. Aus Rache spielten die Stadt-Musikanten besonders oft vor seinem Haus, oft bis tief in die Nacht hinein.

Charles Babbage Gallerie.

Augusta Ada Byron erdachte zahlreiche Programme für die Rechenmaschinen von Charles Babbage (erstmals veröffentlicht 1843 in: "Scientific Memoirs. Selected from the transactions of foreign academies and in foreign journals"). Sie gelten als die ersten Computerprogramme, die je geschrieben worden sind und Ada Byron als die erste Programmiererin der Welt:

 

Ihr zu Ehren wurde eine Computer-Sprache benannt: ADA, vom DoD (= Department of Defence = US-amerikanisches Verteidigungs-Ministerium) entwickelt und verwendet. 

Die mathematischen Grundlagen der Informatik, in Form einer speziellen Algebra, wurden 1847 von dem englischen Mathematiker George Boole  entworfen. 

In der Mitte des 19. Jahrhunderts breiteten sich in England abstrakte Auffassungen des algebraischen Kalküls aus, eine symbolische Algebra, in der die Zeichen keinen eigenen Bedeutungsgehahlt mehr hatten, sondern es wurden auf rein abstrakter Ebene die logischen Operationen mit ihnen betrachtet. Grundlegende Gesetze der Algebra, wie etwa das Assoziations- und das Distributivgesetz, stammen aus dieser Zeit. Das vielleicht bedeutendste Werk stammt vom britischen Mathematiker George
Boole.

Er veröffentlichte seine ersten Gedanken, über die von ihm begründete mathematische Logik, in der Schrift "The mathematical analysis of logic, being an essay towards a calculus of deductive reasoning". Sie brachte ihm zwei Jahre später eine Professur für Mathematik am "Queens College" in Cork ein. 

In diesem Werk wird die Logik mit mathematischen Mitteln aufgebaut und als 'Algebra der Logik' dargestellt. Boole hatte erkannt, daß die archimedische Syllogistik nur einen kleinen Teilbereich logischer Schlüsse behandelt und damit für die Darstellung der logischen Verhältnisse in der Mathematik ungenügend ist. Mit Boole begann die unmittelbare Geschichte der mathematischen Logik. Er entwickelte in Form seiner Klassenalgebra eine Logik, die bedeutend leistungsfähiger war als die aristotelische Syllogistik. In dieser Logik wird ein vollständiges System der einstelligen Prädikatenlogik geliefert. Hier sind genau die logischen Gesetze beweisbar, die sich auf die logischen Beziehungen zwischen Eigenschaften richten. Die Syllogistik selbst ist im Booleschem System vollständig enthalten. 

In seiner Abhandlung "An investigation of the laws of thought, on which are founded the mathematical theories of logic and probabilities", London 1854, entwickelte Boole die erste Form seiner "Algebra der Logik", die später als "Boolesche Algebra" bezeichnet wurde. 

Boole unterschied eine Klassenlogik, in der die Zahl Eins als "Allklasse" und die Zahl Null als "Nullklasse" aufgefaßt wird, und in eine Aussagenlogik, in der Eins "wahr" und Null "falsch" bedeutet. Er untersuchte die Syllogismen der Antike erneut und stellte fest, daß es nur zwei Arten gibt. Konstruktive Formel: Wenn ein A ein B ist, dann ist ein C ein D. Wenn nun das A ein B ist, dann ist das C ein D (Beispiel: Wenn die Sonne scheint ist es hell, und wenn es hell ist, dann ist Tag. Wenn die Sonne scheint, ist es Tag). Destruktive Formel: Wenn ein A ein B ist, dann ist ein C ein D. Wenn nun C nicht D ist, dann ist A auch nicht B (Beispiel: Wenn die Sonne scheint ist es hell, und wenn es hell ist, ist es Tag. Wenn die Sonne nicht scheint, dann ist es nicht Tag). Eine Aussage X ist wahr, wenn x = 1 ist, und falsch, wenn x = 0 ist. 

George Boole schuf mit seiner Algebra die ersten theoretischen Voraussetzungen für die digitale Datenverarbeitung.

Amédée Mannheim war 1861 Schöpfer des Rechenstabes mit dem Teilungsbild A, B, C, D.

1870 führte der britische Physiker John Tyndall den Mitgliedern der königlichen Gesellschaft in London, die Totalreflexion des Lichtes vor. 

Er zeigte, daß Licht aus einem bogenförmigen Wasserstrahl nicht austreten kann, sondern von ihm von einer Stelle zu einer anderen weitergeleitet wird. Er hatte damit einen primitiven Lichtleiter entdeckt. Eine praktische Anwendung von Tyndalls Experiment gab es erst 1955 durch den Briten Narinder S. Kapany. Heute ist der Lichtwellenleiter, selbstverständlich auf Kunststoffbasis, der wichtigste und schnellste Datenübertragungsstandard geworden.

1876 baute Curt Dietzschold eine Rechenmaschine. Erstmalig fand ein Schaltwerk mit Schaltklinken für Paralleladdition - in Anlehnung an die Erfahrungen aus der Uhrenindustrie - Verwendung. 

Dietzschold suchte nach einer Rechenmaschinenkonstruktion, auf die sich die Uhrmacher leichter einstellen konnten, da sich Uhren- und Rechenmaschinenkonstruktion in weiten Teilen ähnlich waren. Mit derartigen Überlegungen und Plänen kam er 1877 nach Glashütte, richtete sich unter Nutzung der hier gegebenen Voraussetzungen eine Werkstatt ein und baute einige Rechenmaschinen seiner Konzeption. Eine der Maschinen wurde zur Erprobung dem "Preußischen Statistischen Amt" zur Verfügung gestellt. Diese Maschine hatte jedoch einige technische Unzulänglichkeiten an der letztendlich die Einführung scheiterte. Dietzschold wurde 1879 als Direktor an die Fachschule für Uhrenindustrie in Karlstein/Niederösterreich berufen und verließ Glashütte. Wegen der Weiterführung des Rechenmaschinenbaus wandte er sich an seinen Studienfreund Arthur Burkhardt, dessen Fähigkeiten, komplizierte Maschinen zu verstehen, er hoch einschätzte. 1878 gründete Arthur Burkhardt in Glashütte die "Erste Rechenmaschinenfabrik in Deutschland": 

David Hilbert entdeckte 1878 die mathematischen Grundlagen für Entscheidungsprobleme: "Finde einen Algorithmus, der entscheidet, ob eine gegebene Aussage wahr oder falsch ist". 

"Algorithmen sind schrittweise Verfahren zur Berechnung von gesuchten aus gegebenen Größen. Woraus die einzelnen Schritte bestehen, ob sie mathematische Berechnungen sind oder irgend etwas anderes - Kochrezepte, Gebrauchsanweisungen, Wegbeschreibungen - ist zweitrangig. Wesentlich ist, daß die Schritte eindeutig beschrieben sind, daß sie für einen Menschen oder einen Computer ausführbar sind und daß es nur endlich viele Schritte sind, denn sonst würde der Algorithmus nie an ein Ende kommen und nie Ergebnisse liefern. 

Eindeutigkeit heißt, daß es bei der Ausföhrung eines Schrittes keine Wahlmöglichkeit des Ausführenden oder Unklarheiten bezüglich der Ausführung geben darf. Wenn jemand einen Weg beschreibt und sagt: "An der nächsten Kreuzung links ab", ist das nur dann eindeutig, wenn es an der nächsten Kreuzung eine und nur eine Möglichkeit gibt, links abzubiegen. Eindeutigkeit ist in den Beschreibungen des täglichen Lebens oft nur schwer zu erreichen, wie man an vielen Gebrauchsanweisungen feststellen kann. Sie ist auch oft gar nicht erforderlich, weil der Mensch mitdenkt. Algorithmen sind jedoch Anleitungen für eine Maschine, die nicht mitdenkt, sondern wirklich nur das ausführt, was man ihr sagt.Was heißt es aber, daß jeder Schritt "vom Menschen oder der Maschine ausführbar sein" muß? Dahinter verbirgt sich nur die Aussage, daß die Ausführung der Schritte keine Zauberei erfordern darf. Also etwa Anweisungen wie "Lege die Erde auf eine Waagschale" oder  "Wenn Beethovens 'Unsterbliche Geliebte' Therese von Brunswick war, dann gehe nach Schritt 3, sonst nach Schritt 17" sind nichtausführbareAnweisungen. 

Die Forderung, daß alle Algorithmen nach endlich vielen Schritten enden müssen, mutet selbstverständlich und wie eine überflüssige Pedanterie an. Sie ist es aber keineswegs. Wie schon am Euklidischen Algorithmus zu erkennen war, enthalten Algorithmen Schleifen, das heißt Wiederholungen von Befehlsfolgen. Damit der Algorithmus endet, muß jede Schleife einmal verlassen werden. Es kommt aber oft vor, daß durch einen Programmierfehler eine Schleife nicht verlassen wird. Das Programm tritt dann auf der Stelle, kommt nicht voran, "hängt in einer ewigen Schleife", und kann nur durch Eingriff von außen abgebrochen werden, natürlich ohne das gewünschte Ergebnis zu liefern. Da aber ein Algorithmus unter allen Umständen ein Ergebnis liefern soll, spricht man einem nichtabbrechenden Verfahren die Eigenschaft ab, ein Algorithmus zu sein. Das ist eine Definitions- und Zweckmäßigkeitsfrage und bedeutet nicht, daß nichtabbrechende zyklische Prozesse immer nutzlos sind. Im Gegenteil! Sie haben in der Programmierungstechnik große Bedeutung. Aber wir bezeichnen sie dann traditionsgemäß nicht mehr als Algorithmen. 

Obwohl sie nicht in der Defnition des Algorithmus vorkommt, ist die Schleife sein wesentliches Element, das ihn von den Rechenverfahren der traditionellen Mathematik unterscheidet. Eine Programmschleife wird unter Umständen hunderte von Malen durchlaufen und ist deshalb praktisch nur mit dem Computer ausführbar. Man nennt Rechenverfahren mit Schleifen "iterativ" oder "Iterationsverfahren" (lateinisch iteratio = Wiederholung), und es ist kein Wunder, daß man sich vor der Erfndung des Computers wenig mit ihnen beschäftigte. Iterationsverfahren sind oft "nur" Näherungsverfahren, bei denen man sich der wahren Lösung immer mehr nähert, ohne sie je vollständig zu erreichen. Aber das vermindert nicht ihren Wert, da man durch genügend viele Iterationen den Fehler beliebig klein machen kann. 

Eine Programmiersprache ist eine Algorithmusdarstellung in Textform, die man direkt in die Maschine eingeben, vom Compiler übersetzen und dann von der Maschine ausführen lassen kann. Sie ist die präziseste und vollständigste Möglichkeit der Algorithmusbeschreibung. Wegen dieser Präzision und Vollständigkeit muß sie jedoch auch nichtalgorithmische Elemente enthalten, unter Umständen so viele, daß der eigentliche Algorithmus von ihnen überwuchert wird". (Peter Rechenberg, Universität Linz,  rechbg@soft.uni-linz.ac.at)

David Hilbert forderte zu Beginn unseres Jahrhunderts eine "Neubegründung der Mathematik", so der Titel seines Werks aus dem Jahr 1922, in der die gesamte Mathematik durch formalisierte Axiomsysteme dargestellt und die Widerspruchsfreiheit der Systeme durch endliche mathematische Methoden bewiesen werden sollte. Die berühmten "Prinzipien der Mathematik" (lat. Principia Mathematica"), von Bertrand Russel und Alfred N. Whitehead, im Jahr 1910 veröffentlicht, gaben Anlaß zur Hoffnung, daß dieses als "Hilbertprogramm" bezeichnete Vorhaben durchführbar sei. Hilbert selbst glaubte, daß die Gütigkeit oder Ungültigkeit jeder mathematischen Behauptung eindeutig, das heißt mit Hilfe finiter Methoden, geklärt werden könne, wenn das Axiomsystem hinreichend formalisiert sei. Der Mathematiker Kurt Gödel konnte nachweisen, daß es in einem beliebigen, widerspruchsfreien Axiomensystem immer wahre arithmetische Sätze gibt, die aus dem Systen nicht abgeleitet werden können. Zu den nicht ableitbaren Sätzen gehört auch der Nachweis der Widerspruchsfreiheit selbst, weil dazu Methoden benötigt werden, die im System selber nicht formalisierbar sind. Hier gilt also, was bereits die Kritiker Kants feststellten: Man kann ein System nicht vollständig mit dessen eigenen Mitteln untersuchen. Mit dem mathematischen Nachweis der Gödel´schen Sätze war das Hilbertprogramm gescheitert. 

Gottlob Frege, deutscher Mathematiker, steuerte 1879 eine symbolische Sprache zur Beschreibung von Algorithmen bei ("Grundlage moderner Logik").

Mit seinen drei Hauptwerken "Begriffsschrift" (1879), "Die Grundlagen der Arithmetik" (1884) und der zweibändigen Schrift "Grundgesetze der Arithmetik" (1893/1903), widmete sich Gottlob Frege der Ausführung des logizistischen Programms. 

Auf Basis der von der Logik zu entdeckenden Gesetze des Wahrseins, sollte es möglich werden, das Beweisen und Schlußfolgern auf eine feste logische Grundlage zu stellen, auf der es nicht mehr einem psychologisch bestimmten Gefühl überlassen bleiben sollte, ob ein Beweis korrekt sei oder nicht. Auf dieser logischen Grundlage, die von Frege in der "Begriffsschrift" aufgebaut wurde, könnte in einer mechanischen Prozedur, die auch eine entsprechend konstruierte Maschine auszuführen in der Lage wäre, entschieden werden, ob ein logisch korrekter Beweis vorläge oder nicht. Diese Maschinen, über die wir heute mit dem Computer verfügen, waren zu Freges Zeiten natürlich nur als vage Ideen vorhanden. 

Die "Grundgesetze der Arithmetik" bildeten dabei unzweifelhaft den Höhepunkt des Frege'schen Werkes. Frege ging es darum, mit dem Ziel einer sicheren Begründung der Mathematik nachzuweisen, daß die Arithmetik auf Logik zurückführbar sei, also ein Teil der Logik ist.

"Und nur das würde ich als Widerlegung anerkennen können, wenn jemand durch die That zeigte, dass auf andern Grundüberlegungen ein besseres, haltbareres Gebäude errichtet werden könnte, oder wenn mir jemand nachwiese, dass meine Grundsätze zu offensichtlich falschen Folgesätzen führten. Aber das wird Keinem gelingen". 

Bis Bertrand Russel kam, der 1902 nachwies, daß im Frege'schen System Widersprüche beweisbar waren. 

Frege erwies sich als guter Verlierer: "Einem wissenschaftlichen Schriftsteller kann kaum etwas Unerwünschteres begegnen, als dass ihm nach Vollendung einer Arbeit eine der Grundlagen seines Baues erschüttert wird. In diese Lage wurde ich durch einen Brief des Herrn Bertrand Russell versetzt (...)". 

Die Begründung der Arithmetik auf rein logischer Grundlage, war Frege nur um den Preis der Widersprüchlichkeit gelungen. Daß eine vollständige formale Begründung der Arithmetik prinzipiell nur zu diesem Preis möglich ist, konnte erst in den 30er Jahren unseres Jahrhunderts durch Kurt Gödel mit seinem berühmten Unvollständigkeitstheorem gezeigt werden. Damit war das Schicksal des Logizismus als wissenschaftlichem Programm besiegelt.

Die verdiente positive Aufnahme durch die etablierte Logik, fand Frege's Werk erst nach 1902 durch die Vermittlung Bertrand Russells, der die logischen Errungenschaften und das neue Herangehen Freges an die Logik außerordentlich schätzte, und trotz der Schwierigkeiten beim Erfassen der Frege'schen Ideen, Frege doch zugestand, die entscheidenden Voraussetzungen für die moderne Logik geschaffen zu haben.

"In allen logisch-analytischen Fragen verdanken wir das meiste Frege. Wo wir von ihm abweichen, geschieht es meist, weil Widersprüche zeigten, daß er - wie übrigens alle alten und modernen Logiker - einen Irrtum in seine Voraussetzungen sich hatte einschleichen lassen; ohne die Widersprüche aber wäre es unmöglich gewesen, diesen Irrtum aufzudecken". 

Das "mechanische Fernsehen" begründete im Jahre 1884 der deutsche Ingenieur Paul Nipkow, mit dem von ihm erfundenen "elektrischen Teleskop". 

Es bestand aus einer, sowohl zur Bildzerlegung, als auch zur Bildzusammensetzung verwendeten Scheibe mit spiralig angeordneten Löchern, die später als Nipkow-Scheibe benannt wurde: 

Auf der Aufnahmeseite drehte sie sich vor dem abzubildenden Gegenstand, und tastete alle seine Punkte Zeile für Zeile ab, wobei das räumliche Nebeneinander der so erhaltenen verschiedenen Helligkeitswerte (Bildelemente), mit Hilfe von Selenzellen, in ein zeitliches Nacheinander elektrischer Spannungswerte (Bildsignale) umgesetzt wurde. 

Auf der Wiedergabeseite erfolgte der Aufbau des Fernsehbildes nach einem Zeilenverfahren auf elektromechanischer Grundlage. Dies war der Ursprung des Bildschirms. 

Die Nipkow-Scheibe wurde bis 1938, neben elektronischen Bildzerlegern, verwendet.

Ein weiterer wichtiger Rechner-Pionier ist Herrmann Hollerith, der 1886 für eine US-Volkszählung die Lochkarte wesentlich verbesserte: 

Hollerith erfand ein System, wie man Daten auf Karten durch ausgestanzte Löcher verschlüsseln kann: Für jeden Bürger wurden in die Karte, entsprechend eines bestimmte Schlüssels, charakteristische Kennungen eingegeben. Eine Lesemaschine zur Auswertung übertrug diese speziellen Informationen auf mechanische Zählwerke. 

Bei der Auswertung der 11. amerikanischen Volkszählung, die im Jahre 1890 stattfand, wurde das System erstmals eingesetzt. Es bewährte sich bei statistischen Auswertungen und war für die spätere Entwicklung des Digitalcomputers von Nutzen.

Mit Hilfe von Holleriths Lochkartenmaschine benötigten 500 Helfer mit 43 Zählmaschinen erwa vier Wochen für die Auswertung (für die vorangegangene Volkszählung brauchten 500 Helfer fast sieben Jahre!). Hollerith gründete 1896 die Tabulating Machine Company, die 1924 nach Fusion mit anderen Firmen, zur International Business Machine Corporation (IBM) wurde.

Die Technologie der Lochkarten ist deshalb von Bedeutung, weil man dort erstmals Informationen "binär" über "0"und "1", oder "Loch"-" kein Loch"verschlüsselte. Es zeigte sich später, daß man damit auch Anschluß an elektromechanische und elektronische Bauelemente fand: z. B. die Zustände "Relais angezogen" - "Relais abgefallen".  

Im Jahre 1910 wurden bei der Volkszählung in Deutschland ebenfalls Lochkarten der damaligen Firma “Deutsche Hollerith-Maschinen-Gesellschaft” eingesetzt. 

Die Arbeitsweise dieser Karten als Datenspeicher, bestand in der unterschiedlichen Anordnung von Löchern in jeder Karte. Diese Löcher wurden mit Stiften mechanisch abgetastet und dadurch Stromkreise für elektromagnetische Zählwerke geschlossen oder geöffnet:

Einen ausführlichen Artikel über Herrmann Hollerith gibt es hier.

Baudot lieferte 1889 die Konstruktion von binären Codes:

Baudot's Code war der erste 5-Bit-Digital-Code. Er besteht aus den zwei logischen Zuständen "1" und "0". Elektrisch gesehen, sind diese Zustände durch Stromfluß ("1") oder keinen Stromfluß ("0") gekennzeichnet und war der direkte Vorläufer des heutigen ASCII-Codes: 

Eine formale Darstellung dieser binären Codes definierte der Engländer Huntington im Jahre 1904

Die "Boolesche Algebra" ist Grundlage dafür, daß ein Computer zählen, rechnen, bzw. Information verarbeiten kann. 

Es hatte sich  gezeigt, daß sich eine billige, robuste und trotzdem sehr leistungsfähige Informationsverarbeitung nur auf der Basis einer zweiwertigen Logik ausführen ließ, also auf der Basis zweier Zustände wie "an / aus", "high / low". Bei der klassischen Nachrichtentechnik ist die Größe einer Spannung oder die Größe eines Stromes zu einem gewissen Zeitpunkt selbst die Information. 

Der deutsche Physiker Karl Ferdinand Braun erfand 1897 die nach ihm benannte Elektronenstrahlröhre (Braun'sche Röhre):

 

Sie wurde die Grundlage der modernen Fernsehkameras und Fernsehempfänger und wird noch heute als Bildröhre verwendet.

Der Einsatz der Braun'schen Röhre in der Fernsehtechnik, erfolgte erstmals durch den deutschen Physiker Max Dieckmann (Patent für "Verfahren zur Übertragung von Schriftzeichen und Strichzeichnungen unter Benutzung der Katodenstrahlröhre"), sowie durch den russischen Physiker Boris Iwowitsch Rosing (Patent auf einen elektrischen Fernseher, "Elektrisches Teleskop" genannt), dessen erstes arbeitsfähiges Modell er am 9. Mai 1911 in Rußland vor namhaften Physikern demonstrierte. 

Dieckmann und Rosing, die beide noch mit mechanischen Bildzerlegern arbeiteten, begründeten mit diesem ersten Einsatz der Braun'schen Röhre ein halbelektronisches Fernsehen. Beide Systeme waren wahrscheinlich die ersten funktionierenden Fernsehsysteme der Welt.

Die Braun'sche Röhre besitzt, neben ihrer Anwendung im Fernsehgerät, auch im Computersystem ein Monopol zur Bildwiedergabe. Während beim Fernsehen bis heute eine Bilddarstellung mit Analogwerten den Vorzug hat, ist bei Computern die digitale Darstellung gegeben. Jeder Bildpunkt wird dabei durch ein binäres Codewort in Helligkeit und Farbkomponenten dargestellt. Während es bis in 70-iger Jahre hauptsächlich Zentralrechner gab, und die Braunsche Röhre vor allem in den daran angeschlossenen Terminals eingesetzt wurde, gibt es heute bei jedem PC einen Monitor mit Braun'scher Röhre. Sie ist somit an jedem Computerarbeitsplatz das "Interface" zwischen Mensch und Maschine.

In der Frühzeit der Entwicklung des Computers, wurde die Braun'sche Röhre verschiedentlich auch zur Konstruktion von Rechenschaltungen vorgeschlagen. Von Maximilian Mathias stammt das Dt. Reichspatent von 1938, in dem die Braunsche Röhre als Dezimalzähler eingesetzt wurde. Walter Hündorf reichte 1939 ein Patent mit dem Titel "Elektrische Rechenzelle" ein, in dem die Braun'sche Röhre zur Realisierung verschiedener Rechenschaltungen, und somit zum Aufbau einer elektronischen Rechenanlage vorgeschlagen wurde.

Die Entwicklung spezieller, mit gewöhnlichen Elektronenröhren realisierbarer, digitaler Rechenwerke, hat schließlich die Umsetzung solcher Patente verhindert. Die ersten elektronischen Rechner wurden mit Elektronenröhren als Schaltelemente gebaut.

Die grundsätzliche Idee von Ferdinand Braun, mittels eines Elektronenstrahls, durch magnetische oder elektrostatische Ablenkung, ein Bild auf einem fluoreszierenden Schirm zu schreiben, ist bis heute erhalten. Natürlich ist die Entwicklung bei der Anordnung von Braun nicht stehengeblieben und die "Braun'sche Röhre" hat sich bis zu den heutigen Formen von Bildröhren, wie sie in Fernsehapparaten oder bei Computern Verwendung finden, entwickelt. Neben dem Telefon bildet die Braun'sche Röhre die wichtigste Schnittstelle für den Empfang von Information mittels elektrischer Signale.

Valdemar Paulsen zeichnet 1900 erstmalig Daten magnetisch auf. 

1906 wurde durch Lee de Forest die Elektronenröhre (Verstärkerröhre) entwickelt- zeitgleich mit dem Österreicher Robert von Lieben

Die Elektronenröhre ist elektrisch gesehen ein Schalter, der durch einen anderen (zweiten) Schaltvorgang oder Impuls ausgelöst werden kann. Die technische Anwendung der Elektronenröhre ließ allerdings noch einige Jahre auf sich warten:

    

       

               

     

Der Amerikaner Powers entwickelte eine verbesserte, rein mechanische, Lochkartenmaschine und gründete 1910 die "Powers Accounting Machine Company", die 1959 in England zur heutigen ICL fusionierte: 

Der Niederländer Peter DeBye beschrieb erstmals 1910, wie man Licht optisch leiten kann. Er war damit der späteren Lichtleiter-Technik um viele Jahre voraus.

1913 schufen A. N. Whitehead und Bertrand Russel ein Grundlagenwerk für Mathematik und Logik: Die "Principia Mathematica".

Aus der Geschichte der logischen und mathematischen Grundlagenforschung wird berichtet, daß um die Jahrhundertwende eine Reihe von logischen Paradoxien auftraten, die mit der sog. "Grundlagenkrise der Mathematik" im Zusammenhang stehen sollen. 

Problem: "Der folgende Satz ist falsch. Der vorhergehende Satz ist richtig".

Die Zunft der Mathematiker war verstört. 

Naheliegend war der Versuch, eine Methode zu finden, mit der Selbstbezüglichkeit und 'Seltsame Schleifen' auszumerzen wären. Die "Principia Mathematica" von Russell und Whitehead, veröffentlicht von 1910 bis 1913, stellte ein solches Mammutunternehmen dar, welche die gesamte Mathematik widerspruchsfrei, also ohne 'Seltsame Schleifen', aus der Logik abgeleitet werden sollte. 

Anknüpfend an die Cantor'sche Mengenlehre und aufbauend auf Freges Überlegungen zur Beweistheorie, sowie Peanos Symbolismus, gelang es in der "Principia Mathematica" erstmals, weite Bereiche der Mathematik aus einigen wenigen logischen Grundbegriffen und Axiomen herzuleiten. 

Zur Auflösung der Widersprüche und Paradoxien in Logik ("Die Behauptung dieses Satzes ist falsch". "Ich bin ein Lügner") und Mengenlehre, entwickelten Whitehead und Russell die sogenannte "Typentheorie". 

1914 führte Leonardo Torres y Quevedo die Gleitpunktzahlendarstellung in den Rechenmaschinenbau ein.

Eccles und Jordan entwickelten 1919 erste Vorstellungen von einer "Flip-Flop"- Schaltung (binärer Speicher).

In der Kölner Reichsbahndirektion wurden 1925 erstmalig Lochkartenmaschinen verwendet, welche die Arbeit auf ein Zehntel der Zeit reduzierten. Auch die Kaiserliche Werft, die Reichsversicherungsanstalt für Angestellte, die "Ruhrknappschaft", sowie die "Statistischen Ämter" von Berlin und Wien, setzten erstmalig die neue Technologie ein.

Paul & Joseph Galven übernahmen 1928 das bankrotte Batterieunternehmen "Stewart Stonge Battery Co." in Chicago, Illinois, und gründeten die Motorola Company, welche später die besten CPU's konstruieren sollte. 

Helbert und Aekermann entwickelten im gleichen Jahr logische Verknüpfungen in elementaren Schaltungen. 

Und Fritz Pfleumer aus Dresden verwendete nicht mehr, wie der dänische Physiker Valdemar Poulsen, einen magnetisierbaren Draht, sondern erstmals ein magnetisierbares Band als Tonträger für die magnetische Schallaufzeichnung. 

Pfleumer kam aus der Buntpapierbranche, experimentierte mit Papieren, Pulvern, Magneten und Verstärkern und ließ sich seine magnetisierbaren Papierbänder patentieren. Mit seiner Erfindung hatte er das erste Tonband (Magnettonband) der Welt geschaffen, das heute in der Audio- und Videokassette immer noch Stand der Technik ist.

Vannevar Bush konstruierte 1931 die erste Maschine zur Differenzialanalyse.

Ebenfalls 1931 stellte IBM den Multiplizierer "IBM 600" vor, eine nicht schreibende Multiplikations- Lochkartenmaschine, die extern über eine Schalttafel programmiert wurde. 

1934 konnte das Nachfolgemodell "IBM 601" schon eine Formelrechnungsfunktion vorweisen.

Der österreichische Ingenieur Gustav Tauschek konstruierte 1932 für die Datenverarbeitung, in Anlehnung an das Magnettonverfahren, den ersten Magnettrommelspeicher als Informationsträger auf magnetischer Grundlage.

Er bestand aus einem mit hoher Geschwindigkeit rotierenden Zylinder (Trommel), auf dessem, in Spuren eingeteiltem Mantel, eine magnetisierbare Schicht aufgetragen war. Jeder zu beschreibenden Spur war in geringem Abstand von der Trommel, ein in seiner Lage nicht veränderlicher Magnetkopf zum Schreiben und Lesen zugeordnet. Die Speicherkapazität war abhängig vom Durchmesser des Zylinders, der Anzahl der Spuren, und der Umdrehungsgeschwindigkeit. 

Das erinnert sehr an die Festplatten heutiger Bauart.

Der große Unterschied zwischen klassischen Rechenmaschinen und modernen Rechnern ist die Programmierbarkeit letzterer. Und gerade die Eigenschaft der Programmierbarkeit ließ sich anscheinend rein mechanisch nicht mehr integrieren.   

Aufbauend auf die Arbeiten von Babbage hat Konrad Zuse 1934 eine programmgesteuerte, mechanische Rechenmaschine, die "Z1", entworfen (und im Wohnzimmer seiner Eltern zusammengebaut): 

Sie wies folgende Merkmale auf:

  • Die rein duale Darstellung von Zahlen und Operationsbefehlen unter ausschließlicher Verwendung bistabiler Schaltelemente.

  • Die halblogarithmische Zahlendarstellung (heute Gleitpunktdarstellung genannt).

  • Rechnenoperationen mit Hilfe der Aussagenlogik.

Aber auch damals waren die mechanischen Probleme schließlich unlösbar. 

Anfang der 40er Jahre baute Zuse dann die "Z3" als elektromechanische (relaisgesteuerte) Rechenmaschine. Die " Z3" war der elektromechnische Nachbau der "Z1", wobei die mechanischen Schaltglieder der "Z1" durch Relais ersetzt wurden:  

Die "Z3" war der erste voll funktionsfähige, programmgesteuerte, elektromechanische Digitalrechner. 

Er arbeitete mit Dualzahlen. Das Rechenwerk wurde aus 600 Relais gebildet. 2.000 Relais standen für das Speicherwerk zur Verfügung. Es war überwiegend Altmaterial: die Wicklungen der Relais waren uneinheitlich, und benötigten unterschiedliche elektrische Spannungen. 64 Zahlen mit 22 Dualstellen konnten gespeichert werden. Die Maschine beherrschte neben den vier Grundrechenarten noch andere Rechenarten, z. B. das Radizieren. 

Die "Z3" konnte schon 15-20 Rechenoperationen in einer Sekunde durchführen. Fest eingebaute Arbeitsabläufe waren auf Tastendruck abrufbar. Die Ausgabe geschah über ein Lampenfeld. 

Für größere Rechenoperationen wurde das Programm auf gelochtem Normalfilm eingestanzt. Der Programmablauf war linear, d. h. es gab keine Verzweigungen:

Bei der "Z3" fehlten bedingte Befehle. Der Programmablauf erlaubte keine Sprünge. Dies ist die entscheidende Funktion, weshalb die "Z3" noch keinen Universalrechner darstellte. Mit der binären Logik ist sie konzeptionell jedoch anderen Rechnern, die erst noch folgen sollten, wie z. B. dem "Eniac", überlegen.

Die "Z3" war im Mai 1941 der erste voll funktionsfähige, frei programmierbare, programmgesteuerte binäre Rechenautomat. Zuse engagierte den blinden Mathematiker Arnold Fast für die Programmierung. Fast wurde damit zum ersten Programmierer eines funktional einsetzbaren Computers. Die "Z3" wurde im Krieg zerstört. 

Darauffolgend die "Z4", aufgebaut mit Elektronenröhren:

 

     

   

1945 entwickelte Zuse die erste algorithmische Programmiersprache, bekannt als "Plankalkül" und verwendete diese dazu, ein Schachprogramm zu schreiben.

1950 gründete er seine eigene Computerfirma, die 1967 von Siemens übernommen wurde.

1950 wurde die "Z4" aus ihrem Versteck geholt und an der ETH Zürich leicht verbessert installiert. Sie war damals der einzige funktionierende Computer Europas und leistete dort ihren Dienst bis 1955.

Ausführliche technische Details, Bilder und weitere Informationen zu den Zuse-Rechnern, finden Sie hier


Home            Zurück                                                                                                                                   Fortsetzung