Home            Zurück

Fortsetzung...

Die IBM "305 RAMAC" (Random Access Method for Accounting and Control) wurde 1956 vorgestellt. Eine erste Magnetplatteneinheit mit beweglichen Schreib- und Leseköpfen (eine Art Festplatte):

 

Erstmalig bot sich die Möglichkeit des Datendirektzugriffs. Auf 50 rotierenden Magnetplatten waren zehn Millionen zehnstellige Zahlen gespeichert. Dieser Speicher zeichnete sich, neben der für seine Verhältnisse großen Speicherkapazität, vor allem durch seine hohe Zugriffsgeschwindigkeit aus.

Siemens lieferte 1957 mit der Rechenanlage "2002" einen voll transistorisierten Computer, der ebenso als Meilenstein anzusehen ist, wie "Z3" oder "Mark 4".

Auch der erste transistorierte sowjetische Computer "M4"entstand im Jahre 1957

Eine ganze Serie von ähnlichen Computern wurde bis 1963 produziert. Einige "M4" sollen sogar noch bis vor einigen Jahren genutzt worden sein!

In den USA wurden 1958 die ersten richtigen Modems von der Firma AT&T verkauft. Die Übertragungsrate betrug 300 Bps (Bit pro Sekunde): 

Ebenfalls 1958 erfand Jack Kilby bei Texas Instruments den integrierten Schaltkreis (engl. integrated circuit, kurz: IC).  Auf einem IC befand sich ein kompletter Schaltkreis mit Widerständen, Dioden und Transistoren: 

 

 

 

 

 

 

 

  

 

 

 

 

 

Wolf Lotter und sein Artikel über Chip's:

"Jack St. Clair Kilby ist ein kleiner Mann mit einem riesigen Kopf, einer dicken Hornbrille und einem Gesicht, das sich nie entscheiden kann, ob es lächelt oder grantelt. Deshalb bleibt es logisch neutral, was ganz sympathisch aussieht. Im Dezember 2000, 42 Jahre nachdem Jack Kilby den ersten Chip zusammengebastelt hatte, erhielt er dafür den Nobelpreis für Physik. 

Ein Chip heißt Chip, englisch für Scheibchen, weil zum Zeitpunkt der Erfindung Kilbys, im Sommer 1958, Transistoren die Form einer kleinen Scheibe mit herausragenden Drähtchen hatten. (...)
Das Entscheidende am Chip ist seine Kompaktheit. Die Miniaturisierung ist ein Nebenprodukt der Übersichtlichkeit. (...)
Das Problem war: Selbst kleine Transistoren brauchen, wenn sie zu Tausenden, Zehntausenden als Rechenwerk in einem Computer eingesetzt werden, viel Platz und Energie. Und: Einzelne Transistoren müssen miteinander verbunden werden. Die Wegstrecke zwischen zwei Transistoren beträgt zwar nur wenige Millimeter, doch bei einigen Zehntausend ergibt das eine ganze Menge Draht.

Desweiteren kommt hinzu: Die Signale der Transistoren, der Informationsaustausch, können theoretisch in Bruchteilen einer Nanosekunde (eine Milliardstel Sekunde) erfolgen, vorausgesetzt, der Weg ist klein genug. Je kürzer die Wege zwischen den Schaltungen, desto schneller die Informationsübertragung in Computern, so viel stand fest. 
Jack Kilby erfand den kompakten Chip – Robert Noyce machte daraus ein Serienprodukt, das die Computerrevolution auslöste. 

Man mußte also die einzeln arbeitenden Transistoren auf einem Bauteil unterbringen und dicht aneinander packen. Das war die zündende Idee der Integrierten Schaltung, der "Integrated Circuit" (IC) von 1958. Die sah nach heutigen Verhältnissen natürlich etwas primitiv aus: ein Scheibchen derb bearbeitetes Germanium, darauf winzige Goldfädchen gelötet, Drahtfüßchen, durch die die Elektronen fließen konnten. Ein häßliches Ding, das vier Transistoren und vier Kondensatoren enthielt, aber kompakt war und in einem Stück. Kilbys Integrierte Schaltung, der monolithische Chip, war eine Sensation. Nicht nur, daß sich viel kleinere Computer bauen ließen, wofür Militärs und die NASA, die vorher nicht wußte, wie sie ihre schönen neuen bemannten Raketen hochbringen sollte, sich herzlichst bedankten. 

Kilbys Entwicklung animierte auch ein Team, das in nur wenigen Jahren das Konzept des modernen Chips entwarf, ein System, das bis heute funktioniert. Der junge kalifornische Ingenieur Robert Noyce und sein Kollege Gordon Moore waren bei "Shockley Semiconductor Laboratories", gegründet vom Nobelpreisträger William Shockley, mit der Entwicklung von Schaltkreisen beschäftigt. Robert Noyce erkannte zwei wesentliche Mängel der Kilby-Entwicklung. Das Verlöten der Leiterbahnen mußte der Miniaturisierung der Chips im Wege stehen. Besser, so fand Noyce, wäre es doch, die leitenden Teile der Integrierten Schaltung mit Aluminium oder Gold aufzuätzen und zu drucken, hauchdünn und flach – planar, wie der Experte sagt. 
Das klappte ganz gut mit Masken oder Schablonen. Noyce ätzte also durch Schablonen auf den Halbleiter die erste Anzahl von Schaltungen. War das getan und trocken, sprühte er isolierenden Fotolack durch eine Maske überall dorthin, wo kein Strom fließen sollte. Zack, die nächste Schablone, wieder leitendes Material aufgesprüht, und schon war eine weitere Leiterbahn gelegt. Das planare Verfahren war Kilbys Löt-Prototypen auch beim Rohstoff überlegen: Statt teuren Germaniums wurde das praktisch unbegrenzt verfügbare Silizium (englisch: Silicon) verwendet. 

William Shockley hielt das für Unfug. Noyce und Moore konnten sich bei ihm mit dem Verfahren nicht durchsetzen. Auch ihr nächster Arbeitgeber, "Fairchild Semiconductors", übersah die Bedeutung des planaren Verfahrens. Noyce und Moore zogen aus, um in San Jose, südlich von San Francisco, ein Start-up mit dem Namen Intel zu gründen. (...)

Hier wurden die weiteren wichtigen Schritte für den Chip entwickelt: Moore hatte 1964 erkannt, daß sich durch den Einsatz der planaren Methode immer kleinere Chips mit immer höherer Leistung, zu immer niedrigeren Preisen erzeugen ließen. Alle 18 Monate verdoppelt sich die Leistung eines nach dem planaren Prinzip hergestellten Chips bei gleichzeitiger Halbierung der Fertigungskosten. Das ist das Grundrecht des Siliziumzeitalters, nach seinem Entdecker Moores Gesetz genannt. Seit fast vier Jahrzehnten bestimmt es die Taktfrequenz der Industrie. Es wird, so meinen Experten, noch für wenigstens ein Jahrzehnt Gültigkeit haben, bis die Grenzen des Machbaren bei der Miniaturisierung erreicht sind. 

Ein aktueller Prozessor (so werden Chips genannt, die als Herzstück des Computers andere Chips in Geräten organisieren und die Rechenarbeit verrichten) nach dem planaren Prinzip Robert Noyce’ verfügt heute über 25 Millionen einzelner Transistoren, zwischen denen nur mehr 0,15 Mikrometer Distanz liegen. Ein Mikrometer ist ein Tausendstel Millimeter. Oder anders: Ein menschliches Haar ist 1500-mal dicker als die Distanz zwischen zwei Transistoren auf einem dieser Prozessoren". 

Auf der Basis solcher IC's entwickelte Texas Instruments 1967 den ersten Taschenrechner. Seine Leistung war mit der des "ENIAC" vergleichbar. Sein Vorteil war aber, daß er klein und handlich war - eben ein Taschenrechner. Die Erfindung der IC's war die Grundlage für die Entwicklung moderner Prozessoren und Computer.

1959 baute IBM den "7090". Er war voll transistoriert und besaß einen Magnetkernspeicher:

Ebenso stellte IBM unter der Bezeichnung "1401" erstmalig ein transistorisiertes EDV-System vor, das aus gedruckten Schaltungen (Platinen) und einem Ferritkernspeicher bestand: 

SMS-Karte (Standard Modular System), 1959. Diskrete Technik mit einzelnen Transistoren, Widerständen, Dioden und Kapazitäten auf einer gedruckten Schaltung. Die Schaltzeit lag bei 500 ns:

 

Im selben Jahr stellten Fairchild und Texas Instruments fast gleichzeitig die ersten Chips vor. Diese Chips basierten auf der Silizium-Planar-Technologie, die bis heute zur Herstellung von integrierten Bausteinen verwendet wird. 

Im Auftrag des amerikanischen Verteidigungsministeriums wurde 1959 die kommerzielle Programmiersprache COBOL (= Common Business Oriented Language) entwickelt. 

Entwicklungschefin war Grace Hopper. Trotz anfänglicher Widerstände des Computer-Giganten IBM, setzte sich COBOL als Standardsprache für kommerzielle Anwendungen durch. Damit eignete sich diese Sprache für geschäftliche Aufgaben, wie Buchhaltung oder die Verwaltung von Bankkonten. Sie unterliegt bis heute starken Normierungsvorschriften, die bereits 1963 festgeschrieben wurden und bisher nur zweimal (1974 und 1985) aktuallisiert worden sind.

1961 stellte wiederum Fairchild den ersten "echten" integrierten Schaltkreis vor. Auf diesem Chip waren vier getrennt arbeitende Transistoren und andere passive Bauelemente untergebracht.

Im Oktober 1961 lieferte Texas Instruments einen kleinen Computer  an die Armee , der vollständig mit integrierten Schaltkreisen aufgebaut war, und erstmals über einen Hauptspeicher mit einigen hundert Bit verfügte.

Unter der Bezeichnung "Teleprocessing" wurden ebenfalls 1961 von IBM erstmals Daten per Telefon zur Bearbeitung in einen Rechner übertragen. 

Leonard Kleinrock am MIT machte sich Gedanken über den Informationsfluß in großen Kommunikationsnetzen. Die erste Theorie über Datenbündelung und Datenkompression entstand.

Unter John McCarthy entstand 1962 die Sprache "LISP" (List processing language)- die erste Sprache der "Künstlichen Intelligenz"(KI). Die einzige Datenstruktur in "LISP" ist eine Liste.

Appropos KI. Einen sehr fundierten Aufsatz "Von der Philosophie des Denkens zur Computer-Philosophie", findet sich bei Reinhard Golecki.

1963 entwickelte IBM den "1311 Wechselplattenspeicher". 

Das ca.1x1 Meter große Gerät, speicherte auf sechs Magnetplatten bis zu 2,68 MB an Informationen, bei einer Übertragungsrate von 69 KB/s und einer Zugriffszeit von 150 ms (zum Vergleich: heutige Festplatten besitzen eine Zugriffszeit von 6-12ms). 

Auch  präsentierte 1963 der niederländische Philips-Konzern, auf der Internationalen Funkausstellung in Berlin, die erste Tonkassette mit dem dazu passendem Recorder. 

Vornehmlich für Musik und Sprache ausgelegt, war er später auch Datenspeicher für diverse Homecomputer (ZX-Spectrum, C64 usw.).

Weitere Highlights aus 1963: Doug Engelbart erfand die "Computer-Maus" und meldete sie zum Patent an: 

Der "ASCII-Zeichensatz" wurde zum Datenaustausch zwischen Computern eingeführt. 

1968 wurde der ASCII-Zeichensatz international als ANSI-Standard X3.4 genormt.

Die problemorientierte Computersprache "BASIC" entwickelten 1964 die beiden Programmierer Thomas Kurtz und John Kemeny

T. Kemeny und J. Kurtz erstellten am Darthmouth College eine Programmiersprache für Lehrzwecke, die auch von Laien in wenigen Tagen erlernt werden konnte. Sie nannten sie, als Abkürzung von "Beginners Allpurpose Symbolic Instruction Code" (Universell anwendbare symbolische Anweisungscodes für Anfänger), BASIC. 
Basic wurde in den 70er Jahren auf vielen professionellen Rechnern implementiert, um Anfang der 80er Jahre zur Standardprogrammiersprache für Homecomputer zu werden. Dort diente es, durch die Fähigkeit Befehle direkt von der Kommandozeile aus auszuführen, gleich als Anwenderschnittstelle des Betriebssystems. Es entstanden unterschiedliche Formen von Basic. Zunächst unter DOS das GW-BASIC und Quick-BASIC, später, unter Windows, VISUAL BASIC. VISUAL BASIC wurde zur Standard-Skriptsprache für die Steuerung der Anwendungsprogrammen unter Windows. 

1964 kündigte IBM die erste Rechnerfamilie "IBM System/360" an:

Die "IBM 360" wurde in verschiedenen Konfigurationen angeboten. Externe Geräte konnten über genormte Steckverbindungen auch nachträglich noch in das System eingebunden werden.

IBM System /360 (Modell 30) mit den wichtigsten Eingabe-/Ausgabe-Einheiten. Vorn die Zentraleinheit und die Bediener-Schreibmaschine.

SLT-Karten (Solid Logic Technology) wurden ab 1964 beim IBM System/360 eingesetzt. Bei dieser Hybridtechnik wurden Transistor-Module, zusammen mit anderen elektronischen Bauteilen, auf einer Karte zusammengefaßt. Die Schaltzeit lag bei 10-100 ns. 

Gleichzeitig kam durch die Firma Digital Equipment der "PDP-8", ein erster "Supercomputer" mit mehreren Prozessoren, auf den Markt. Der Erfinder hieß Gordon Bell:

Eine Vielzahl technischer Details, Bilder und Informationen gibt es bei www.pdp8.net:

Digital Equipment (DEC) wurde von Kenneth Ohlsen 1957 mit dem Ziel gegründet, Hochleistungscomputer preiswerter herzustellen. 1965 kam der erste kommerzielle Erfolg : Der PDP-8, ein Rechner für unter 100.000 DM. 

Ein DEC-Mitarbeiter ging einen Schritt weiter: David Ahl wollte kleine, preiswerte Computer im Bildungsbereich einsetzten und begann mit seinem Team an einem Prototypen zu arbeiten, der 1973 der Firmenleitung vorgestellt wurde. Diese war zwar von der Kompaktheit fasziniert (das Gerät hatte die Größe eines Fernsehers und war in einem DEC-Terminal untergebracht), sah aber auf dem Markt keinen Bedarf für ein solches Gerät. Es schien ihr einfach undenkbar, daß eine Privatperson einen Computer, der zudem noch relativ wenig Leistungsfähigkeit besaß, kaufen würde. 

David Ahl kündigte. 

Dies machte Schule: D. Slotnick ließ 1967 mit dem "ILLIAC IV" einen Parallelrechner mit 256 Prozessoren folgen.

In dieser Zeit entstanden erste einfache Betriebssysteme, also Software, welche den Zugang zum Rechner und die Ressourcen-Verteilung (Speicherplatz, Rechenzeit etc.) organisierte. Programmiersprachen wie "Cobol", "Fortran" und "Algol", sowie deren Compiler, dies sind Übersetzungsprogramme von der Programmiersprache in die Maschinensprache des jeweiligen Rechners, wurden entwickelt. 

In diese Periode fielen auch die ersten wissenschaftlichen Anwendungen. Rechner wurden in Banken, Großfirmen und Behörden vor allem zur Bewältigung der numerischen Routinearbeit eingesetzt. Auch das Berufsbild des Informatikers entstand in dieser Zeit. Erste Universitäten boten entsprechende Studiengänge an (in Deutschland 1969).

Ebenso fanden Rechner Einzug in Ingenieur-Abteilungen und Ingenieurbüros, obwohl dort immer noch der Rechenschieber seine Vormachtstellung behauptete. Ein Rechner kostete noch Millionen in der Anschaffung. Sie benötigten eine sehr spezielle und teure Infrastruktur, das sogenannte "Rechenzentrum", kostbarste und gehütetste Perle jeder (Groß-) Firma und jeder Behörde. Rechner wurden fast ausschließlich für die Stapel-Verarbeitung eingesetzt, also für die Erledigung mehrerer Berechnungsaufgaben nacheinander - möglichst ohne Zeitverlust.

Die "Dritte Generation" (ca. 1966 - 1974) ist technologisch durch die Einführung integrierter Schaltkreise statt diskreter Transistoren gekennzeichnet:

 

1968 erfolgte der erste Schritt zu hochintegrierten Schaltkreisen. Bei dieser Computergeneration wurden die immer noch relativ großen Baugruppen in einem einzigen Chip zusammengefaßt. Diese Entwicklung ermöglichte einen Sprung in Leistung und Komplexität der Rechner, bei gleichzeitiger Kostensenkung. Die Zugriffszeiten auf ein Datum sanken auf ca. 1 ns (10-9s).  

Durch die Entwicklung von speziellen Computern, z. B. dem "IBM System /360 Modell 75", war die Kontrolle und Steuerung des Mondlandeprogramms "Apollo" möglich.

Auch gründete 1968  eine Gruppe ehemaliger Fairchild-Ingenieure die Firma INTEL. Inzwischen war es gelungen, über hundert Transistoren auf einen Chip zu integrieren.

Hier die INTEL-Story:

1968 machten sich Manager Robert Noyce und Entwicklungsleiter Gordon Moore, beide bislang bei Fairchild beschäftigt, selbstständig und gründeten Intel. Grund war, daß bei Fairchild, wie auch bei anderen Computerfirmen, die Vorteile der 1961 entdeckten integrierten Schaltkreise kaum ausgenutzt wurden. Bald holten sie Andy Grove, Generaldirektor von Fairchild, als Geschäftsführer nach.

Der kommerzielle Erfolg kam 1969 mit der Fertigung des "1103", einem 1 KB statischem RAM, und 1970 mit dem "1113", einem 1 KB dynamischen RAM. Bislang wurden Speicher durch kleine Eisenringe (Ringkernspeicher) realisiert, die auf den Kreuzungspunkten eines Drahtnetzes lagen - Ein teurer, langsamer und voluminöser Speicher.  Bald war Intel Marktführer bei RAM-Bausteinen und EPROMS. 

Eher beiläufig kam es zu der Sparte, die heute das Hauptgeschäft von Intel ausmacht: Den Prozessoren. 1971 bekam Intel  von Busicom den Auftrag, eine Schaltung für einen Tischrechner zu entwickeln. Dies wurde damals folgendermaßen realisiert: Man entwarf eine Schaltung die auf Druck von Taste "X" eine Aktion "Y" ausführte. Doch wurde das Ganze so komplex, daß man mehrere Schaltkreise benötigt hätte. Ein kluger Kopf hatte jedoch eine Idee: Anstatt direkt auf die Tasten zu reagieren, entwarf man eine Schaltung mit einfachen Befehlen, die beim Druck auf eine Taste in einem ROM nachschaute, welche Befehle sie ausführen mußte, um die Aktion durchzuführen. Als diese Schaltung 1971 fertig war, geriet Busicom in wirtschaftlichen Schwierigkeiten und Intel kaufte die Rechte für 60.000 $ zurück und brachte das Produkt als "Intel 4004" auf den Markt. Seitdem feierte sich Intel als "Erfinder des Mikroprozessors." (Allerdings hatte Intel den Mikroprozessor nicht erfunden - dies geschah 1968 in den Entwicklungslabors bei Texas Instruments). 

Der "Intel 4004" war für viele der Einstieg in die Computertechnik. So auch für Gary Killdall und Bill Gates. Die Leistung des 4 Bit-Prozessors war jedoch für echte Anwendungen noch zu gering. Dies änderte sich mit Intel's erstem 8 Bit-Prozessor, dem "8080". Bei den 8-Bit-Prozessoren gab es allerdings mit Motorolas "6800" bereits eine echte Konkurrenz. Beide Firmen sahen in den 8 Bit-Prozessoren vollwertige Rechner, die als Pendent zu den Minicomputern gedacht waren. 

Als Ed Roberts seinen "Altair" konstruierte, wählte er den "8080" als Prozessor. Der "Altair 8080" wurde nicht nur ein Erfolg, sondern zum Standard für zahlreiche andere Computersysteme. 

Zwischenzeitlich machten sich Intel-Ingenieure, die den "4004" entwickelt hatten, selbstständig  und gründeten Zilog. Ihr erstes Produkt, der "Z80" war ein voller Erfolg. Für Hardwareproduzenten war der Chip interessant, weil er die gesamte Logik für die Ansteuerung der DRAM's integrierte, sowie einen Taktgenerator beinhaltete. Dadurch wurden zwei Chips, gegenüber dem "8080", eingespart. Für Softwarentwickler war natürlich interessant, daß der "Z80" softwarekompatibel zum "8080" war. Der "Z80" hatte jedoch neue Befehle und Register, die das Programmieren vereinfachten. Bald war Intel nicht mehr in neueren  Systemen vertreten. Daran änderte auch eine verbesserte Version des "8080", der "8085", nichts. 

1975 begann Intel mit der Entwicklung des "I432", ein 32 Bit-Prozessor mit dem man den Großrechnern Konkurrenz zu machen gedachte. Doch die Entwicklung zog sich hin, das Design war zu komplex und der Chip erschien erst 1983

Der 8 Bit-Prozessorenmarkt boomte inzwischen ohne Intel. Eiligst begann man einen neuen Prozessor zu bauen, der die Kunden bei Laune halten sollte, bis der "I432" beendet war. So wurde in nur drei Wochen das Design des "8086" fertiggestellt (dies ging deswegen so rasch, weil der Chip zwar nominell ein 16 Bit-Prozessor war, das Design aber vom 8 Bit-Prozessor übernommen wurde. Aus diesem Grund konnte man nur maximal 64 KB Speicher als Einheit ansprechen). 

Es gelang 1978 mit dem "8086" vor der Konkurrenz auf dem Markt zu sein. Als aber 1979 Motorola's "MC 68000" erschien, wurde dieser von den Kunden eindeutig bevorzugt. Der "MC 68000" war billiger, dreifach schneller, unkomplizierter und das Design technisch überlegen.

Da der "8086" deutlich schlechter als der "MC 68000" war, kündigte Intel seinen "I432" als wares Wunderwerk an. Andy Grove rief die (Marketing-) Operation "Crush" ins Leben. Seine Botschaft. "Lieber Kunde, kauf jetzt einen "8086" und steige später auf den "I432" um, dann hast Du keine Probleme mit der Übertragung der Software". Damit die Rechenschwäche des "8086" nicht so auffiel, stellte man einen Coprozessor in Aussicht, der Berechnungen fünfmal schneller als ein "MC 68000" erledigen sollte - nur, es gab ihn nicht einmal auf dem Papier. Er erschien erst 1983, als "8087", und war fünfmal teurer wie der "8086". 


Die Hersteller von Computersystemen ließ die Operation "Crush" kalt.1980 kamen die ersten Workstations von Sun, HP und Silicon Graphics auf den Markt- mit einem "MC 68000". 

Bis auf einen!

Intel erregte IBM's Aufmerksamkeit. Bei IBM entstand gerade das Konzept des "Acorn", der später als "IBM PC" auf den Markt kommen sollte. Der "8086" war genau richtig: Ein 16 Bit-System mit nur wenig mehr Leistung als ein 8 Bit-System. In der Version "8088" konnte man sogar die 8 Bit-Peripherie übernehmen. 

Da es immer mehr IBM PC-Kompatible gab, welche die anderen Computersysteme verdrängten, wurde Intel mit dem "8086" doch noch zum Riesen. 

1982 erschien der "80286", 1985 folgte der "80386". Doch die ersten Exemplare erreichten keine 16 MHz Taktfrequenz- sie mußten als 12 Mhz- Version verkauft werden (dies passierte übrigens auch bei den ersten Pentium's).
Andy Grove wandte folgenden Marketing-Trick an (der seitdem immer wieder erfolgreich von ihm verwendet wurde): Er kreierte ein Produkt, speziell für den Low Cost-Markt, mit abgespeckter Leistung, aber dem Namen des zugkräftigen High End-Produktes. Dies war beim "386er" der "386 SX" (mit 16 Bit-Bus, nicht schneller als ein 286er). Er verkaufte sich dank des Marketings "3 ist mehr als 2", sehr gut. Danach dasselbe Spiel mit dem "486 SX" (ohne Coprozessor, mit 16-25 MHz), sowie mit dem "Celeron" (ohne Cache).

Mit der "Pentium"-Serie gelang es, die Konkurrenz weitestgehend auszustechen. Der "Pentium" baute nicht mehr auf dem "486er" Kernel auf. Die Konkurrenz mußte nun eigene CPU's entwickeln- die meisten gaben in diesem ruinösen Wettbewerb auf. Einzig AMD schaffte es: durch den Wechsel der Sockel und Board's bei fast jeder Verbesserung der Pentium's, war es egal, daß AMD's "Athlon" einen eigenen Sockel und Chipsatz benötigte. 

Nachdem Adam Grove Intel in den 80er Jahren zum reinen Prozessorlieferanten machte, begann in den 90er Jahren ein Umdenken. Intel entwickelte hochgradig parallele Superrechner wie den "ASCI Red" und nutzte das Know How für Mehrprozessorsysteme wie z. B. die "Xeon"-Serie. "Chipzilla" ist heute auch führend bei den Chipsätzen. In anderen Bereichen, wie der Einführung des RAMBUS oder der integrierten Grafiken, blieben die Erfolge aus. 

Ein trauriges Kapitel war die Zusammenarbeit Intel's mit Softwareherstellern. Propagiert als Konkurrenz für große Maschinen, schrieb Intel ein Betriebssystem namens "ISIS". Es sollte dem Anwender ermöglichen, in Hochsprachen den Rechner komfortabel zu programmieren. 1976 bot Gary Killdall Intel sein "CP/M" für den "8080" an. Intel lehnte ab, denn "ISIS" war das bessere Betriebssystem. Nur, "ISIS" war nicht für kleine PC's mit wenig Speicher entwickelt worden, sondern für sehr gut ausgebaute Maschinen. Der Markt, auf dem der "8080" sich verkaufte, war aber der kleinerer Computer für Privatleute, sowie als Controller in Ampeln und Tankstellen. "CP/M" wurde zu einem kommerziellen Erfolg. Dem ersten, der Intel durch die Hände glitt. Die meisten Rechner mit "CP/M" liefen zudem noch mit den Prozessoren des Konkurrenten Zilog

1980 wollte IBM den PC mit dem "8086" bauen, Bill Gates bat Intel, ein gutes Wort für Microsoft bei IBM einzulegen. "Mein Chef, Chuck McMinn, kommt eines Tages in mein Büro und knallt mir ein Handbuch auf den Schreibtisch", erinnert sich John Wharton. "Und erzählt mir, eine Firma, irgendwo im Norden, versuche Intel dazu zu bewegen, ihr Betriebssystem zu lizenzieren oder zu unterstützen". Zwei Tage darauf hatte sich Wharton mit MSDOS vertraut gemacht und kam zu einem vernichtenden Urteil. "Meine Empfehlung war ein uneingeschränktes Nein. Diese Leute sind Spinner. Sie machen nichts wirklich Neues und sie haben keine Ahnung von dem was sie tun. Ihre Ansprüche sind ziemlich niedrig und es ist nicht einmal sicher, ob sie wenigstens die einlösen". Whartons negativer Eindruck wurde verstärkt durch das Chaos, das er bei einer eintägigen Besprechung mit Microsoft-Entwicklern in Seattle zu sehen bekam. Von da an mußte Bill Gates feststellen, daß Intel seine Anrufe nicht mehr erwiderte. 

MSDOS wurde später zur meistverkauften Software überhaupt.

Intel hat dazugelernt und sorgt dafür, daß bei der Einführung des 64 Bit "Itanium"-Prozessors auch Betriebssysteme vorhanden sind, die ihn unterstützen. Darunter Linux- und Microsoft Produkte. Daneben wird man die 32 Bit-Linie noch weiterführen. 

1969: Das Arpanet (Vorläufer des Internet) verband in den USA 4 Rechner an vier Universitäten.  

1965: Das Arpanet wurde aus ideologischen, wirtschaftlichen und militärischen Gründen in Amerika installiert und ausprobiert. Getestet wurde ein kooperatives Netzwerk mit time-sharing Computern. Ein "TX-2" im MIT Lincoln Labor und ein "AN/FSQ-32" in der System Development Corporation (Santa Monica, CA) wurden direkt über eine 1.200Bps Telefonleitung verbunden. Ein "Digital Equipment Corporation (DEC)-Computer" der ARPA wurde später zugeschaltet, um das erste "Experimental Network" zu gründen. 

April 1969: Über 15 Knoten mit insgesamt 23 Rechnern wurden am Arpanet angeschlossen. Die Standorte dieser Knoten waren: University of California at Los Angeles (UCLA), Stanford Research Institute (SRI), University of California at Santa Barbara (UCSB), University of Utah, Bolt Beranek and Newman (BBN), Massachusetts Institute of Technology (MIT), RAND Corporation, SDC, Harvard, Lincoln Labs, Stanford, University of Illinois at Urbana Champaign (UIUC), Case Western Reserve University (CWRU), Carnegie Mellon University (CMU), NASA-Ames. 

Compuserve, erster kommerzieller Online-Dienst, nahm den Betrieb auf. 

1981: Abspaltung des Military Network. Die Verbindung wurde als "DARPA-Internet" bezeichnet, was zu "Internet" wurde.
Andere dezentrale öffentliche Netzwerke entstehen: UUCP, Usenet, CSNET (Computer and Science Network), BITNET (Because it's time network).

1994: Am Massachusetts Institute of Technology (MIT) wurde das W3C (World-Wide.Web-Consortium) unter Beteiligung von Steve Jobs gegründet. Es sollte die künftigen Geschicke des Netzes lenken.

Donald Davies erfand 1969 die blockweise, gesicherte Datenübertragung. 

Die "RS232-Schnittstelle" wird genormt.

Auch 1969, fanden in New York und Stuttgart erste Ausstellungen von Computerkunst statt.

In den USA gab es 1970 erste Versuche, Computer für den Familienbetrieb nutzbar zu machen. 

Fernschreiber stellten die Verbindung zum Computer her: Steuererklärungen, Haushaltspläne, Informationsdienste, Hausaufgaben der Kinder und erste Ansätze von Teleheimarbeit wurden im Feldversuch getestet. Insgesamt rüstete man 20 (!) Haushalte für den damaligen Stand supermodern aus. In der amerikanischen Armee wurden die ersten mobilen Computer auf einem Sattelschlepper montiert.

Eine große Innovation der 70er Jahre war der Ersatz der Magnetkern-Speicher durch Halbeiterspeicher. Auf diesem Gebiet leistete eine damals unbedeutende Firma namens Intel wesentliche Vorarbeiten. In die frühen 70er Jahre fällt auch der Einstieg in die Großintegration, die erstmals die Integration einfacher Prozessoren auf einem Stück Silizium erlaubte: 

IBM stellt 1970 das System "IBM S/370" vor. Das erste System mit monolithischem Speicher-IC, an Stelle der bisher eingesetzten Ferritkerne. Pro Speicher-IC wurden immerhin 128 Bit erreicht:

Bei der MST-Technologie (Monolithic Systems Technology) sind mehrere Schaltkreise in einem Chip vereint. Eine MST-Karte enthält mehrere monolithische Logikmodule. Die Schaltzeit betrug 5 -20 ns. 

Einen Meilenstein in den Programmiersprachen schuf N. Wirth 1971 durch die Erfindung der Programmiersprache "Pascal".

Ein Name, der heute für jeden zu einem Begriff geworden ist, wurde ab 1971 immer öfter erwähnt: Silicon Valley. Das "Tal der Chips" war der Geburtsort der PC's, und allem was mit Prozessortechnik zu tun hatte.

Silicon Valley besitzt seinen Namen erst seit 1971. Damals prägte der Journalist Don Hoeffler den Namen in einem Artikel über die Halbleiterindustrie der Vereinigten Staaten. Die wichtigste Stadt ist Palo Alto mit der Stanford-Universität.

1924 wurde Frederick E. Terman Professor für Radiotechnik in Stanford. Er spielte in der Geschichte des Silicon Valley gleich in zweifacher Weise eine besondere Rolle. 

Zunächst verhalf er der allerersten Elektronikfirma zur Gründung, indem er seinen Studenten William Hewlett und David Packard einen größeren Kredit verschaffte. Die Firma Hewlett-Packard dürfte heute jedem ein Begriff auf dem Gebiet der Mikroelektronik sein. 

Seine zweite bedeutende Tat, war die Gründung des Stanford Industrial Parc. Die Gründung dieses Forschungsparks für universitätsnahe, industrielle Forschung, sollte Stanford zu mehr Kapital verhelfen, um mehr Wissenschaftler einstellen, und bessere Einrichtungen anschaffen zu können.

1951 war es soweit: Die erste Firma bezog ihr Grundstück im Forschungspark: Varian Associates. 1954 folgt Hewlett-Packard

Zu Beginn der 80er Jahre waren mehr als 90 Firmen, darunter auch die bekanntesten der amerikanischen Hi-Tech-Industrie, im Forschungspark vertreten. 

1956 gründete Wiliam Shockley (einer der Erfinder des Transistors) die Firma  Schockley Semiconductor Laboratory. Doch bereits 1957 verließen Ingenieure, wegen Unstimmigkeiten über die Produktlinie,  Shockley und gründeten eine eigene Firma: Fairchild Semiconductors. Es war die erste Firma, die ausschließlich Siliziumhalbleiter produzierte. Ihre Gründer waren Robert Noyce und Gordon Moore. Bei Fairchild z. B., wurde der Planarprozeß für die Halbleiterherstellung erfunden. 

Danach erfolgten explosionsartig immer neue Firmengründungen. Fast alle konnte man auf Shockley/Fairchild zurückführen. Selbst die Anfänge bekannter Firmen wie National Semiconductors oder Advanced Microcomputer Devices (AMD) sind bei Fairchild zu finden. 

1968 zog sich Robert Noyce von Fairchild zurück und gründete Intel (Integrated Technology). 

Die Firma Digital Equipment entwickelte 1972 mit dem "PDP 11" eine neue Prozeßrechnerfamilie. 

Mit Rechnern dieser Art, wurde erstmals ein interaktiver Betrieb über Bildschirm-Terminals möglich. Betriebssysteme erfuhren wesentliche Erweiterungen, um einen interaktiven Dialog-Betrieb zu gewährleisten. Es ergab sich auch eine Differenzierung in Großrechner (Mainframes) und kleine und mittlere Rechner (Minis und Superminis). Da diese Minis (z. B. die "PDP 11" von Digital Equipment) nur noch Tausende kosteten, wurden sie erstmals auch für einzelne Universitäts-Institute erschwinglich. Daraus resultierte eine wissenschaftliche Explosion auf dem Gebiet der praktischen- und technischen Informatik. Wichtige Entwicklungen auf dem Gebiet der Betriebssysteme, z. B. "UNIX", stammen aus dieser Zeit. Auch die Verbindung von Einzelrechnern zu Rechnernetzen wurde eingeführt. Durch den Einsatz kleiner und mittlerer Rechner begann, die bis dahin streng zentrale Datenverarbeitung, dezentral zu werden:  

Beim Bau der elektronischen Datenverarbeitungsanlagen (EDV) wurden Transistoren und Widerstände zu einer Schaltgruppe (Modul) auf einer Keramikplatte zusammengefaßt. Mehrere dieser Module bildeten eine Schaltkarte. Die Schaltkarten konnten wiederum zu größeren Einheiten verbunden werden. Diese Technik ermöglichte den flexiblen Einsatz der Module und Schaltkarten. Ausbaubare Systemfamilien waren das Ergebnis dieser Bautechnik.

Die Zusammenfassung von Bauteilen zu Modulen wird Integration genannt. Für die Bauweise der dritten Computergeneration ist diese Bauteilintegration charakteristisch. Man spricht von mittlerer bis hoher Integrationsdichte. Mittlere Integrationsdichte, engl. Medium Scale Integration, wird MSI abgekürzt. Für die hohe Integrationsdichte, engl. Large Scale Integration, wird die Abkürzung LSI verwendet. Für sehr hoch integrierte Schaltkreise, engl. Very Large Scale Integration, wird die Abkürzung VLSI benutzt.

Die neue Technologie erlaubte bereits 160.000 Additionen pro Sekunde. Auf Grund ihres hohen Preises, ihrer schwierigen Programmierung und ihrer Größe, konnten sich nur Großunternehmen, wissenschaftliche Institute oder Verwaltungen solche Rechner leisten. Die Eroberung der Heimbereiche blieb den Computern der vierten Generation vorbehalten.


Home            Zurück                                                                                                                                   Fortsetzung