Home            Zurück

Fortsetzung...

Intel entwickelte 1978 einen ersten 16-Bit-Prozessor: "8086", samt dem zugehörigem Numerikprozessor (mathematischer Coprozessor) "8087". Damit begann der Siegeszug der "80x86"- Erfolgsserie.

Auf dem Chip waren 29.000 Transistoren in NMOS/CMOS-Technologie integriert. Der Prozessor verarbeitete 800.000 Instruktionen/sec. Er war in vielerlei Hinsicht ein ähnlicher Prozessor wie der "8008", denn während andere 16 Bit-Prozessoren 16 MB adressieren konnten, ließ sich beim "8086" nur 1 MB adressieren, man konnte auch nicht den ganzen Adressraum durchgängig adressieren, sondern nur in Fenstern von je 64 KB (als Folge davon, waren die größten Datenstrukturen ebenfalls auf 64 KB beschränkt). 

Im Februar 1979 erschien eine Version des "8086" mit 8 Bit- anstelle 16 Bit-Datenbus, wodurch die Transferrate zum Speicher halbiert wurde und die Geschwindigkeit um 50 % sank: der "8088". Diese Version war jedoch wegen der wesentlich preiswerteren Zusatzbausteine, die damals noch alle für 8 Bit-Mikroprozessoren ausgelegt waren, sehr populär. Ein System konnte dadurch billiger gebaut werden, wenn auch unter gravierenden Geschwindigkeitsverlusten. So steckte im "IBM PC" ein mit 4,77 MHz getakteter "8088". 

Zwischen den ersten Versionen des "8086"/"8088" und den Späteren, vollzog Intel einen Technologiewechsel. Die ersten, mit 4,77 MHz getakteten, waren in NMOS-Technologie entwickelt worden, ab 8 MHz gab es entweder eine High-Speed-NMOS (HMOS)-Version oder eine CMOS-Version. Der langsamere " 8088" wurde nur in CMOS hergestellt. 

Wie dem "8080" fehlten dem "8086" einige wesentliche Bausteine, die als Peripheriebausteine dazukamen: Interrupt- und DMA-Controller. 

Von allen Prozessoren Intels hatte der "8086"/8088" die längste Blütezeit. Noch 1987 - 6 Jahre nach Einführung des "IBM PC" wurden mehr PC's mit "8086"/"8088"-Prozessoren, als mit dem "80286"-Prozessor verkauft. 

Da der "8086" erheblich langsamer als der 1 Jahr später erschienene Motorola "MC 68000" war, begann man einen Coprozessor zu entwickeln, der, zumindest bei den Fließkommaoperationen, gleichzog. Dieser Coprozessor names "8087" erschien 1982. Er reduzierte die Rechenzeiten dramatisch, bei einer Addition z. B. von 3,2 ms auf 10 µs. 

Weitere technische Details, Bilder und Informationen über IBM-Systeme gibt es hier.

Fairchild stellte ebenfalls 1978 einen ganz besonderen Chip vor. Auf diesem war erstmals die komplette Zentraleinheit (CPU) untergebracht. Sie bestand aus 2.000 Transistoren. 

Zum Vergleich: 1985 hat die "Clipper-CPU" von Fairchild 132.000 Transistoren.

Die Firma Motorola schloß 1979 die Entwicklung zum ersten 16 Bit-Hauptprozessor ab und stellte den "MC68000" vor, später das Herzstück der Atari ST-, Amiga- und Apple-Computerserien. 

Die 2 Millionen Rechenoperationen in einer Sekunde waren die Grundlage für intuitive Betriebssysteme mit graphischer Oberfläche. Taktfrequenzen reichten von 7 bis 16 MHz, auch spätere "68000er" benutzten den gleichen Befehlssatz wie das Urmodell, so daß Programme ungeändert auf einem "68008", "68010" oder "68020"  funktionierten. 

Der Einsatz der "MC68000"-Serie geschah zuerst im Workstation-Sektor. Fast alle Workstations der ersten Generation (Sun, Silicon Graphics und HP) basierten bis Ende der 80er Jahre auf diesen Prozessoren. 

Der "MC68000" war sowohl von der Geschwindigkeit, als auch vom Speicher her, der erste vollwertige 16 Bit-Mikroprozessor - so genannt, weil er aus 68.000 Transistoren bestand. 

1982 erschien der "MC68010", der bereits 4 Jahre vor dem "80386" den virtuellen Speicher besaß. 

Die Erweiterung des Adreßraumes auf 32 Bit, führte zum 1984 erschienenen "MC68020". Um die Geschwindigkeit zu erhöhen, führte man den 256 Byte-Cache ein.

1987 wurde im "MC68030" die "MMU" in den Chip integriert.

1991 führte man mit dem "MC68040" einen 4 KB Daten- und Code-Cache, sowie eine "FPU", auf dem Chip ein. 

Die letzte Version war der "MC68060" mit einer superskalaren Architektur, zwei Integer- und einer FPU-Einheit. Wie der "Pentium", dekodierte der "MC68060" die komplexen Befehle in einfachere RISC-Befehle um.
Innerhalb der "68000"-Serie fällt auf, daß der Chip lange Zeit immer leistungsfähiger als Intels "8086"-Serie war. Erst mit dem "80286" konnte Intel 1984 einen gleichwertigen Chip vorstellen, doch da erschien schon der "MC68020". Der geringere Absatzmarkt führte dazu, daß Intel im Laufe der Zeit aufholte. Mit dem "80486" zog Intel vorbei, Probleme bei der Entwicklung des (nie erschienenen) "MC68050" taten ein übriges. 

Ebenfalls 1979 stellte IBM ein erstes 8"-Winchester-Laufwerk vor. Eine Festplatte mit 5 MB RAM Speicherkapazität, zum Preis von mehr als 10.000 DM.

1980 wurde "PROLOG" (programming in logic) die zweite wichtige Sprache der "Künstlichen Intelligenz"(KI).

Im Januar 1980 wurde der "Sinclair ZX 80" vorgestellt.

Sir Clive Sinclair war überzeugt, daß man Computer entscheidend billiger anbieten sollte. Der "Sinclair ZX 80" kostete 99 engl. Pfund.
Um ihn so billig wie möglich zu fertigen, hatte er nur einen TV Ausgang in Schwarz-Weiß. Das ROM war nur 4 KB groß und enthielt ein Integer Basic. Das RAM umfaßte 1KB, und diente zugleich als Bildschirmspeicher. Da kein Videoprozessor vorhanden war, konnte man die CPU umschalten: vom Modus, in dem sie auf den Bildschirm schrieb, und einem, in welchem sie rechnete. Als Tastatur wurde eine billige Folientastatur verwendet. Die Daten und Programme konnten auf einem handelsüblichen Kassettenrekorder gespeichert werden. Der "Sinclair ZX 80" verkaufte sich sensationell, da es in dieser Preisklasse keine Konkurrenz gab. 


1981 erschien das verbesserte Nachfolgemodell: der "Sinclair ZX 81". Das ROM besaß 8 KB und beherrschte nun auch die Fließkommaarithmetik. Er besaß einen Erweiterungssteckplatz für den es ein Erweiterungsmodul mit 64 KB Speicherkapazität gab. Dazu wurde noch ein Thermodrucker angeboten. Gespeichert wurde, wie beim "Sinclair ZX 80", auf einem Kassettenrekorder: 

Ein speziell für Sinclair hergestellter Chip, ersetzte 18 Chip's des "Sinclair ZX 80". So wurde der "Sinclair ZX 81", der gerade noch aus 5 Chips bestand, bei einem Preis von 69 engl. Pfund, noch billiger als sein Vorgängermodell. 

1982 erschien der "Sinclair Spektrum" mit 16 bzw. 48 KB RAM, einer Farbgrafik mit 256 x 192 Punkten, Gummitastatur und Soundchip. Sinclair bot für den Spektrum keine Floppy an, sondern propagierte eine andere Lösung: Microdrives. Dies waren kleine Magnetbänder, die sehr schnell bewegt wurden, und mit 4 sec. einen schnellen Datenzugriff boten: 

Sinclairs letzter Rechner erschien 1984: der "QL". Eine Maschine mit dem "68008"-Prozessor und einem graphischen Betriebssystem namens QDOS. Der "QL" erschien noch vor Atari's "ST" und Commodore's "Amiga". Er sollte mit den PC's konkurrieren. Sinclair machte zwei entscheidende Fehler: er wollte nicht, daß auf dem "QL" Spiele liefen, und er setzte wieder auf die Microdrives als Massenspeicher, anstatt auf Disketten (billiger und im Floppy schneller). Der 2.000 DM-Rechner wurde zum Flop und brachte Sinclair wirtschaftlich in Bedrängnis.1986 mußte er seine Firma verkaufen: 

Für die ins Königreich gespülten Devisen durch die Verkaufserfolge der "ZX-80/81"- und " Spektrum"- Rechner, wurde Clive Sinclair geadelt. 

Erst 1981 kam der erste PC der Firma IBM mit dem Betriebssystem "Microsoft MS-DOS"auf den Markt. In ihm arbeitete der Mikroprozessor "8086" der Firma Intel. Als Datenträger diente ein Kassettenlaufwerk. Mit dem Verkauf des ersten PC's begann ein unaufhaltsamer Siegeszug dieses Maschinentyps. Der "8086" arbeitete intern mit einem 16-Bit breiten Bus. Sein kleinerer Bruder, der "8088", arbeitete mit einer Busbreite von 8 Bit:

Der Industriestandard "IBM PC" mit einem "8086"/"8088"-Prozessor, einer Taktfrequenz von 4,77 MHz, 64 KB RAM, Monochrombildschirm und einem Diskettenlaufwerk, brachte die noch heute anhaltende Computereuphorie und Computerlawine in Gang.

Fundierte technische Details zum "IBM-PC" bietet ein Artikel von Bernd Leitenberger.

Zu Beginn der 80er Jahre bekam die Entwicklergruppe um Philip Estridge in Boca Raton den Auftrag, einen Personal Computer zu entwickeln. Der Rechner wurde aus frei käuflichen Teilen, unter anderem Intel's "8088"-Prozessor, gefertigt. Das Betriebssystem wurde bei Microsoft in Auftrag gegeben. 

Microsoft war damals schon eines der größeren Softwarehäuser, bekannt geworden vor allem durch "Microsoft-BASIC", welches auf fast jedem Mikrocomputer verfügbar war. Bill Gates, Mitbegründer und Chef von Microsoft, kaufte einigen lokalen Programmierern einen Satz Diskettenroutinen ab, welche zum Kern von "MS-DOS" wurden. 

Bei den Verhandlungen mit IBM, war Bill Gates so geschickt, "MS-DOS" selbst an jedermann verkaufen zu dürfen, nicht nur an IBM. Dies brachte Microsoft schließlich Millionen ein, als die ersten IBM-Kompatiblen erschienen, und ein Betriebssystem benötigten. 

Im späteren Softwaregeschäft profitierte Microsoft davon, daß detaillierte Informationen über die Interna von "MS-DOS", nur innerhalb der Firma bekannt waren. 

Bis 1984 wurden über zwei Millionen IBM-PC's verkauft. Einen wesentlichen Anteil daran hatte Philip Estridge. Er verunglückte 1985 bei einem Flugzeugunfall und kam dabei ums Leben. Ursache: Die Computeranlage der Fluglotsen war ausgefallen!

Noch einige Sätze über das Betriebssystem "MS-DOS", das 1981 das Licht der Computerwelt erblickte.

"MS-DOS" ist die Abkürzung für "Microsoft Disk Operating System". Es wurde das weltweit verbreitetste Betriebssystem für PC's schlechthin.

August 1981: "MS-DOS 1.0" basierte auf 4.000 Programmzeilen Assembler-Code, konnte einen Arbeitsspeicher bis 64 Kilobyte (KB) verwalten, und Daten auf Disketten mit 160 KB speichern. In drei Dateien stellte es die grundlegenden Dienste für den "IBM PC" zu Verfügung, dazu einige Hilfsprogramme wie Edlin oder Format. 

Mai 1982: Die Version " MS-DOS 1.1" erschien. Sie unterstützte ein doppelseitiges Diskettenformat. 

März 1983: Microsoft präsentierte "MS-DOS 2.0", das die neuen IBM PC/XT-Rechner mit Festplatten bis zehn Megabyte unterstützte und erstmals Unterverzeichnisse erstellen konnte. 

Oktober 1983: Mit dem "IBM PC Junior" erschien "MS-DOS 2.1". Verschiedene PC-Hersteller boten sie später als Version 2.11 an, die wie 2.1 internationale Zeichensätze enthielt und deshalb zur MS-DOS-Schlüsselversion wurde. 

August 1984: "MS-DOS 3.0" unterstützte den neuen PC/AT. Es konnte 1,2-MByte-Disketten und 20-MByte-Festplatten ansprechen. 

März 1985: Die Version "MS-DOS 3.1" wurde netzwerktauglich und konnte auch den erweiterten Speicher oberhalb von 640 KB ansprechen. "Windows 1.0 erschien". 

Dezember 1985: "MS-DOS 3.2" arbeitete auch mit den neuartigen 3½-Zoll-Laufwerken zusammen - allerdings nur für 720 KB. 

April 1987: "MS-DOS 3.3" konnte eine Festplatte in Partitionen unterteilen und 1,44-MB-Disketten lesen und beschreiben. Zudem enthielt diese Version die Möglichkeit zur Erstellung selbstablaufender Programm-Routinen, die sogenannten Batch-Dateien. 

November 1988: Mit "MS-DOS 4.01" war man nicht mehr auf 32 MB große
Festplattenpartitionen angewiesen - möglich waren jetzt bis zu zwei Gigabyte (GB). Die Version arbeitete mit Expanded Memory zusammen. Eine grafische Benutzerführung - die DOS-Shell wurde mitgeliefert. 

Juni 1991: "MS-DOS 5.0" führte eine bessere Speicherverwaltung ein: es unterstützte XMS (Extended), EMS (Expanded) und HMA-Speicher. Zudem brachte diese Version eine überarbeitete DOS-Shell und einen komfortablen Text-Editor. 

März 1993: In "MS-DOS 6.0" gab es u.a. komprimierte Laufwerke, eine verbesserte Zusammenarbeit mit Windows und eine unterstützung für CD-ROM-Laufwerke. Ansonsten wurde die Anwender-Gemeinde mit hinzugekauften, grob aufeinander abgestimmten Tools, bei Laune gehalten.

Die letzte ECHTE von Microsoft herausgebrachte Version war " MS-DOS 6.22". Erstmals wurden mehr Anwendungsprogramme für "Windows" als für "MS-DOS" verkauft. 

September 1995: "MS-DOS" war nur noch ein "Unterbau" von "WINDOWS 95" und kein selbständiges Betriebssystem mehr.

März 1998: Microsoft verabschiedete sich endgültig von seinem ersten Computer-Betriebssystem. Das Ende für das altgediente System verkündete Bill Gates Ende März auf der Entwickler-Konferenz WinHEC in Orlando (Florida). "Windows 98" war die letzte Windows-Version, die auf "MS DOS" aufbaute. "Der Nachfolger von Windows 98 wird eine Art Windows NT für Verbraucher sein", sagte Gates. 1999 stand fest, daß er damit Windows2000 meinte. 

Ebenfalls 1981 wurde durch Osborne Computer Corporation der erste transportable (tragbare) PC auf dem Markt eingeführt.

Gründer (1979) der Osborne Computer Corporation war Adam Osborne. Ursprünglich Journalist, Autor und Verleger von Computerbüchern. Eines dieser Bücher war so gut, daß es vom Computer-Hersteller IMSAI jedem Computer beilegt wurde. Davon ermutigt, veröffentlichte Osborne bis Ende der 70er Jahre etwa 40 Computerbücher. 

Was benötigte ein Journalist? Einen Computer der mobil ist, und den Standard eines Bürocomputers besitzt. 

Dies beinhaltete der 1981 erschienene "Osborne1": ein tragbarer Computer mit 5" Monitor, zwei 91 KB Diskettenlaufwerken, einer "Z80A-CPU" (4 MHz), 60 KB RAM und 4 KB ROM. Als Spannungsversorgung diente eine Autobatterie.

Der 11 kg schwere Computer war als Koffer konstruiert, sein Deckel diente als Tastatur. Es gab sogar praktische Ablagefächer für Disketten. Als Softwarepaket wurde "CP/M 2.2" mit "Microsoft BASIC" Interpreter/Compiler, "Supercalc" als Tabellenkalkulation und "Wordstar" mit "Mailmerge" als Textverarbeitung mitgeliefert:

Der Rechner verkaufte sich so gut, daß Osborne schon im zweiten Jahr 70 Millionen Dollar Umsatz machte. 

Zwei Dinge führten 1984 zum Bankrott des Unternehmens: Osborne kündigte einen neuen Computer an - den  "Osborne Vixen". Er konnte ihn aber nicht liefern (seitdem heißen derartige Produkte in der Branche "osborn a product"). Dies hatte zur Folge, daß niemand mehr den "Osborne1" kaufte, da alle auf den neuen Rechner warteten. Als 1983 dann der "Osborne Executive" mit 128 KB RAM, "CP/M 3.0", 183 KB Disk's und 7" Monitor erschien, war es schon zu spät. Inzwischen gab es andere Firmen (z. B. Compaq) die portable Computer auf der Basis der IBM-Kompatiblen anboten. 

Die Rechnerentwicklung begann, sich in Super-Computer, Zentralrechner für kommerzielle Aufgaben (Mainframes = Großrechenanlagen), Mini-Computer, Superminis und Personal-Computer zu verzweigen. 

Außerdem wurde der Mikrocontroller geboren, ein vollständiger kleiner Computer auf einem Chip für Aufgaben der Steuerung und Regelung. Der Computer fand in dieser Form Eingang in die Anwendung als "eingebetteter" Rechner in Maschinen, Anlagen und Fahrzeugen. 

Es begann auch die Entwicklung zu heterogenen Rechner-Netzen, welche z. B. den Informationsaustausch zwischen den Teilen einer Firma ermöglichten: den Workstations  

Workstations sind eine Weiterentwicklung des Personal-Computers. Sie werden mit dem Mehrbenutzerbetriebssystem "UNIX" oder Derivaten davon betrieben. Es ist durchaus üblich, daß an Universitäten und in Fimen komplette Arbeitsgruppen auf derselben Workstation arbeiten. Workstations haben sich so entwickelt, daß heute hohe Rechenleistung, Mehrbenutzerbetriebssystem, Vernetzbarkeit, großer RAM- und Festplattenspeicher, sowie Kompatibilität zu existierender Software erwartet wird. Aufgrund dieser Ansprüche findet man auf allen Workstations UNIX-ähnliche Betriebssysteme. 

Das Leistungsspektrum der Workstations reicht von der Leistung eines teuren Personal-Computers, bis hin zum teuren Multiprozessorsystem, welches, je nach Anwendung, als Entwicklungssystem oder als Graphiksystem geliefert wird. 

Der Trend geht, weg vom Großrechner im Rechenzentrum, hin zu vernetzten Workstations. Dies hat den Vorteil, daß nicht teure Großrechner angeschafft und auf Jahre hinaus dimensioniert sein müssen, sondern Rechenleistung dort eingebunden oder zentral zur Verfügung gestellt werden kann, wo und wann sie benötigt wird. 

Als Anbieter von Workstations war die Firma SUN bis 1986 fast konkurrenzlos, bestenfalls Hewlet Packard (HP) baute ähnliche Rechner. Mittlerweile setzen viele weitere Hersteller wie HP, IBM und DEC auf den Workstation-Markt. Andere, wie Silicon Graphics, verzeichnen Rekordumsätze bei leistungsfähigen Workstations mit integrierten Spezialcoprozessoren in der aktuellen Multimediawelle. 

Der momentane Trend scheint in Richtung Multiprocessing (mehrere Prozesoren arbeiten gleichzeitig in einem "UNIX"-System) und 64-Bit-Prozessoren zu gehen. Doch über die Workstation der Zukunft läßt sich kaum mutmaßen, die Technologie entwickelt sich zu schnell. 

Erste Programme erlaubten den graphisch-interaktiven Entwurf und die Simulation elektrischer und/oder logischer Schaltungen. Ein bis heute häufig benutztes Programm ist "SPICE" der University of California, Berkeley. Software-Programme wurden in dieser Zeit so komplex, daß man begann, für Software hierarchische Entwurfsmethoden einzuführen. Es entstand das "Software-Engineering" als neue Wissenschaft.   

Für anfänglich 2.000 DM bekam man 1982 den meistverkauften Computer der Welt: "Commodore C64". Er wurde der Heimcomputer schlechthin:

Der "C64" war der Anfang einer neuen Computergeneration, die sowohl für Spiele, als auch für kleine Unternehmen geeignet war. Mit seiner Speicherkapazität von 64 KB konnten Anwendungen wie Tabellenkalkulation, Texteditoren oder kleinere Graphiken problemlos laufen. Durch die Kompatibilität der Software mit dem "PET" oder dem "VC 20", waren reichlich Programme verfügbar. Der "C64" verfügte über Schnittstellen, an denen noch zusätzliche Geräte wie Festplattenlaufwerk, Kassettenlaufwerk oder Drucker angeschlossen werden konnten. Als Monitor diente ein normales Fernsehgerät. Sein Grafikprozessor ("6566", Graphikprozessor für hochauflösende Farben und Bewegungssteuerung der Sprite-Bilder) und sein Tongenerator ("6581", Ton-Interface) machten den "C64" ideal für Spiele. Seine Schwäche lag jedoch im Basic, welches sich wenig von jenem unterschied, das Commodore auf seinen ersten Rechnern installierte. 

Hier die Commodore-Story:

Jack Tramiel's  Einfluß auf die Computerbranche ist wohl mit seinem Credo am besten zu charakterisieren: "Geschäft ist wie Krieg". 

Und so war er es auch, der den großen Computerkrieg von 1983 begann - und gewann. 
1962 gründete Jack Tramiel die Firma "Commodore Business Maschines (CBM)". Sie stellte mechanische Addiermaschinen her, kam aber schon bald in Finanznöte, weil die Japaner den Markt mit billigen Addiermaschinen überfluteten. Tramiel ging an die Börse um an Geld zu kommen, sowie nach Japan, um zu sehen, wie sich Maschinen billiger anbieten ließen. Er entdeckte dort die Möglichkeiten integrierter Schaltungen, und fertigte daraus Rechner - die sich bei einem Preis von 450 DM sehr gut verkauften. 1976 schaffte es CBM einige kleinere Elektronikfirmen aufzukaufen. Darunter auch "MOS-Technologies", Hersteller des "6502"-Prozessors. So entstand der "PET" auf der Basis des "6502".


1979 erteilte Tramiel den Auftrag, eine 64 KB-Maschine zu entwickeln, die in Richtung des "Apple II" ging: Farbgraphik anstatt Textdarstellung in S/W, kleinere Floppies, TV-Anschluss. Doch alleine die RAM-Chips für 64 KB hätten 1979 noch ein Vermögen gekostet. Sehr bald hatte man aber einen Vorläufer des Videochips, den "VIC", entwickelt. Auf diesem Chip waren alle Komponenten untergebracht, um Farbgraphik auf einem Fernsehgerät darzustellen. 1981 erschien daher der "VC20" (zeitgleich mit dem "ZX-81" von Sinclair, und dem "TI 99/4A" von Texas Instruments).  Jeder hatte ca. 25 % Marktanteile, das restliche Viertel entfiel auf Firmen wie Atari oder Tandy

1982/83 setzte Tramiel sein Motto "Business is like war" um und begann einen Preiskrieg. Da Commodore, Eigentümer von "MOS-Technologies", Chips zum Selbstkostenpreis bekam, mußte es diesen Kampf gewinnen. Texas Instruments (TI) und Atari machten Millionenverluste. TI stieg ganz aus dem Geschäft aus. Zeitweise erreichte der "C64" 75 % Marktanteil. 

Erst Ende 1984 erschien mit dem "Amstrad CPC" ein leistungsfähigerer Rechner, der dem "C64" Marktanteile wegnahm. Dies leitete auch das Ende von Commodore ein.

Tramiel löste sich von Commodore, kaufte den Konkurrenten Atari auf, und brachte einen 16 Bit-Rechner mit dem Motorolas "68000"-Prozessor auf den Markt - den "Atari ST". Er konnte damit die Erfolge des "C64" wiederholen.

Als "Fünfte Generation" gibt man etwa die Zeit nach 1982 an. 

Seit dieser Zeit ist man in der Lage, einen für anspruchsvolle Aufgaben geeigneten Rechner (bis auf den Hauptspeicher) auf einem IC zu integrieren. So ließen sich auf einem IC 1997 bis zu ca. 10 Mio. Transistoren bei Prozessoren, und ca. 100 Mio. Transistoren bei Speicher-Bausteinen integrieren. 

Diese Großintegration führte dazu, daß die auf speziellen Schaltkreis-Technologien aufgebauten Großcomputer ihren Geschwindigkeitsvorteil gegenüber hochintegrierten Prozessoren mehr und mehr verloren. Der Grund lag darin, daß nur kurze Leitungswege auf hochintegrierten Prozessoren, die notwendigen kurzen Signallaufzeiten zwischen den Schaltelementen gestatten. Egal wie schnell Transistoren und Gatter sind, auf Platinen und selbst schon auf IC's, bildeten seit den 90er Jahren Leitungslaufzeiten die praktischen Grenzen der erreichbaren Taktraten in Rechnern. 

Die "Mainframes" wurden deshalb zunehmend durch vernetzte Rechner-Systeme mit hochintegrierten Prozessoren ersetzt. Heute erledigen sogenannte "Server" spezielle Aufgaben, z. B. die Organisation der zentralen Datenhaltung. Dagegen wird das "Terminal" des Mainframe-Benutzers zunehmend durch einen lokalen Rechner (PC) ersetzt. 

In diesen Zeitraum (1983) fällt auch die rasante Entwicklung des Internet, entstanden aus dem Arpanet und anderen Netzen - doch das ist eine andere Geschichte.

1983 wurde der "IBM XT" erstmals mit einer 10 MB-Festplatte ausgestattet und kostete stolze 5.000 $. 

Auch wurde das Design für das PC-Motherboard verändert, so daß es nun mit 256 KB Arbeitsspeicher ausgestattet werden konnte. Viele Firmen wollten auf diesen Markt aufspringen und produzieren einen Flop nach dem anderen. So Apples "Lisa": mit einem 32 Bit-Prozessor, einer graphischen Oberfläche samt Maus, wird sie zur Oma aller intuitiven Betriebssysteme. Die ersten XT-Nachbauten kommen aus Taiwan.

Der "Apple Macintosh" setzte 1983 neue Maßstäbe für die Benutzerfreundlichkeit der PC's. 

Seine Daten: "68000"-CPU mit 8 MHz Taktfrequenz, 128 KB RAM (nicht erweiterbar!), 64 KB ROM, 3,5-Zoll-Floppy, integriertes Netzwerk, Graphik 512*342 Punkte, integrierter Monitor. Keine Erweiterungsmöglichkeiten. 

Der Bereich, auf den sich Apple mit dem "MacIntosh" spezialisierte, ist das "Desktop Publishing" (Erstellen von Druckvorlagen mittels graphischer Benutzer-Oberfläche), und seit neuestem: "Multimedia". Apple legte immer großen Wert darauf, daß die Rechner ohne langwieriges Lernen eines Betriebssystems nutzbar waren.

Nachdem IBM einen PC auf den Markt brachte und die Geschäftswelt eroberte, mußten die meisten Kleinanbieter Mitte der achtziger Jahre umsteigen oder aufgeben. Der übermächtigen Konkurrenz begegnete Apple mit der Einführung von graphisch orientierten Benutzeroberfächen. Hier präsentierten sich sowohl das Betriebssystem als auch die Anwenderprogramme anschaulich: schrieb man einen Text, dann wurde ein Blatt Papier dargestellt; spielte man Musik, so erschienen Noten auf dem Bildschirm. Die Idee dazu hatten die Apple-Gründer von der Firma Rank Xerox übernommen, die bereits 1979 ein solches System fertiggestellt hatten. Doch erst ein niedriger Preis, durch den Einsatz neuester Technologie und Massenfertigung, wurde dieses Konzept 1983 mit der "Lisa" verwirklicht, und ab 1984 mit dem "Macintosh" zu einem komerzieller Erfolg.

Die Apple-Ingenieure kommentierten den "IBM-PC" so: "Wir schauten uns ihren PC nach der Markteinführung genauer an. Zuerst fanden wir es peinlich, wie schlecht ihr Apparat war. Dann versetzte uns dessen Erfolg in Schrecken. Wir hofften, der "MacIntosh" würde den Leuten zeigen, was der "IBM-PC" war: Ein abgedroschener, banaler Versuch auf Grundlage der alten Technologie."

Und Steve Jobs (Apple): "Wenn wir aus irgend einem Grund einen großen Fehler machen und IBM gewinnt, werden wir nach meiner persönlichen Überzeugung 20 Jahre lang in einem finsteren Computer-Mittelalter leben. [...] Der "IBM-PC" stellt nur eine neue Verpackung und leichte Erweiterung des "Apple II" dar."

IBM's Antwort 1984 - der "IBM-AT 286". 

Mit folgenden Daten: "80286"-Prozessor, 134.000 Transistoren in HMOS/CMOS Technologie, 12 MHz Taktfrequenz, 16 Bit-Bus, 256 KB RAM beim Modell 01, und 512 KB RAM beim Modell 02, HD-Floppylaufwerk mit 1,2 MB Kapazität, 20 MB Festplatte beim Modell 02, Betriebssystem "PC-DOS V3.0" oder "Xenix" für bis zu drei Teilnehmer. 

IBM-PC-Network: Lokales PC-Netzwerk für bis zu 72 PCs, Übertragungsrate 2 MBit/s, "PC-DOS 3.1".

Der "80286" erweiterte den Adreßraum auf durchgehende 16 MB, ohne die 64 KB Fenster des "8086". Zugleich war der Prozessor erheblich schneller und leistete ca. 1,6 Millionen Instruktionen bei 6 MHz. Da man jedoch auf die Architektur des "8086" Rücksicht nehmen mußte, gab es beim "80286" zwei Modi: Einen "8086"-kompatiblen Modus, in dem nur das erste 1 MB genutzt werden konnte und einen echten 16 Bit-Modus, bei dem der volle Adreßraum verfügbar war. 

Der zweite Modus wurde, bis zur Einführung von "Windows 3.0" im Jahre 1990, so gut wie nie genutzt. Dies verhinderte auch die Verbreitung der "80286"- PC's. So kamen viele Systeme mit 1 MB RAM aus, jedoch nur 512 KB waren unter DOS nutzbar, der Rest wurde als RAM-Disk angelegt.

Wozu also einen teuren "80286"-Rechner kaufen? Mit dem "80286" erreichte Intel den Leistungsstand, den der "68000" von Motorola schon seit 3 Jahren aufwies. Der "80286" wurde 1984 in IBM's neuer Familie, dem "IBM AT" verbaut. 

1984 erschien "Microsoft Windows 1.0". Es spielte aber hinter dem schnelleren Konkurrenten "GEM" von Digital Research nur eine untergeordnete Rolle. Insgesamt dominierten "MS-DOS" bzw. "PC-DOS".  

Im gleichen Jahre verkaufte J. Tramiel seine Commodore-Aktien und übernahm den Homecomputerbereich von Atari. Jene Firma, die gerade durch seine Preispolitik ruiniert wurde. 

Was Tramiel plante, war der Bau einer Maschine, die mit dem "Apple- Macintosh" konkurrieren konnte. Dies wurde der "Atari 520 ST". Die Parallelen zum "Apple- Macintosh" lagen auf der Hand: "68008"-Prozessor, 512 KB RAM, 192 KB ROM, Monochrom- oder Farbmonitor mit 640 x 400 Punkten, Diskettenlaufwerk mit 720 KB. Ein "Atari-520 ST" kostete nur ein Drittel eines "Apple- Macintosh" und weniger als ein "IBM-Kompatibler". 

Der "Atari 520 ST" bot, anders als sein etwas später vorgestellter Konkurrent "Commodore-Amiga", eine echte 80-Zeichendarstellung auf einem hervorragendem S/W Bildschirm. Er hätte damit erfolgreicher sein können als Büro- und Heimcomputer. Doch Tramiel hatte wieder einmal einen PC zu schnell entwickelt. Eine Computerzeitschrift bezeichnet den "Atari 520 ST" als den fehlerhaftesten Computer der je auf den Markt kam. Im ersten Jahr mußten reihenweise Betriebssystem, ROM's und Grafikprozessoren ausgetauscht werden. Dies kostet dem "Atari 520 ST" den professionellen Markt. 

Doch im Heimbereich war der "Atari 520 ST" erfolgreich und wurde weiterentwickelt. Nach und nach stellte Tramiel andere visionäre Projekte vor: Low Cost-Laserdrucker für den Atari. Ebenfalls zu einem Bruchteil eines normalen Laserdruckers (Tramiel hatte die gesamte Elektronik weggelassen, und überließ dem " Atari 520 ST" die Aufarbeitung der Druckdaten - 10 Jahre später wurde dasselbe Prinzip als "Windows Printing System" neu erfunden). Es folgten Low Cost-CD-ROM-Laufwerke - ebenfalls für einen vergleichsweise geringen Preis. Die ST's wurden weiterentwickelt. Hier der "Atari 1040 ST":

Dazu gesellten sich einige IBM-Kompatible und ein sehr erfolgreiches 8088-Prozessor PDA. 

Doch langfristig nahmen die IBM-Kompatiblen immer mehr zu, die Marktanteile sanken. 1995 zog sich Atari aus dem Computermarkt zurück, und wurde 1996 von Tramiel  an den Festplattenhersteller JTS verkauft. 

Sony und Philips führten 1984 die CD-ROM ein. 

Ebenfalls 1984 stellte Armstrad seinen "CPC 464" vor. In den Graphikeigenschaften übertraf er sogar den "IBM PC". 

Der "CPC 464" arbeitete mit dem "6845"-Bildcontroller. Die Farben waren erstmals frei aus einer Farbpalette von 27 Farben wählbar. Der gesamte Computer kostete nur so viel, wie eine CGA-Karte für einen "IBM PC". Der Grund war, daß man bei Amstrad aus den Mängeln anderer Homecomputer gelernt hatte und diese weitgehend vermied. 

Wer 1984 einen Computer kaufte, mußte wissen was er wollte. Der "Sinclair Spektrum" war preiswert, hatte aber eine miserable Tastatur. Der "C64" war populär, doch die Programmiersprache eine Zumutung, und das Diskettenlaufwerk zu langsam.  Ein Manko war allen gemeinsam: mangels schlechter Graphik-Darstellung konnte man mit ihnen nicht so arbeiten, wie es mit einem Apple möglich war. Mit dem "CPC 464" gehörte dies der Vergangenheit an: 

Der "CPC 464" besaß 64 KB RAM, ein 16 KB ROM und einen 16 KB BASIC-Interpreter. Als Prozessor agierte der "Z80" mit 4 MHz, sowie "CP/M 2.2"als Betriebssystem. Mit über 200 Befehlen und Interruptprogrammierung, war das mitgelieferte "BASIC" das leistungsfähigste seiner Zeit. Ein Kassettenrekorder als Datenspeicher, gehörte ebenfalls zum Lieferumfang. Die Soundbeschallung erledigte ein "AY-8912". Die Verwaltung des Speichers (aufgeteilt in einen unteren 16 KB-Teil, einen gemeinsamen 32 KB-Teil und einen oberen 16 KB-Teil) besorgte eine, eigens für den "CPC 464" gefertigte, integrierte Schaltung. 

Der "CPC 464" wurde nicht an ein Fernsehgerät angeschlossen, sondern er besaß einen eigenen Monitor mit einer Auflösung von 80 x 25 Zeichen, bzw. 640 x 200 Punkten (Standard in dieser Zeit waren 256 x 192 Punkte). Dazu gab es die gesamte "CP/M"-Standardsoftware, wie "WordStar", "Turbo Pascal", "DBase" oder "Multiplan". 

Die Monochromversion des "CPC 464" kostete unter 1.000 DM und wurde damit zum Renner. 

Der "68020" wird 1984 der erste 32 Bit-Prozessor von Motorola: 190.000 Transistorfunktionen, ein maximaler Adressbereich von 4 Gigabyte, Pipeline-Architektur, bei nur 1,75 Watt Verbrauch. Im Gegensatz zum "IBM PC" wurde das graphische Konzept konsequent durchgesetzt, den Programmierern wurden enge Vorgaben gemacht, und Drittherstellern der Zugang verwehrt.

Im Oktober 1985, stellte Intel den "80386" vor, gleichfalls ein 32 Bit-Prozessor. 

Der "386er" war der erste 32 Bit-Prozessor von Intel. Er trug viele Neuerungen in sich. Sein Code ist bis heute noch Basis für "Windows". Aufgebaut mit 275.000 Transistorfunktionen in CMOS-Technologie. Dieser Hauptprozessor enthielt einen weiteren Modus, den sogenannten "Virtual Real Mode", in welchem der "386er" mehrere "8086" emulierte und parallel arbeiten ließ (z. B. für DOS-Boxen unter Windows). Erste Versionen des 16 MHz-"386er" hatten Probleme mit der CPU-Clock, so daß diese Versionen auf 12 MHz heruntergetaktet wurden. Später folgten 20-, 25- und 33 MHz-Varianten. Kam der "286er" noch mit 68 Pins (Anschlußbeinchen) aus, benötigte der "386er" bereits 132 Pins, um mit seiner Außenwelt zu kommunizieren.

Neuerungen waren das Speicherschutzmanagement, das den  Programmen eigene Speicherbereiche zuwies, und diese vor Eingriffen aus anderen Bereichen schützte, sowie die virtuelle Adressierung, bei der RAM-Speicher durch Festplattenspeicher ersetzt werden konnte. Der "386er" konnte volle 4 GB Arbeitsspeicher adressieren und 1 TByte virtuellen Speicher auf Festplatten ansprechen. 

Bislang verkauften sich "386er" Rechner nicht besonders gut, weil es unter dem Betriebssystem DOS keinen Unterschied machte, ob man einen "386" oder "8086" Prozessor hatte. 

Gleichfalls 1985 brachte Commodore den "Amiga" auf den Markt, einen Personal-Computer auf Basis des "68000"-Prozessors:

 

Durch seine graphische Oberfläche und das Multitasking-Betriebssystem setzte der "Amiga" neue Maßstäbe. Es war möglich geworden, mehrere Programme parallel laufen zu lassen, z. B. die Durchführung von Berechnungen im Hintergrund, bei gleichzeitiger Arbeit mit einer Textverarbeitung. Doch gegen die "IBM-Kompatiblen" konnte er sich, außer im Videobereich, nicht durchsetzen. 

Neben den "normalen" 16/32 Bit-Prozessoren, gab es auch ungewöhnliche Konzepte. Eines davon waren die sogenannten Transputer, die INMOS-Chip's "T414", "T800" und "T212". Dabei handelte es sich um 16 Bit ("T212")- bzw. 32 Bit-Prozessoren. Die Besonderheit an ihnen war, daß sie besonders schnell waren (etwa doppelt so schnell wie ein "386er"), außerdem ließen sie sich miteinander verkoppeln. 

Die Chip's waren so konstruiert, daß jeder 4 Ports hatte, die mit anderen Prozessoren gekoppelt werden konnten. Über diese Ports konnten Daten schnell ausgetauscht werden. Sie wurden durch ein On-Chip-RAM von 1 KB gepuffert. 

Durch den schnellen Datenaustausch konnten mehrere Transputer parallel an einem Problem arbeiten, und die Daten zwischen den Prozessoren austauschen - dies 1985, mehr als 10 Jahre bevor multiprozessorfähige "Pentium Pro"-Systeme erschienen. 

Der Chip war so designt, daß man ihn zweckmäßigerweise nicht in Assembler, sondern in einer Hochsprache namens "OCCAM" programmierte, die paralleles Rechnen unterstützte. 

Mit Transputern wurden einige Parallelrechner konstruiert. Scottland Yard setzte einen solchen Computer ein, um simultan, hunderte von Fingerabdrücken mit einem Referenzmuster zu vergleichen. 

Doch der Transputer war seiner Zeit voraus. Parallelrechner gab es erst 10 Jahre später, als die Konkurrenz zwar nicht das Konzept von "OCCAM", aber daß der Kommunikation zwischen Prozessoren, übernommen hatte. 

1986 wurden PC's erstmalig von Viren befallen. Der pakistanische "Brain" gilt als erster DOS-Virus. 

Die erste Vireninfektion wurde auf einem Großrechner an der FU Berlin entdeckt. Der Virus, "Pakistani-", "Ashar-" oder auch "Brain-Virus" genannt, wurde von zwei Software-Händlern in Pakistan entwickelt. Diese Händler verkauften billige Raubkopien von Originalsoftware, da dort das Kopieren von Software nicht strafbar war. Jeder Softwarekopie legten sie den Virus bei, um Kunden an den Händler zu binden. Überraschenderweise verbreitete sich dieser Virus sogar bis in die USA. Die Nachfrage nach Virenschutzprogrammen und Sicherheitsstandards ließ einen neuen Zweig der Softwareindustrie entstehen.

Weitere Informationen.

IBM versuchte 1986 mit dem "PS/2" eine neue Rechnerarchitektur,

und mit "OS/2" ("Operating System 2") ein neues Betriebssystem zu etablieren. 

1985: Die Geschichte von OS/2 begann unspektakulär. Wieder einmal ging IBM auf Microsoft zu und wollte ein Betriebssystem (das war mit MS-DOS auch so). Wegen der Real-Mode-Beschränkungen von DOS und dem fehlenden Speicherschutz, sollte es ein völlig neues sein. 

November 1987: Die Version "OS/2 1.0" kam als gemeinsames Projekt von IBM und Microsoft auf den Markt und hieß offiziell "OS/2 NT" (NT = New Technology). OS/2 war zunächst ein 16-Bit-Betriebssystem. Es konnte 16 MB real adressieren, auf einen virtuellen Speicher von 512 MB zugreifen und besaß, im Gegensatz zum kooperativen Multitasking, ein präemptives Multitasking. In der DOS-Kompatibilitätsbox liefen allerdings nur ganz wenige DOS-Programme. Aus diesem Grund wurde die Version 1.0 kaum akzeptiert - gab es doch Windows. 

Dezember 1990: Microsoft klinkt sich in der gemeinschaftlichen Entwicklung mit IBM aus. Böse Zungen behaupteten damals, für Bill Gates und seine Mannschaft seien die langen Wege der Bürokratie bei IBM unerträglich gewesen.

April 1992: Die erste 32-Bit-Version "OS/2 2.0" kommt auf den Markt. Sie bot Windows-Unterstützung und lief auf Prozessoren ab INTEL "80386". Fast alle DOS- und Windows-Programme liefen im echten Multitasking - sogar stabiler als auf dem originalen System. Das Betriebssystem erlaubte mehrere virtuelle DOS-Maschinen, Speichersegmente waren bis 4 GB linear adressierbar. 

September 1994: IBM rührte für "OS/2 Warp 3" weltweit die Werbetrommel. Es gab ein verbessertes und vereinfachtes Installationsprogramm mit automatischer Hardware-Erkennung. Die Programmiersprache "ReXX" war nun integrierter Bestandteil des Systems. Ein mitgeliefertes Bonus-Pack enthielt ein Netz für acht Anwender, sowie Internet- und Fax-Software. 

1995: Nach der teuren Werbekampagne, die von IBM zumindest in Europa als erfolgreich bezeichnet wurde, zog sich IBM  aus dem Massenmarkt zurück. Eine Entscheidung, die viele Anhänger dieses Betriebssystems nicht verstanden. OS/2 verschwand aus den Regalen der Software-Läden.

Jahre später zeigt sich, daß weder der "Microchannel" sich gegenüber "ISA", "EISA" und "PCI" durchsetzen konnte, noch "OS/2" im Massenmarkt, gegenüber dem Konkurrenten "Microsoft Windows", eine Chance hatte. (Die Erinnerung an diverse OS/2-Installationen treiben dem Autor noch heute die Schweißperlen auf die Stirn!)

1987: AMD brach Intels Monopol bei Prozessoren. Microsoft stellt "Windows/386" vor. Ein Modem mit 1.200 Bps kostete 2.100 DM. Erstmalig wurden "EGA"-Karten vorgestellt, die ein sauberes Bild ergaben und die häßlichen Lücken im "CGA"-Modus aussparten.

Sun's "SPARC" erschien im April 1987 und verfügte als 32 Bit-CPU
nur über 55.000 Transistoren. Alle Befehle waren strikt 32 Bit breit - künftiges Kennzeichen einer "RISC-Architektur".
 

Die Ausführungszeit lag bei nur 1,3 Takten pro Befehl. Ein "SPARC" war dreimal schneller als ein "386er", bei einem Fünftel dessen Komplexität. Er verfügte in der ersten Version über 128 Register, die jeweils in Gruppen von 32 Registern ansprechbar waren. Eine solche Gruppe wurde wie ein Fenster über die 128 Register gelegt. Parameterübergaben und Speicherzugriffe erfolgten ebenfalls über diese Register. Als Ausgleich gab es drei Operanden-Befehle und eine vierstufige Pipeline: 

       

Abb.: "SPARC" - Architektur 

                                            Abb.: "80386" - Architektur

SUN's "SPARC" war erfolgreich und inspirierte zu anderen "RISC"-Designs.

Der Nachfolger "Super SPARC", hatte allerdings zu langsame Speichertransferraten. 

Wieder Boden gewinnen, konnte Sun mit der "Ultra SPARC CPU", die als 64 Bit-Design über superskalare Architektur und eine "SIMD-Engine" verfügte, um, ähnlich wie bei "MMX", mehrere kleine Daten parallel zu verarbeiten. 

Mit Microsofts "MS-DOS 4.0" wurden 1988 erstmalig RAM-Speichergrenzen gesprengt und auf einer Festplatte ließen sich Partitionen anlegen, die größer als 32 MByte waren. 

Am 10. April 1989 stellte Intel den "486er" vor. 

Er vereinte auf seinem Chip über eine Millionen Transistoren. Die Pressemeldung lautete: "Ein Superchip, der in die Leistungsklasse von Mainframes vordringt". IBM verlangte für sein PS/2-Modell "70 486" stolze 33.453 DM. 

Anders als beim "286" und "386" erweiterte man nicht mehr den Befehlssatz, sondern integrierte externe Chips. Zum einen den Cache, der seit dem "386" notwendig war (8 KB wurden auf dem Prozessor integriert - die Geschwindigkeit der CPU konnte dadurch erhöht werden). Zum zweiten wurde der Coprozessor integriert, der bisher ein separater Baustein war. Die Geschwindigkeit der FPU wuchs dadurch um ca. 60 % gegenüber einem "386" an. Der "486er" führte 80 % der am häufigsten eingesetzten Befehle in zwei Takten aus und erreichte dadurch 20 MIPS. Der Prozessor wurde in High Speed CMOS-Technologie gefertigt.

Der "486er" war der erste Intel Prozessor, der ab der 50 MHz-Version einen Kühlkörper benötigte.

Mit dem "486er" fing auch die Taktfrequenzspirale an. Bisher waren diese nur langsam gestiegen, dies änderte sich nun dramatisch. Die Taktfrequenz wurde von anfänglich 25 MHz auf 100 MHz gesteigert. AMD's Modelle erreichten sogar 150 MHz. 

Erst 1993 überrundete der "486" den "386" in den Verkaufszahlen.

1990: Creative Labs brachte seine erste Soundblaster-Karte heraus und beendete damit die Vormachtstellung der Firma AdLib. "MS-Windows 3.0" erschien und löste den "Windows-Boom" aus. Das Ende, der zu diesem Zeitpunkt sehr erfolgreichen und  leistungsfähigen Heimcomputer "Atari ST" und "Commodore Amiga", bahnte sich an. 

Hier nun die die "Windows"-Legende:

November 1983: Microsoft kündigte auf der Computermesse Comdex " Windows" als graphische Benutzeroberfläche und Erweiterung des Betriebssystems MS-DOS an. 

Juni 1985: Microsoft's "Windows 1.0" erschien in englischer Sprache. Ähnlich wie zuvor beim Apple-Rechner "Macintosh" gab es nun eine Mausbedienung, aufklappbare Befehlsflächen (Pull-Down-Menüs), sowie Symbole (Icons) für Dateien und Programme. Allerdings konnte niemand irgend etwas Sinnvolles mit dieser Version tun! Anwendungsprogramme gab es nicht, aber man konnte gleich mehrere MS-DOS-Programme laufen lassen und zwischen ihnen umschalten. Die Anforderungen an die Hardware waren aus heutiger Sicht lächerlich: 256 KB RAM (empfohlen 512 KB), 2 Diskettenlaufwerke (empfohlen Festplatte). 

Januar 1986: Die ersten europäischen Versionen wurden ausgeliefert. Jetzt konnten auch die Europäer nichts Sinnvolles mit dieser "neuen Technik" anfangen!

Januar 1987: "Windows 1.03" wurde ausgeliefert. Es unterstützte mehr Hardware.

März 1987: "Windows 386" für den damals neuen INTEL "80386"-Prozessor, und "Windows 2.0" waren verfügbar. Sie brachten einige Verbesserungen wie z.B. sich überlappende Fenster. Dies waren die ersten Versionen, mit denen sich leidlich arbeiten ließ, zumal auch die Software-Hersteller langsam auf den Windows-Zug aufsprangen. Das erste Anwendungsprogramm für Windows war die Tabellenkalkulation "Excel" - natürlich ein MS-Produkt!

Juli 1988: Die deutschen Versionen von "Windows 386" und "Windows 2.0" waren erhältlich. Spätere Versionen von Windows kamen zeitgleich in allen wichtigen Sprachen auf den Markt.

Mai 1990: Die erste brauchbare Version, "Windows 3.0", war nun verfügbar. Sie nutzte die Fähigkeiten neuer INTEL-Prozessoren aus und konnte mehrere Programme gleichzeitig laufen lassen (Multitasking). Damit schaffte "Windows" den Durchbruch. Auf breiter Front wurde jetzt Software für das neue Betriebssystem entwickelt.

April 1992: "Windows 3.1" - das stabilere 3.0 - wurde ausgeliefert: Mit dieser Version beendete Microsoft die Frage, ob IBMs OS/2 vielleicht doch noch die Oberhand gewinnen könnte. "Windows 3.1" unterstützte neue Techniken, wie OLE (Object Linking and Embedding) für das Einbetten von Grafiken in Texte, Multimedia oder die Nutzung der neuartigen Truetype-Schriften.

Oktober 1992: "Windows für Workgroups" (WfW), das im Kern einem "Windows 3.1" mit eingebauter Peer-to-Peer-Netzwerkfunktionalität entsprach, wurde ausgeliefert.

Juni 1993: Mit "Windows NT" (New Technology) kam ein Betriebssystem für den professionellen Einsatz in Unternehmen heraus. Es arbeitete intern mit einer Busbreite von 32 Bit: Die Daten wurden nicht mehr in einem engen Kanal von 16 Bit transportiert, sondern über die doppelt so große Breite von 32 Bit. Erstmals wurden mehr Anwendungsprogramme für "Windows" als für "DOS" verkauft. 

Januar 1994: "Windows für Workgroups 3.11" war fertig - und noch etwas stabiler und schneller als sein Vorgänger.

August 1995: "Windows 95" wurde mit der - zumindest für die Software-lndustrie - größten Werbekampagne aller Zeiten eingeführt und läutete das Ende der 16-Bit-Betriebssysteme ein. Technische Verbesserungen im Detail, wurden in den darauffolgenden Jahren in Form von "Service Packs" eingeführt.

Anfang 1997: "Windows NT 4.0" ("Windows New Technology") wurde ausgeliefert. Ein 32-Bit-Betriebssystem, das für Netzwerke konzipiert wurde. "Windows NT 4.0" ist multiprozessorfähig und unterstützt das NTFS Dateisystem. Die Benutzeroberfläche der Version 4 entspricht weitgehend der "Windows 95"-Oberfläche. Auch die von dort her bekannten Zusatzprogramme werden weitgehend mitgeliefert und um netzwerkspezifische Anwendungen erweitert.

Mit dieser Version - und besonders dem NT Server - wollte Microsoft den traditionell von Unix besetzten Workstation- und Server-Markt für sich gewinnen.

25. Juni 1998: "Windows 98" wurde als Evolutions-Stufe von "Windows 95" ausgeliefert. Wesentliches Merkmal war der integrierte INTERNET-Explorer.

17. Februar 2000: "Windows 2000", der "Windows NT 4"-Nachfolger, kam in den USA auf den Markt. Allerdings trübte ein internes Memo die Feierlaune, nach dem mehr als 63.000 potentielle Fehler in den rund 30 Millionen
Programmcode-Zeilen stecken sollen.

Die Entwicklung des größten kommerziellen Softwareprojekts der Geschichte soll beim Softwaregiganten Microsoft in den vergangenen Jahren rund 2 Milliarden Dollar verschlungen haben. Allein 2.000 Programmierer arbeiteten in der Zentrale in Redmond an dem neuen Betriebssystem, das nach Angaben von Microsoft nun aus rund 30 Millionen Programmzeilen besteht. Dementsprechend hoch ist der Erfolgsdruck. "Wir verwetten das gesamte Haus auf Windows 2000", sagt Microsoft-Finanzchef John Conners Anfang 2000. Allerdings werde man sicherlich etwas Zeit benötigen, um die Branche zum Umstieg zu bewegen.

22. Februar 2000: Mit Beginn der CeBIT - startete die Auslieferung in Deutschland. Und zwar in vier unterschiedlichen Versionen: 

  • "Windows 2000 Professional" für Arbeitsplatzrechner

  • "Windows 2000 Server für Workgroups"

  • "Windows 2000 Advanced Server" für größere Abteilungen oder ganze Firmen

  • "Windows 2000 Data Center Server", die mächtigste Version, die Multiprozessor-Rechner mit bis zu 16 Prozessoren unterstützt. 

Übrigens: In der TechNet Online-Bibliothek zu "Windows 2000" und NT befinden sich zahlreiche technische Artikel, Whitepaper und Fallstudien. Informationen zu Active Directory oder die Speichernutzung in "Windows 2000" sind nur einige der Themen. Alle Artikel stehen auch zum Download zur Verfügung: www.microsoft.com/germany/news/n0308.htm

Wöchentlich aktualisierte News für IT-Profis werden zudem gebündelt auf TechNet online angeboten: www.microsoft.com/germany/technet/.

Die Handbücher zu den "Windows 2000"-Versionen "Professional", "Advanced Server" und "Server", gibt es kostenlos zum Download. Sie liegen im DOC-Format vor, oder als Word-Dokument gepackt in einer ZIP-Datei:

13. September 2000: "Windows ME" - die "Millennium Edition" gilt als Nachfolger von Windows 98. In das Jahr 2000 war Microsoft zunächst mit dem gigantischen Software-Projekt "Windows 2000" gestartet - hatte damit aber zahllose Privatnutzer enttäuscht, welche vor allem Computerspiele nutzen wollten. ME erfüllte diesen Anspruch.

Das Betriebssystem zeichnet sich vor allem durch seine "Wiederherstellungsfähigkeit" aus. Selbst versehentlich gelöschte aber systemrelevante DLL-Dateien können vom System selbstständig rekonstruiert werden. Oder nach einer fehlerhaften Installation etwa eines Treibers können Kunden auf eine "alte" Version des Betriebssystems zurückgreifen. Ein weiteres Feature: Neueste System- und Programm-Updates sollen selbstständig während downloadfreier Online-Zeiten auf den PC geladen werden. 

Mit "Windows ME" soll auch die einfache Bearbeitung von digitalen Fotos, Videos und Musik möglich sein. Musikstücke können beispielsweise von CD's auf die Festplatte und von dort auf einen Handheld kopiert werden. Das dazu nötige Instrumen: der Media Player.

September 2001: "Windows XP" wurde als Name des "Windows 2000"-Nachfolgers festgelegt.

Microsoft hat mit "Windows XP" das "Look and Feel" des Betriebssystems überarbeitet. Neu am Interface sind u.a. drop-down-Menüs, variabel einstellbare Interfaces, bei denen der Anwender zwischen personalisierten- und Standard-Interfaces wählen kann, sowie die Möglichkeit, Icons für Anwendungen wie Browser oder E-Mail zu verstecken. 

Zudem soll "Windows XP" erstmals Sprachsteuerung erlauben. 

"Windows XP" basiert vollständig auf dem NT-Kernel /-Kern. Es soll aber; anders als "Windows 2000", eine Komponenten-Architektur beinhalten, dank der sich die Hardware-Produzenten einzelne Bestandteile für ihren Bedarf zusammenstellen können. Das Betriebssystem würde damit sogar auf kleinsten Handhelds eingesetzt werden können, ebenso auch bei Nicht-PC's - also etwa bei Steuerungsgeräten für die Haushaltselektronik. Für diesen letzten Fall ließen sich einfach alle grafischen Elemente wegnehmen.

Angedacht sind vier verschiedene Versionen:

  • Consumer-Version.

  • Unternehmensanwender-Version.

  • Server-Edition in einer 32-Bit- bzw. 64-Bit-Variante.

  • Datacenter-Ausgabe. 

Sun entwickelte 1991 die Programmiersprache "Oak", heute als Java bekannt. Java ist eine betriebssystemübergreifende Scriptsprache.

Die Frage nach der Schädlichkeit der Computerarbeit wurde erstmals 1992 gestellt: Strahlenschädigung, Rückenschäden und Abnutzungserscheinungen an den Handgelenken ("Repeated Strain Injury") waren die Schlagworte. 

Der "Intel-Pentium" erschien 1993

Gegenüber dem "486er" wurde der Datenbus auf 64 Bit erweitert. Der Adreßbus kann so in einem bestimmten Modus 64 GB adressieren. Bislang wurde dies allerdings nicht genutzt. Der "Pentium" wurde in CHMOS/biCHMOS-Technologie ausgeführt. Mit 3,2 Millionen Transistoren war der "Pentium" etwa 50 % schneller als ein gleich getakteter "486er" und erreichte 100 MIPS. 

Eine wesentliche Verbesserung war der getrennte 8 KB-Cache für Daten und Code (später, mit Einführung der "MMX"-Version, 16 KB).

Die Taktfrequenz stieg im Laufe der Jahre von 60 MHz auf 233 MHz. 

Mit dem "Pentium" zogen erstmalig superskalare Einheiten bei der "x86"-Linie ein. Darunter versteht man, daß der Chip mehrere Recheneinheiten für Integer- und Fließkommazahlen hat, auf welche die Befehle verteilt werden. Der "Pentium" besitzt zwei ALU's und eine FPU. Integer-Befehle kann er also doppelt so schnell wie ein "486er" ausführen. 

Spätere Versionen des "Pentium" führten "MMX" ein, eine Erweiterung des Befehlssatzes, bei dem man die 80 Bit langen Fließkommaregister zweckentfremdete, um gleichzeitig 4x16 Bit- oder 8x8 Bit-Zahlen der gleichen Rechenoperation unterziehen zu können. Wird ein Wert mehrmals benötigt, so kann der Prozessor auf ein internes Register zugreifen, anstatt den Wert aus dem Speicher zu holen. 

Bis 1993 wurden von "Windows" 30 Millionen Kopien verkauft - inklusive Raubkopien, sollen es doppelt so viele gewesen sein. 

1994 begannen viele Software- und Hardwarehersteller Prozesse gegen Microsoft zu führen. Patentverletzungen ("Doublespace"), Bedieneroberflächen ("Macintosh") und Kartellklagen waren die Gründe dafür. 

Dem "INTEL-Pentium" wurde ein interner Rechenfehler nachgewiesen, und INTEL gibt mehr als 100 Millionen Dollar für den Rückruf der Prozessoren aus.

Auch kam es 1994 zu einer Power PC-Initiative, in der die Hersteller Motorola, Apple und IBM involviert waren. Das Ziel war: einen neuen Mikroprozessor zu kreieren, der "RISC"-Architektur besaß, und die neuesten Entwicklungen hinsichtlich Superskalarität erfüllte. Basis wurde die "RS 6000"-Architektur von IBM und das 88 KB-Busprotokoll von Motorola. 

Zuerst ging es beim "Power PC 601" darum, IBM's Multichip-Design auf einem Prozessor zu vereinigen. Er erschien 1994

Der nächste Schritt war der "Power PC 604", der drei Integer-Einheiten integrierte. Dazu kam eine Load/Store-Einheit und eine System-Einheit. Eine 5-stufige Pipeline ergänzte das Konzept. 

Mittlerweile stieg Apple aus der Entwicklung aus. 

Ebenso wie bei den  Intel-Prozessoren, integrierte man 1999 eine Vektor-Recheneinheit namens "Altivec" auf dem Chip. Der entsprechende "Power PC-Prozessor G3" war der erste, der mit Spezialsoftware die Leistung von 1GFlop überschritt. 

Die Power PC-Prozessoren profitieren heute vor allem von IBM's Fertigungstechnologie wie dem Kupfer-Prozeß. IBM ist auch führend in deren Weiterentwicklung, da ihre gesamte "RS 6000"-Linie, skalierbare Systeme von kleinen Servern bis zu Großrechnern, auf speziellen Versionen der Power PC-Chips aufbaut. 

Dank des geringen Stromverbrauches, ein "Power PC Prozessor G4", die neueste Entwicklung, benötigt nur 8 Watt, findet man die Power PC's auch in Raumsonden des Marsprogrammes. 

Die Taktfrequenzen der Prozessoren steigerten sich 1995 von schlappen 66- auf 200 MHz. Das alles nur, um "Windows 95" den Weg zu bereiten, das nach langen Vorankündigungen zu einem Käuferansturm in den USA führte.

In Europa war man etwas weniger euphorisch, und "Windows 95" brauchte ein ganzes Jahr um sich durchzusetzen. Fallende Speicher-, Hardware- und Softwarepreise, sowie bessere Graphikhardware belebten den Markt. Der Siegeszug der CD-ROM, gedacht als raubkopiersicheres Programmmedium, verbreitet sich explosionsartig, aber gerade das "Brennen" (1:1-Kopie einer CD-ROM) wurde durch billige Hardware zum Volkssport. Der "Browserkrieg" zwischen Netscape und Microsoft begann, nachdem Bill Gates das Internet zunächst verschlafen hatte.

Kennen Sie den?

Das Microsoft-Windows-Entwicklungsteam ist auf Betriebsausflug in Irland. Sie mieten einen Jeep und fahren übers Land.
Zwischendurch werden sie aufgehalten, da eine Schafherde die Straße kreuzt. Daraufhin kommen sie mit dem Schäfer ins Gespräch. Bill Gates will mit dem Schäfer um ein Schaf wetten, daß er den Beruf des Schäfers erraten kann. Danach darf der Schäfer versuchen, den Beruf des Teams zu erraten. Schafft er es, gehört ihm der Jeep. Der Schäfer ist einverstanden. Darauf sagt Bill Gates: "Sie sind Schäfer!" "Genau", antwortet der Schäfer. Daraufhin gehen zwei Microsoftarbeiter in die Herde und holen sich ein Tier, das sogleich geschlachtet, gebraten und verzehrt wird. Nun ist der Schäfer dran: "Sie sind Entwickler von Windows 95!" Bill Gates ist entsetzt. Er zückt den Autoschlüssel und fragt: "Woher wußten sie das?" Der Schäfer: "Das war leicht. Nur Windows 95-Entwickler nehmen aus einer Herde von 300 Schafen den Hund mit!" 

Im November 1995 ist von Intel der "Pentium Pro" erhältlich.

Der "Pentium Pro" vereinigte 5,5 Millionen Transistoren in sich. Er schaffte 440 MIPS, bei Taktraten von 150-375 MHz: 

Die Architektur wurde auf superskalare Einheiten erweitert. Die RISC-Engine wurde auf 32 Bit-Verarbeitung getrimmt. Dazu trug eine 12-stufige Pipeline bei, die Befehle zwischenspeicherte und dekodierte, während diese an die 4 Recheneinheiten weitergereicht wurden. Um die Geschwindigkeit weiter zu erhöhen, hatte man den 256 KB großen L2-Cache direkt neben dem Prozessor auf dem gleichen Chip untergebracht. 

Nach dem superskalaren Design des "Pentium", wurde nun auch der CPU-Kern ersetzt. Die Befehle hatte man in kleinere, elementare Einheiten zerlegt, sogenannte Micro-Ops, welche jetzt mehrere RISC-Rechenwerke antrieben. So war es möglich, mehrere Befehle gleichzeitig zu verarbeiten, wenn diese nicht aufeinander aufbauen. 

Anders als beim "Pentium" hat die "Pentium Pro"-Architektur jeweils zwei ALU's und eine FPU. Dazu kommt eine Ladeeinheit  und eine Speichereinheit für Daten und Code. 

Verhängnisvoll war jedoch, daß "Windows 95", anders als von Microsoft angekündigt, kein volles 32 Bit-Betriebssystem war, sondern noch sehr viele 16 Bit-Altlasten besaß. Der für 32 Bit optimierte "Pentium Pro"-Prozessor brach dabei in der Performance ein und war langsamer als ein normaler "Pentium". Nur unter "Windows NT", oder einem anderen 32 Bit-Betriebssystem war die volle Leistung verfügbar. 

Die Steigung der Rechengeschwindigkeit der Prozessoren ab dem "Pentium Pro", gelang weniger durch Architekturverbesserungen, sondern vor allem durch Verkleinerung der Maske und der damit verkürzten Schaltkreiswege. 

Der "Pentium Pro" war der erste multiprozessortaugliche Chip von Intel, der  erstmals in der Serveranwendung eine Rolle spielte. Der für mehrere Jahre größte Rechner der Welt, der "ASCII Red", war aus 9.000 "Pentium-Pro" mit je 180 MHz aufgebaut. 

1996: Die Computer wurden immer kleiner. Palmtops, Handhelds und andere Spielarten, sind fast so leistungsfähig wie ausgewachsene PC's. "WINDOWS NT" wurde das einzige maßgebende Betriebssystem auf dem Markt. 

Intel baute einen Supercomputer mit 7.264 handelsüblichen "Pentium-Pro-Prozessoren". 

Die "RISC-Prozessoren" begannen ihren Siegeszug. 

Die RISC-Architektur beschränkt sich nur auf die wirklich notwendigen Prozessor-Befehle. Dafür sind auf dem Chip mehr Register (bis zu 256) vorhanden, so daß schnelle Register-Register-Operationen, statt langsame Speicher-Register-Operationen ausgeführt werden können. 

Die wenigen Befehle machen das Chip-Design einfacher, der Prozessor läßt sich wirtschaftlicher herstellen. Gleichzeitig wurde das Datenformat vereinheitlicht. Bei RISC haben alle Befehle eine einheitliche Länge, wodurch das Dekodieren schneller geht, der Code aber zwangsläufig größer ist. 

Der erste Supercomputer mit RISC-Architektur, war die "Cyber 6600", gebaut von Seymour Cray

Die "Cyber 6600" war auf Schnelligkeit getrimmt. 1965 schaffte sie 9 Megaflops. Dafür besaß sie nur 64 Maschinenbefehle (der "8086" hatte 90 Maschinenbefehle). 

Obgleich die "Cyber 6600" sehr erfolgreich war, und die Basis für Seymour Cray's spätere Supercomputer war, inspirierte sie keine anderen Computerhersteller dieser Zeit. Bei den üblichen Großrechnern blieb man lieber bei CISC. 

Ende der 80er Jahre bauten jedoch nahezu alle Hersteller Prozessoren mit RISC-Architektur. RISC war auch eine Möglichkeit mit relativ wenigen Transistoren eine sehr hohe Rechenleistung zu erreichen. Dies war wichtig für Hersteller, denen im Prozessorenmarkt von Intel immer mehr Marktanteile entzogen wurden. 

Weitere Informationen über die CISC/RISC-Architekturen finden sich in einem Artikel von Bernd Leitenberger.

Der Pentium bekam nochmals eine Veränderung: "MMX". Diese Variante konnte besser mit Video und Graphik umgehen, da dem Prozessor 57 neue Befehle integriert wurden. 

Toshiba kündigte für das nächste Jahrhundert eine Terabyte-DVD-CD, mit sage und schreibe 1024 GB Speicherkapazität, an. Toshiba tauft diese Technologie "Terabit Molecular Memory Technologie".

Die Entwicklung der IBM Chips: 

  • Der 2-KBit-Chip von 1972.

  • Der 64-KBit-Chip von 1978; 1.790 Speicherzellen pro mm².

  • Der 256-Kbit-Chip von 1983.

  • Der 1-Megabit-Chip von 1986; 13.025 Speicherzellen pro mm². Speicherdichte mehr als sieben mal höher als ein 64-KBit-Chip.

  • Der 4-Megabit-Chip von 1989. Der Speicherinhalt entspricht einem Taschenbuch von von 200 Seiten, speicher- und lesbar in 0,3 s. Zugriffszeit auf 1 Bit: 0,065 ns. 

1998 gab es die erstmalige Vorstellung der "Pentium II-Prozessoren", die nicht nur in neue Leistungsdimensionen vorstießen, sondern auch eine enorme Steigerung der Taktfrequenz möglich machten.

Der "Pentium II" ist aus 7,5 Millionen Transistoren aufgebaut. Bei Taktzyklen zwischen 166-1133 MHz schafft er 466 MIPS.

Aus Qualitätsgesichtspunkten wurde der Cache beim "Pentium II" nicht direkt auf dem Prozessor, sondern auf dem Modul direkt neben dem Prozessor integriert. Der L1-Cache wurde auf 32 KB vergrößert. 

Die Low-Cost-Version des "Pentium II" ist der "Celeron", zuerst ohne
L2-Cache, dann mit 128 KB. 

1999 folgten die "Pentium III-Prozessoren". Nach heutigem Stand erreichen sie eine Taktfrequenz bis 2,5 GHz. 

Neuere Versionen des "Pentium II" hießen nun "Pentium III". Es handelte sich jedoch mehr um eine Marketingmaßnahme als um eine echte Neuentwicklung. Der "Pentium III" hat die gesamte Architektur des "Pentium II", lediglich der CPU-Kern ist mit 1.000 MIPS deutlich schneller geworden. 

Das Millenium-Fieber (Y2K-Problem) nahm 1999 ungeahnte Dimensionen an. Die Umstellungskosten auf der ganzen Welt bliefen sich auf mehr als eine Billiarde Dollar. 

Viele Menschen fürchteten sich vor dem größten Computercrash aller Zeiten. Presse und Softwareindustrie hatten wesentlich zu dieser Phobie beigetragen. 

2000: "Hurra wir leben noch. Der Computercrash ist ausgeblieben. Alle Systeme liefen stabil!" 

2000 kommt Intel's "Pentium IV" auf den Markt.

Er vereinigt 42 Millionen Transistoren in sich und schafft Taktraten ab 1400 MHz aufwärts.

Anders als der "Pentium III" speichert der L1-Cache keine x86-Instruktionen, sondern sitzt hinter dem Befehlsdekoder auf, und speichert vollständig dekodierte RISC-Operationen. Der intelligente Cache speichert nur die oft benötigten Instruktionen. Ist der Instruktions-Code relativ klein und wird oft durchlaufen, so beschleunigt dies die Ausführung beträchtlich (z. B. das Enkodieren von Multimediadateien). 

Die Pipeline ist auf 20 Stufen angewachsen. Dies erlaubt einen höheren Takt. Kommt es aber zu einer Pipeline-Stall (z. B. durch einen Sprung ist der Inhalt ungültig), so benötigt der "Pentium IV" relativ lange um die Pipeline wieder anzutreiben. Aus diesem Grund hat er acht mal mehr Speicher um Sprungziele spekulativ vorauszuberechnen. 

Wenn der "Pentium IV" sehr teuren RAMBUS-Speicher bekommt, liest der Bus bei 100 MHz jeweils 4 Bytes auf einmal, wodurch die Performance enorm steigt.

Die RISC-Engine hat inzwischen 128 Register. Ein ausgeklügeltes Register- Remapping steigert die Performance. 

Der Prozessor besteht jetzt aus 7 Einheiten: 4 ALU's , Zwei Load/Store- Einheiten und eine FPU. 

2001: Aktueller Aufbau eines heutigen Computer-Systems:


Home            Zurück                                                                                                                                   Fortsetzung