Intel 4004

Intel 4004

intel c4004

Von Stelo.xyz, Pttn, or Thomas Nguyen

Im Herbst des Jahres 1971, während die Welt mit dem Vietnamkrieg, der beginnenden Watergate-Affäre und der Apollo-15-Mission beschäftigt war, veröffentlichte ein damals noch recht junges Unternehmen namens Intel ein unscheinbares Stück Silizium, das alles verändern sollte: den Intel 4004. Kaum größer als ein Fingernagel oder schwerer als eine Büroklammer– aber dieses kleine, rechteckige Wunderding war der erste kommerzielle Mikroprozessor der Welt. Und damit die Geburt des modernen Computers in Taschenformat.

Doch wie kam es dazu, dass ausgerechnet Intel, bis dahin ein Halbleiterhersteller für RAM-Chips, plötzlich zum Taktgeber einer ganzen Industrie wurde? Der Ursprung der Geschichte liegt nicht etwa im kalifornischen Silicon Valley, sondern in Japan. Dort hatte das Unternehmen Busicom – ein Hersteller von Taschenrechnern – ein Problem. Man wollte eine neue Serie von programmierbaren Rechenmaschinen entwickeln, doch die herkömmliche Methode, jeden Taschenrechner mit einer individuellen Chipkombination auszustatten, war zu teuer und zu umständlich. Die Japaner wandten sich also an Intel und baten um die Fertigung von 12 maßgeschneiderten Chips für ihre Rechner. Doch einer im Intel-Team hatte eine bessere Idee.

Dieser jemand war Ted Hoff, ein junger Elektroingenieur, der 1968 als einer der ersten Mitarbeiter bei Intel angeheuert wurde. Hoff erkannte, dass man statt vieler spezialisierter Chips auch einen einzigen universell programmierbaren Chip entwickeln könnte, der die Steuerung sämtlicher Rechenprozesse übernehmen konnte – ein revolutionärer Gedanke. Gemeinsam mit Stan Mazor, einem Kollegen aus der Softwareentwicklung, entwickelte Hoff die Grundstruktur eines Chips, der Daten verarbeiten, Rechenbefehle verstehen und Programme ausführen konnte. Diese Idee landete schließlich auf dem Schreibtisch des genialen Chipdesigners Federico Faggin, einem Italiener, der zuvor bei Fairchild an den ersten Silizium-Gate-MOS-Transistoren gearbeitet hatte. Faggin setzte das Konzept um, optimierte das Design und entwarf die finale Architektur des 4004 – inklusive Testverfahren und Layout.

Der Intel 4004 wurde 1971 veröffentlicht – und war im Grunde ein kompletter Prozessor in Miniaturform. Er arbeitete mit 4 Bit Wortbreite, konnte maximal 0,06 MIPS (Millionen Instruktionen pro Sekunde) leisten und verfügte über 2.300 Transistoren – was heute lächerlich klingt, damals aber geradezu futuristisch war. Der Chip lief mit einer Taktfrequenz von 740 kHz, wobei der interne Befehlstakt durch einen Teilungsfaktor auf ca. 92 kHz reduziert wurde. Der Speicherzugriff erfolgte über ein externes ROM- und RAM-System – der Prozessor selbst enthielt keine Adressverwaltung. Dennoch: Für einfache Anwendungen wie Taschenrechner, Steuergeräte und primitive Terminals war das völlig ausreichend.

Der 4004 wurde im Bundle mit drei Begleitchips verkauft – einem ROM (4001), einem RAM (4002) und einem I/O-Controller (4003). Der Preis für den Prozessor allein lag damals bei etwa 60 US-Dollar. Inflationsbereinigt entspricht das heute rund 420 Euro. In der Herstellung kostete der Chip Intel jedoch nur etwa 15 bis 20 US-Dollar – was einem heutigen Preis von knapp 130 Euro entspräche. Ein gutes Geschäft also, vor allem wenn man bedenkt, dass Intel nach anfänglichem Zögern die exklusiven Rechte von Busicom zurückkaufte und den 4004 öffentlich vermarkten durfte.

Obwohl der 4004 nie für Personal Computer oder gar Konsolen eingesetzt wurde – dafür war er zu schwach und zu speziell – fand er schnell Einzug in industrielle Anwendungen. In Ampelsteuerungen, Kassensystemen, Labormessgeräten oder Automaten diente der 4004 als digitale Steuerzentrale. Der Durchbruch in den Heimcomputermarkt kam dann erst mit seinem großen Bruder, dem 8-Bit-Prozessor Intel 8080, der unter anderem im Altair 8800 und später im Z80-kompatiblen Heimcomputerwesen eine entscheidende Rolle spielte.

Was die Konkurrenz anging: Fairchild, Motorola und Texas Instruments arbeiteten ebenfalls an integrierten Schaltungen, doch keiner hatte zu diesem Zeitpunkt ein so funktionsfähiges, programmierbares System auf einem einzigen Chip realisiert. Texas Instruments beanspruchte später für sich, vor Intel einen Mikroprozessor entwickelt zu haben – das Modell TMS1000 –, doch der wurde erst 1974 serienmäßig verbaut. Intel hatte das Rennen gemacht. Punkt.

Federico Faggin, der das Projekt letztlich federführend technisch realisierte, sollte später als Vater des Mikroprozessors gefeiert werden. Er gründete später die Firma Zilog, die mit dem Z80-Prozessor selbst Geschichte schrieb. Ted Hoff wurde Vizepräsident bei Atari und war maßgeblich an der Entwicklung von Heimcomputern beteiligt. Stan Mazor blieb Intel treu und arbeitete an weiteren Architekturen. Alle drei wurden für ihre Pionierleistung mehrfach ausgezeichnet, darunter mit der National Medal of Technology.

In der Rückschau bleibt festzuhalten: Der Intel 4004 war nicht der leistungsfähigste Chip seiner Zeit, aber er war der erste, der das Konzept des Allzweckprozessors in den Massenmarkt brachte. „Es war, als hätte jemand dem Rechenschieber Beine gegeben“, sagte Faggin später lachend in einem Interview. Und diese Beine liefen weit. Ohne den 4004 kein IBM-PC, kein Smartphone, keine Smartwatch, kein Mars-Rover. Ein Siliziumstein, der eine Lawine auslöste. Wer hätte das 1971 gedacht, als in einer kleinen Anzeige im Electronic News schlicht stand: „Introducing the 4004 – a microprogrammable computer on a chip.“ Der Rest ist Geschichte – und was für eine.

 

TMS9900

TMS9900

ti tms9900nlDer TMS9900 wurde 1976 als einer der ersten Ein-Chip-16-Bit-Mikroprozessoren vorgestellt. Er basierte auf der Architektur des TI-990-Minicomputers und übertrug dessen leistungsfähige 16-Bit-Designprinzipien auf einen einzelnen N-MOS-Chip. Mit etwa 3100 Gattern (rund 8000 Transistoren) und einer Taktfrequenz bis 3 MHz war der TMS9900 seinerzeit technologisch beeindruckend. Während viele 8-Bit-Konkurrenten wie der MOS 6502 noch mit rund 1 MHz takten mussten, hoffte Texas Instruments auf einen frühen Sprung in das 16-Bit-Zeitalter. Und tatsächlich war der TMS9900 der erste kommerzielle 16-Bit-Mikroprozessor auf dem Markt. Doch der Vorsprung wurde nicht zum Triumph. Einer der TI-Manager, Walden C. Rhines, kommentierte Jahre später selbstkritisch: „Obwohl dieser Hund von einem Chip im ersten 16-Bit-Heimcomputer der Welt eingesetzt wurde, hat ihn kaum jemand je wahrgenommen. Die Geschichte wird eben von den Gewinnern geschrieben.“

Der Chip entstand aus der Philosophie „one company, one computer architecture“. TI wollte die gleiche Befehlssatzstruktur vom Großrechner bis zum Taschenrechner einsetzen und die bewährte Minicomputer-Familie TI-990 mit einer Mikrochiplösung in den Massenmarkt bringen. Chefarchitekt Granville Ott, zuvor in der Explorationstechnik für Ölförderung tätig, wurde zurückgeholt, um das Design zu leiten. Er sollte später auch die Leitung des TI-99/4 übernehmen. Unterstützt wurde er unter anderem von Walden Rhines, einem jungen, aufstrebenden Ingenieur, der später in der Chipbranche Karriere machen sollte. Die Strategie, die TI mit dem TMS9900 verfolgte, war ambitioniert – aber in mancher Hinsicht zu ambitioniert.

Technisch bot der TMS9900 einige Besonderheiten, die sich sowohl als clever als auch als hinderlich herausstellten. Anstatt eigene Register auf dem Chip zu haben, verwaltete er seine 16 General-Purpose-Register im externen RAM. Lediglich drei Steuerregister – der Programmzähler, der Workspace Pointer und das Statusregister – befanden sich auf dem Chip. Diese Auslagerung ermöglichte extrem schnelle Kontextwechsel: Beim Wechsel zwischen Aufgaben musste lediglich der Workspace Pointer angepasst werden. Das machte den TMS9900 prinzipiell ideal für Multitasking und Echtzeitbetrieb – eine geniale Idee für große Systeme, aber für den Mikrocomputereinsatz mit seinen engen Bandbreiten eher ein Bremsklotz. Jeder Registerzugriff bedeutete einen Speicherzugriff – und der war deutlich langsamer als ein interner Chip-Zugriff.

Auch bei der Adressierung setzte TI auf ein ungewöhnliches Konzept. Der Chip hatte zwar 15 Adressleitungen, konnte aber nur 16-Bit-Worte direkt adressieren – also Wortadressierung, nicht Byteadressierung. Für Byteoperationen waren bitweise Maskier- und Schiebeoperationen notwendig. Hinzu kam ein separat angebundener CRU-Bus für Ein-/Ausgabe, der sich deutlich von den I/O-Ansätzen anderer CPUs unterschied. Das machte Peripherieintegration für Drittanbieter unnötig kompliziert. TI entwickelte darum eigene, passende Chips wie PIO- oder serielle Schnittstellen, doch eine breite Ökosystem-Kompatibilität blieb aus.

Der Chip wurde in einem aufwendigen 64-Pin-Gehäuse ausgeliefert, um 16-Bit-Daten- und 15-Bit-Adressbus vollständig getrennt und ohne Multiplexing zu ermöglichen. Das machte ihn teuer in der Fertigung. Hinzu kamen drei benötigte Betriebsspannungen (+5 V, +12 V, -5 V) und ein komplexer vierphasiger Takt. Wer den TMS9900 in seine Hardware integrieren wollte, brauchte also nicht nur Geld, sondern auch Nerven. Später vereinfachte TI diesen Aufbau mit Varianten wie dem TMS9980A oder dem TMS9995, die mit 40 Pins, einfacherem Takt und 8-Bit-Bus auskamen. Doch da war der Markt für TI bereits verloren.

Anfangs wurde der TMS9900 ausschließlich in internen TI-Produkten eingesetzt – zunächst in Terminals und Steuerungstechnik, später auch im TI-99/4 und TI-99/4A Heimcomputer. Der TI-99/4A war 1981 der erste Heimcomputer mit 16-Bit-Prozessor. Sein Preis lag zunächst bei rund 525 US-Dollar, inflationsbereinigt heute etwa 1500 Euro. Später fiel der Preis auf sensationelle 99 Dollar, was zwar die Verkaufszahlen auf etwa 2,8 Millionen Stück trieb, aber TI massive Verluste einbrachte. Die Herstellungskosten des TMS9900 lagen bei rund 70 US-Dollar je Chip, inflationsbereinigt ca. 230 Euro – ein teures Bauteil im Billigrechner.

Doch die echte Bremswirkung entfaltete sich erst durch das Gesamtdesign. Im TI-99/4A konnte die CPU den Hauptspeicher nur über den Videochip ansprechen – mit 8-Bit-Busbreite. Damit war die 16-Bit-Power des TMS9900 quasi kastriert. Trotz 3 MHz Takt war der Rechner langsamer als viele 8-Bit-Systeme. Ein Kommentator schrieb: „Mit seiner 16-Bit-CPU bei 3 MHz sollte er eigentlich der Performance-König gewesen sein – und das war er eindeutig nicht.“ Die Gründe lagen im Systemdesign, nicht im Chip – doch dem half das wenig.

Ein weiterer herber Rückschlag war der verlorene Großauftrag mit IBM. Das Team in Boca Raton prüfte 1980 den TMS9900 als möglichen Prozessor für den IBM PC. Rhines selbst stellte den Chip dort vor – und verlor gegen Intels 8088. Nicht, weil dieser besser war, sondern weil er mit 20-Bit-Adressraum 1 MB RAM adressieren konnte. Der TMS9900 blieb bei 64 KB. IBM wollte einen zukunftssicheren Chip – und entschied sich für „das kleinere Übel“, wie Rhines es rückblickend nannte.

Die Geschichte des TMS9900 wurde damit zu einem Paradebeispiel für technische Brillanz ohne Markterfolg. Der Chip hatte geniale Features: schnellen Kontextwechsel, klaren Befehlssatz, integrierte Arithmetik – aber war zu teuer, zu kompliziert und zu wenig kompatibel. Kaum ein Fremdhersteller setzte ihn ein. Selbst in Industrieprojekten kam der TMS9900 nur selten außerhalb von TI zum Einsatz.

Immerhin: Der Chip inspirierte spätere Mikrocontroller. Die Architektur floss in TIs 16-Bit-Controllerfamilie MSP430 ein. Auch Spezialanwendungen wie der Token-Ring-Netzwerkchip TMS380 oder die industrielle Steuertechnik profitierten von der flexiblen Befehlssatzstruktur. Varianten wie der TMS9940 (mit On-Chip-ROM) oder der militärisch gehärtete SBP9900 fanden in Steuerungen und Bordelektronik ihren Platz.

In der Heimcomputerwelt jedoch blieb der TMS9900 ein Exot. Weder Tomy Tutor (Pyūta) noch Mechatronics-Systeme oder Geneve 9640 konnten das ändern. Selbst der geplante TI-99/8, ein High-End-Nachfolger mit TMS9995, wurde nie veröffentlicht. Nachdem TI 1983 den Heimcomputermarkt verließ, war das Kapitel praktisch abgeschlossen.

Gekko Prozessor

Gekko Prozessor

By Baz1521 - ja.wikipedia.org

Im Mai 1999 kündigte Nintendo zusammen mit IBM einen milliardenschweren Vertrag über die Entwicklung eines maßgeschneiderten PowerPC-Mikroprozessors für die nächste Konsolengeneration („Dolphin“, später GameCube) an. Nintendo-Manager Howard Lincoln versprach damals einen “400 MHz” Prozessor, der “das leistungsstärkste Central Processing Unit-System eines jeden derzeitigen oder geplanten Heimvideospiels… sein wird”. IBM verpflichtete sich, den Chip – Gekko genannt – auf Basis seiner PowerPC-Architektur zu entwickeln und in 0,18‑Mikron-Kupfertechnik bei der Fabrik in Burlington, Vermont, zu fertigen. Die offizielle Präsentation bestätigte später einen Takt von 485 MHz für Gekko. Nintendo blieb zwar vage bei Herstellkosten, doch Medienberichte spekulierten, dass der komplette GameCube laut angeblich unbestätigten Quellen nur rund 20 US-Dollar Produktionskosten pro Konsole verursachte (inflationsbereinigt heute etwa 30 Euro). Diese hohe Marge – bei einem UVP von 199 US-Dollar – trug dazu bei, dass Nintendo profitabel blieb, während die Xbox und PS2 teils mit Verlusten operierten.

Technisch ist Gekko ein superskalarer, aus der PowerPC-750-Serie (G3) abgeleiteter 32-Bit-Prozessor. Er verwendet zwei vierstufige Pipelines für Ganzzahlbefehle und eine siebstufige Pipeline für Gleitkommaoperationen. Der Chip enthält zwei 32-Bit-Integer-ALUs und eine 64-Bit-FPU mit 32 64-Bit-Floating-Point-Registern (zusätzlich zu 32 32-Bit-GPR). Die Hardware wurde um spezielle Erweiterungen ergänzt: etwa etwa 50 neue SIMD-Befehle (Single instruction, multiple data), die in einem Takt zwei 32-Bit- oder ein 64-Bit-Gleitkommawert bearbeiten können, sowie eine Write-Gather-Einheit für effizientes Blockschreiben und ein teilweiser L1-Cache als 16 KB Scratchpad. Der Front-Side-Bus arbeitet mit 162 MHz (drei Taktzyklen entspricht dem 486-MHz-Kerntakt). Die Chipfertigung erfolgte in 0,18‑Mikron-Kupferprozess, was IBM als “fortschrittlichste Chiptechnologie” pries. Gekko enthält 64 KB L1-Cache (Code und Daten) und 256 KB L2-Cache on-chip. Durch die kompakte Fertigung blieb der Die-Flächenbedarf klein (unter 45 mm²) und der Stromverbrauch niedrig – nur etwa 5 W unter Volllast.

Die GameCube-Architektur nutzt schnellen 1T-SRAM-Hauptspeicher: 24 MB 1T-SRAM mit etwa 10 ns Zugriffszeit und einem 162-MHz-Bus dienen als Haupt-RAM, ergänzt durch 16 MB langsameren DRAM für Audio und peripherieintensive Aufgaben. Dieser einheitliche Speicherbus ließ CPU und Grafikchip (Flipper) effizient zusammenarbeiten. In Benchmarks konnte ein gleichschnell getakteter x86-Prozessor (etwa ein 733 MHz Pentium III wie in der Xbox) den Gekko klar überholen; jedoch hatte Gekko architektonische Vorteile: umfangreichere Register, neue Instruktionen und vor allem einen deutlich niedrigeren Stromverbrauch. So erzeugt Gekko nur rund ein Drittel der Wärme eines Xbox-CPUs und benötigt weniger Platz, was kostensparend war und Nintendo niedrigere Preise (199 statt 299 US-$) erlaubte.

Zum Vergleich: Sonys PlayStation 2 setzte auf einen 294 MHz MIPS-Prozessor (Emotion Engine) mit integrierten Vektor-Einheiten, Microsofts Xbox nutzte einen 733 MHz Coppermine-Pentium-III. In dieser Generation konnte die Xbox-CPU bezüglich reiner Integer-Leistung oft den Gekko übertreffen, doch die kompliziertere PS2-Architektur galt als schwieriger zu programmieren. Gekko, so versprach Nintendo, übertrifft jedoch jedes gegenwärtige Heim-Videospiel-CPU-System in seiner Rechenleistung. Nintendo-Gründer Shigeru Miyamoto kommentierte enthusiastisch, Gekko eröffne neue Möglichkeiten – etwa ein nächstes Level an Grafik für Spiele wie Zelda.

In wirtschaftlicher Hinsicht war Gekko ein Erfolg: Er steckte in nahezu allen weltweit verkauften GameCubes (ca. 22 Mio. Stück bis 2007), sodass IBM entsprechend viele Chips lieferte. Die genaue Stückzahl der hergestellten Gekko-Prozessoren ist nicht öffentlich, doch IBM-Kenner berichten über zweistellige Millionen­auflagen. Die niedrigen Produktionskosten pro Konsole ließen Nintendo hohe Margen erzielen.

Keith Diefendorff

Keith Diefendorff


Picture from "The New York Times"

Die Entwickler hinter Gekko kamen aus IBM und Nintendo. IBM-Architekten, darunter erfahrene PowerPC-Designer wie Keith Diefendorff (anfangs Lead-Architekt der PowerPC-ISA), sorgten für die Hardwarerealisierung in Burlington. Nintendo-Ingenieure und Manager wie Howard Lincoln (damals Nintendo of America Chairman) leiteten das Projekt intern und dienten als Ansprechpartner bei Messen. Miyamoto, Nintendo-Gründungsmitglied und Grafik-Legende, definierte die Software-Vision, während Grafikingenieur Wei Yen (ehemals SGI, Mitbegründer von ArtX) parallel an der Flipper-GPU arbeitete. Ihre Biografien stehen exemplarisch für den Crossover: erstklassige IBM‑Chipdesigns gepaart mit Nintendo‑Spielideen.

Gekko inspirierte spätere Wii-Ableger: Der Wii-Prozessor Broadway ist praktisch ein 750CL‑Revision mit 50 % höherer Taktrate (729 MHz) und sehr ähnlicher Architektur. Außerhalb von Nintendo-Hardware kam Gekko nur einmal vor: Die Triforce-Arcadeplatine (2002, eine Kooperation von Nintendo, Sega und Namco) verwendete eine GameCube-nahe Hardware mit genau dem IBM-Gekko-CPU. Ansonsten setzten PS2, Xbox und spätere Konsolen auf andere Architekturen (Sony blieb bei MIPS/Cell, Microsoft bei x86 bzw. später PowerPC/Xenon in der Xbox 360), sodass Gekko-Chips exklusive Kernbestandteil der Nintendo-Systemfamilie blieben.

Nintendo stellte den Lizenznehmern für Gekko-Software eine vollständige Entwicklungsumgebung bereit. Als Compiler und IDE nutzte man Metrowerks’ CodeWarrior, das einen stark optimierten C/C++-Compiler und Assembler für den Gekko enthielt. Tatsächlich wurde das GameCube‑Betriebssystem selbst mit CodeWarrior erzeugt, einer integrierte Entwicklungsumgebung der Firma Freescale, die zuvor ein Tochterunternehmen des Chipherstellers Motorola darstellte. Entwickler konnten damit Projekte in einzelne Modulteile (RELs) aufspalten und direkt auf die Konsole laden. Für das Debuggen wurden offizielle Dev‑Konsolen ausgegeben: Nintendo setzte auffällige Blaue (NR Reader) und Rote (NPDP Reader) Prototyp-Units ein, die anstelle von Gamecube‑Discs Spezialmedien lesen konnten. Die NPDP-Einheiten enthielten sogar Festplattenkartuschen und eine PC-Schnittstelle (NPDP-ODEM), um neue Spielversionen schnell vom Entwicklungsrechner in die Hardware zu streamen. Zusätzlich gab es Hilfshardware wie Memory-Card-Emulatoren. Ein klassischer Software-„Simulator“ (Emulator auf dem PC) wurde offiziell nicht benötigt – Nintendo empfahl, direkt auf der Hardware zu entwickeln und CodeWarrior zusammen mit den speziellen Dev-Kits einzusetzen.

Zusammenfassend kombinierten die Gekko-Entwickler IBM‑Chipkompetenz mit Nintendos Spieleanforderungen zu einem effizienten CPU-Design. Trotz der geringeren Rohleistung gegenüber manchen Konkurrenten erwies sich Gekko als kosteneffizient und zuverlässig – ein Schlüsselbestandteil des technisch kompakten GameCube-Systems.

 

Zilog Z80A

Zilog Z80A

Der Zilog Z80A ist ein 8-Bit-Mikroprozessor, der im Juli 1976 von Zilog auf den Markt gebracht wurde. Federico Faggin, der zuvor bei Intel an der Entwicklung des 8080 beteiligt war, gründete gemeinsam mit Ralph Ungermann das Unternehmen Zilog und entwickelte den Z80 als verbesserten und binär kompatiblen Nachfolger des Intel 8080. Der Z80A war eine Weiterentwicklung des ursprünglichen Z80 und bot eine höhere Taktfrequenz von 4 MHz. Technisch zeichnete sich der Z80A durch eine erweiterte Befehlssatzarchitektur aus, die zusätzliche Instruktionen und Adressierungsmodi umfasste. Er verfügte über 8-Bit-Daten- und 16-Bit-Adressbusse, wodurch er bis zu 64 KB Speicher adressieren konnte. Ein bemerkenswertes Merkmal war die Integration von dynamischen RAM-Refresh-Schaltungen, die den Einsatz von dynamischem Speicher erleichterten. Die interne Architektur umfasste mehrere Registerpaare (BC, DE, HL) sowie Indexregister (IX, IY) und ermöglichte so flexible Datenmanipulationen.

Bei seiner Einführung lag der Preis des Z80A bei etwa 65 US-Dollar für die Keramikversion und 59 US-Dollar für die Plastikversion. Im Laufe der Zeit sanken die Preise aufgrund des Wettbewerbs und der Massenproduktion erheblich. So wurde der Z80 im April 1978 für 21,95 US-Dollar angeboten. Inflationsbereinigt entspricht dies ungefähr 95 Euro im Jahr 2025.

Der Z80A fand breite Anwendung in einer Vielzahl von Heimcomputern und Spielkonsolen der 1980er Jahre. Bekannte Systeme wie der Sinclair ZX Spectrum, der Commodore 128 und die Sega Master System nutzten den Z80A als Haupt- oder Co-Prozessor. Beliebte Spiele wie "Pac-Man" und "Space Invaders" liefen auf Hardware, die vom Z80A angetrieben wurde.

Wie Zilog selbst berichtete, haben die Ingenieure von Zilog bewusst kleine Schaltkreisfallen ("traps") in das Design des Z80A eingebaut, um Nachahmern das Kopieren zu erschweren. Trotz dieser Maßnahmen wurde der Z80 in vielen Ländern, insbesondere in Japan und dem ehemaligen Ostblock, nachgebaut. Der Markterfolg des Z80A war beeindruckend. Seine Kompatibilität mit dem Intel 8080 und die erweiterten Funktionen machten ihn zur bevorzugten Wahl für viele Entwickler. Er wurde in unzähligen Geräten eingesetzt, von Heimcomputern über Arcade-Automaten bis hin zu eingebetteten Systemen. Seine Langlebigkeit und Vielseitigkeit führten dazu, dass er bis heute in einigen Nischenanwendungen verwendet wird. Im April 2024 gab Zilog bekannt, die Produktion des klassischen Z80 nach fast 48 Jahren einzustellen. Die letzte Möglichkeit für Bestellungen bestand bis Juni 2024. Dennoch bleibt der Einfluss des Z80A in der Geschichte der Mikroprozessoren unvergessen, und sein Design dient weiterhin als Grundlage für moderne Mikrocontroller. Zusammenfassend war der Zilog Z80A ein wegweisender Mikroprozessor, der durch seine technischen Innovationen und breite Anwendbarkeit die Computerlandschaft der 1980er Jahre maßgeblich prägte und dessen Erbe bis heute fortbesteht.

MOS Technology 6510

MOS Technology 6510

MOS Technology 6510

Der MOS Technology 6510 ist ein 8-Bit-Mikroprozessor, der 1982 von MOS Technology, einer Tochtergesellschaft von Commodore, entwickelt wurde. Er basiert auf dem erfolgreichen MOS 6502 und wurde speziell für den Einsatz im Commodore 64 (C64) konzipiert. Eine der Hauptänderungen gegenüber dem 6502 ist die Integration eines 6-Bit-I/O-Ports, der im C64 zur Speicherbankumschaltung und zur Steuerung des Kassettenlaufwerks verwendet wurde.

Der 6510 verfügt über einen 16-Bit-Adressbus und einen 8-Bit-Datenbus, was ihm ermöglicht, bis zu 64 KB Speicher direkt zu adressieren. Die typische Taktfrequenz beträgt 0,985 MHz in PAL-Systemen und 1,023 MHz in NTSC-Systemen. Der Prozessor wurde im 40-Pin-DIP-Gehäuse gefertigt. Eine interessantes Detail ist, dass der 6510 in der Seagate ST-251 Festplatte verwendet wurde, um die Festplattenlogik zu steuern. Dies zeigt die Vielseitigkeit des Prozessors, der nicht nur in Heimcomputern, sondern auch in Peripheriegeräten eingesetzt wurde.

Der MOS 6510 war kommerziell sehr erfolgreich, hauptsächlich aufgrund seiner Verwendung im Commodore 64, der mit geschätzten 12,5 bis 17 Millionen verkauften Einheiten als meistverkaufter Heimcomputer gilt. Die Integration des I/O-Ports ermöglichte eine effizientere Nutzung des Adressraums und reduzierte die Notwendigkeit zusätzlicher Hardware, was zu Kosteneinsparungen führte. In Bezug auf die Funktionsweise führt der 6510, ähnlich wie sein Vorgänger, Befehle in einem Taktzyklus von mindestens zwei Takten aus. Die Integration des I/O-Ports ermöglichte eine direkte Steuerung von Peripheriegeräten und Speicherbereichen, was die Flexibilität des Systems erhöhte. Heute findet der 6510 nur noch in Retro-Computing-Kreisen und in der Restaurierung alter Hardware Verwendung. Sein Erbe lebt jedoch in Emulatoren und Nachbildungen des Commodore 64 weiter. Der ursprüngliche Preis des Commodore 64 lag bei etwa 595 US-Dollar im Jahr 1982, was inflationsbereinigt ungefähr 1.600 US-Dollar im Jahr 2023 entspricht.

Es wurden mehrere Varianten des 6510 entwickelt, darunter der 8500, eine HMOS-Version des 6510, die im C64C verwendet wurde, sowie der 7501/8501, der in den Commodore-Modellen C16, C116 und Plus/4 zum Einsatz kam und über einen erweiterten I/O-Port verfügte. Der 8502, der im Commodore 128 verwendet wurde, konnte mit bis zu 2 MHz betrieben werden, was eine Verdopplung der Taktfrequenz gegenüber dem 6510 darstellte.

Im Vergleich zu Konkurrenzprozessoren seiner Zeit, wie dem Zilog Z80 oder dem Motorola 6809, bot der 6510 eine kostengünstige Lösung mit ausreichender Leistung für Heimcomputeranwendungen. Ein Vorteil des 6510 war seine einfache Integration und die zusätzlichen I/O-Funktionen, die eine flexible Systemgestaltung ermöglichten. Ein Nachteil war jedoch die im Vergleich zum Z80 geringere Anzahl an Registern, was die Programmierung in bestimmten Szenarien erschwerte.

Zusammenfassend war der MOS 6510 ein zentraler Baustein des Erfolgs des Commodore 64 und spielte eine wesentliche Rolle in der Geschichte der Heimcomputer. Seine Integration von CPU- und I/O-Funktionen in einem Chip trug zur Kosteneffizienz und Flexibilität des Systems bei.

MOS Technology 6502

MOS Technology 6502

MOS Technology 6502

Der MOS Technology 6502 ist ein 8-Bit-Mikroprozessor, der 1975 von MOS Technology unter der Leitung von Chuck Peddle und Bill Mensch entwickelt wurde. Die beiden Ingenieure hatten zuvor am Motorola 6800 gearbeitet, dessen hoher Preis von etwa 300 US-Dollar jedoch die Nachfrage einschränkte. Peddle erkundigte sich bei potenziellen Kunden nach einem akzeptablen Preis für einen Mikroprozessor und erfuhr, dass dieser bei maximal 25 US-Dollar liegen sollte. Motorola zeigte kein Interesse an der Entwicklung eines kostengünstigeren Prozessors, woraufhin Peddle und Mensch das Unternehmen verließen und zu MOS Technology wechselten. Dort entwickelten sie zunächst den 6501, der pinkompatibel zum Motorola 6800 war. Nach rechtlichen Auseinandersetzungen mit Motorola wurde der 6501 jedoch vom Markt genommen und durch den 6502 ersetzt, der keine Patentverletzungen mehr darstellte.

Der 6502 wurde 1975 auf der Wescon-Messe in San Francisco zu einem Preis von 25 US-Dollar vorgestellt, was für großes Aufsehen sorgte. Viele Branchenkenner zweifelten zunächst an der Seriosität des Angebots, da der Preis weit unter dem der Konkurrenz lag. Um die Leistungsfähigkeit des Prozessors zu demonstrieren, entwickelte Peddle den KIM-1, einen Single-Board-Computer, der ursprünglich als Entwicklungstool für Ingenieure gedacht war, aber schnell bei Hobbyisten beliebt wurde.

Der MOS 6502 fand in zahlreichen Computern und Spielkonsolen Verwendung. Bekannte Systeme wie der Apple I, Apple II, Commodore PET, Atari 2600, Nintendo Entertainment System (NES) und der BBC Micro nutzten den 6502 oder Varianten davon. Der Commodore 64 verwendete den MOS 6510, eine Weiterentwicklung des 6502 mit zusätzlichem I/O-Port.
Der ursprüngliche Preis des 6502 lag bei 25 US-Dollar im Jahr 1975. Inflationsbereinigt entspricht dies etwa 130 US-Dollar im Jahr 2023.

Es gab mehrere Varianten des 6502, darunter den 6507, der in einer 28-Pin-Version mit reduziertem Adressraum angeboten wurde und im Atari 2600 zum Einsatz kam. Der 6510, der im Commodore 64 verwendet wurde, verfügte über einen zusätzlichen 8-Bit-I/O-Port. Spätere CMOS-Versionen wie der 65C02 und der 65C816 boten erweiterte Befehlssätze und verbesserten die Energieeffizienz.
Im Vergleich zu Konkurrenzmodellen wie dem Zilog Z80 und dem Intel 8080 bot der 6502 eine einfachere Architektur und war kostengünstiger. Seine geringe Anzahl an Registern wurde durch den schnellen Zugriff auf die Nullseite des Speichers kompensiert. Allerdings erforderte die Programmierung des 6502 aufgrund der begrenzten Register mehr Geschicklichkeit. Der Z80 verfügte über mehr Register und einen umfangreicheren Befehlssatz, was die Programmierung erleichterte, jedoch war er teurer und benötigte mehr Strom. Der Intel 8080 war ebenfalls teurer und komplexer in der Handhabung.

Zusammenfassend war der MOS 6502 ein wegweisender Mikroprozessor, der durch seinen niedrigen Preis und seine Leistungsfähigkeit maßgeblich zur Verbreitung von Heimcomputern und Spielkonsolen in den 1970er und 1980er Jahren beitrug. Seine Architektur beeinflusste die Entwicklung späterer Prozessoren und hinterließ einen bleibenden Eindruck in der Geschichte der Computertechnik.

Motorola MC68020

Motorola MC68020

Motorola MC68020

Der Motorola MC68020 ist ein 32-Bit-Mikroprozessor, der 1984 von Motorola eingeführt wurde. Er stellte eine bedeutende Weiterentwicklung der 68000er-Familie dar und war der erste Prozessor dieser Reihe mit vollständig 32-Bit-breiten Daten- und Adressbussen. Mit etwa 190.000 Transistoren bot er eine erhebliche Leistungssteigerung gegenüber seinen Vorgängern.

In der Entwicklungsgeschichte des MC68020 legte Motorola besonderen Wert auf die Verbesserung der Rechenleistung und die Erweiterung der Funktionalitäten. Der Prozessor verfügte über eine 32-Bit-Arithmetisch-Logische Einheit (ALU) und unterstützte eine Vielzahl neuer Befehle und Adressierungsmodi. Eine bemerkenswerte Neuerung war der dreistufige Befehlspipeline, der die Verarbeitungseffizienz steigerte. Zudem besaß der MC68020 einen 256-Byte-Instruktionscache, der den Zugriff auf häufig verwendete Befehle beschleunigte.

Der MC68020 ist in einer Vielzahl von High-End-Computersystemen eingesetzt worden, darunter der Apple Macintosh II und verschiedenen Workstations von Sun Microsystems. Seine Leistungsfähigkeit und Flexibilität machten ihn zu einer bevorzugten Wahl für Entwickler, die anspruchsvolle Anwendungen realisieren wollten. Seine Architektur ermöglichte eine einfache Skalierbarkeit, was ihn für verschiedene Marktsegmente attraktiv machte. Die Einführung des Nachfolgers, des MC68030, im Jahr 1987 führte jedoch dazu, dass der MC68020 allmählich aus vielen Anwendungen verdrängt wurde.

In Bezug auf die Funktionsweise führte der MC68020 erweiterte Befehle für die Multiplikation und Division ein, die größere Operanden und Ergebnisse unterstützten. Zudem ermöglichte er die Manipulation von Bitfeldern und bot erweiterte Adressierungsmodi, einschließlich skalierter Indizierung und zusätzlicher Indirektionsebenen. Diese Verbesserungen erhöhten die Flexibilität und Effizienz bei der Programmierung.

Der MC68020 unterstützte auch die Integration von Koprozessoren, wie den Gleitkommaeinheiten MC68881 oder MC68882 und der Speicherverwaltungseinheit MC68851. Diese Koprozessoren erweiterten die Fähigkeiten des Systems erheblich, insbesondere in wissenschaftlichen und technischen Anwendungen.

Ein wesentlicher Unterschied zwischen dem MC68020 und dem MC68EC020 besteht in der Adressbusbreite. Während der MC68020 über einen 32-Bit-Adressbus verfügt und somit 4 GB Speicher adressieren kann, besitzt der MC68EC020 einen 24-Bit-Adressbus, der auf 16 MB Speicher begrenzt ist. Diese Reduzierung machte den MC68EC020 kostengünstiger und energieeffizienter, was ihn für Embedded-Systeme attraktiv machte.

Im Vergleich zu seinen zeitgenössischen Konkurrenten, wie dem Intel 80386, bot der MC68020 eine elegante und leistungsfähige Architektur. Seine orthogonale Befehlssatzarchitektur und die Vielzahl der Adressierungsmodi wurden von Entwicklern geschätzt. Allerdings war der Intel 80386 in Bezug auf die Verbreitung erfolgreicher, insbesondere im aufstrebenden IBM-PC-kompatiblen Markt, was teilweise auf die starke Marktposition von Intel und die breite Unterstützung durch Softwareanbieter zurückzuführen war.

Heute findet der MC68020 noch Anwendung in bestimmten Embedded-Systemen und als Lernplattform in der Ausbildung. Seine klare und gut dokumentierte Architektur macht ihn weiterhin zu einem wertvollen Werkzeug für das Verständnis von Mikroprozessor-Design und -Programmierung.

Zusammenfassend war der Motorola MC68020 ein bedeutender Schritt in der Entwicklung von Mikroprozessoren. Seine Einführung markierte den Übergang zu echten 32-Bit-Architekturen in der 68000er-Familie und legte den Grundstein für nachfolgende Entwicklungen in der Mikroelektronik.

Motorola MC 68000

Motorola MC 68000

Motorola MC68000

Motorola MC68000

Der Motorola MC 68000, entwickelt und veröffentlicht im Jahr 1979, ist eine der einflussreichsten Mikroprozessoren in der Geschichte der Computerelektronik. Zusammen mit seinem Nachfolger, dem MC 68010, legte er den Grundstein für eine neue Ära in der Mikroprozessor-Architektur. Diese Chips trugen dazu bei, die Leistungsfähigkeit und Vielseitigkeit von Computern erheblich zu steigern und wurden zu einer der erfolgreichsten Prozessorfamilien ihrer Zeit. Der MC 68000 war ein 16/32-Bit-Hybridprozessor, der für seine fortschrittliche Architektur und Vielseitigkeit bekannt wurde. Entwickelt von einem Team unter der Leitung von Tom Gunter, zeichnete sich der Prozessor durch seinen linearen Adressraum und seine vollständige Unterstützung von 32-Bit-Operationen aus, obwohl seine externe Datenbusbreite auf 16 Bit beschränkt war. Dies machte ihn für eine breite Palette von Anwendungen attraktiv, von Heimcomputern bis hin zu Industrie- und Embedded-Systemen.

Die Entstehung des MC 68000 war das Ergebnis von Motorolas Bestreben, mit Intel und anderen Herstellern konkurrenzfähig zu bleiben. Die Entscheidung, einen Prozessor zu entwickeln, der sowohl leistungsstark als auch kosteneffizient war, führte zu einer Architektur, die spätere Designs maßgeblich beeinflusste. Laut Gunter: „Wir wollten etwas schaffen, das sowohl einfach genug für Entwickler als auch zukunftssicher genug für kommende Anwendungen war.

Der Preis für den MC 68000 lag bei seiner Veröffentlichung bei etwa 250 US-Dollar, was inflationsbereinigt heute etwa 1.000 US-Dollar entspricht. Dies machte ihn zwar teurer als einige Konkurrenten, doch seine Leistung und Vielseitigkeit rechtfertigten die Kosten für viele Entwickler. Dennoch hatte Motorola mit der ersten Charge des Prozessors Schwierigkeiten. Die Prozessoren unetrstützten keinen virtuellen Speicher. Sollte ein fehlerhafter Speicherzugriff eintreten, konnte das gesamte System instabil werden. Ein Neustart behob den „freeze“, sämtliche, eigegebenen Daten waren dann im Nirvana.

Motorola_MC68000

Motorola_MC68000

Der MC 68010, veröffentlicht 1982, war eine verbesserte Version des ursprünglichen Prozessors. Er bot neue Funktionen wie die Unterstützung für virtuelle Speicherumgebungen, was ihn besonders attraktiv für den Einsatz in Workstations und Servern machte. Laut einem internen Bericht von Motorola zielte der MC 68010 darauf ab, die Schwächen seines Vorgängers zu beheben, während er weiterhin die gleiche Befehlssatzkompatibilität bot.
Die Funktionsweise des MC 68000 war bemerkenswert: Seine Architektur umfasste 16 allgemeine Register, von denen acht für Daten und acht für Adressen genutzt wurden. Der Prozessor konnte auf bis zu 16 MB physischen Speicher zugreifen, was für die damalige Zeit enorm war. Der MC 68010 erweiterte diese Möglichkeiten und führte einen verbesserten Ausnahme-Handling-Mechanismus ein, der die Entwicklung von Betriebssystemen erleichterte. Diese Prozessoren fanden Anwendung in einer Vielzahl von Computern, darunter der Apple Lisa, der Commodore Amiga, der Atari ST-Serie und sogar in Arcade-Spielekonsolen wie der Sega Genesis. Diese Vielseitigkeit machte sie zu einer beliebten Wahl bei Entwicklern, die leistungsstarke und flexible Lösungen suchten.

Die Marktbedeutung des MC 68000 und des MC 68010 war enorm. Sie trugen dazu bei, Motorola als einen der führenden Prozessorhersteller zu etablieren, und wurden in Millionen von Geräten weltweit eingesetzt. Sie ermöglichten die Entwicklung von Computern und Konsolen, die wesentlich leistungsfähiger und benutzerfreundlicher waren als frühere Modelle. Der MC 68000 wurde insbesondere für seine Rolle in der Spieleindustrie gefeiert, da er eine reibungslose Grafik- und Soundleistung ermöglichte, die die Spielerfahrung revolutionierte. Titel wie Sonic the Hedgehog und Street Fighter II, die auf der Sega Genesis liefen, wären ohne die Leistungsfähigkeit des MC 68000 nicht möglich gewesen. Auch Homecomputer, wie der Atari ST und der Amiga, setzten ebenso auf den 68000er als Herzstück. In Japan fand man ihn unter anderem in Sharps X68000 oder der Edelkonsole Neo Geo.

Interessanterweise war so mancher IBM Entwickler ebenfalls vom Motorola Chip begeistert. Dieser gehörte tatsächlich zur engeren Wahl, als dort der IBM 5150 konstruiert wurde, ein Rechner, der als Urvater des modernen PCs seinen Platz in der Geschichte mehr als verdient hat. Des Weiteren waren der TMS9900 und natürlich der Intel 8088 im Rennen. Der 68000er war den anderen Prozessoren in vielen Bereichen überlegen, dennoch fehlte es an erforderlichen Stückzahlen und an der Marktreife. Die erste Charge mit fehlerbehafteten Chips half da auch nicht weiter.

Die heutige Nutzung des MC 68000 und des MC 68010 ist begrenzt, da sie durch modernere Prozessoren ersetzt wurden. Dennoch finden sie weiterhin Anwendung in bestimmten Embedded-Systemen und in der Retro-Computing-Community, die die Nostalgie und den historischen Wert dieser Chips schätzt. Ein Artikel in der Zeitschrift Retro Gamer beschrieb den MC 68000 als „das Herzstück einer Ära, die Innovation und Kreativität in der Technologie förderte“.

Der Einfluss des MC 68000 und des MC 68010 auf die Computertechnologie kann nicht hoch genug eingeschätzt werden. Sie waren nicht nur technische Meisterwerke ihrer Zeit, sondern auch Wegbereiter für viele der Technologien, die wir heute als selbstverständlich ansehen. Ihre Vielseitigkeit, Leistung und Benutzerfreundlichkeit machten sie zu einer entscheidenden Komponente in der Geschichte der Mikroprozessorentwicklung und zu einem Symbol für die Möglichkeiten, die durch technologischen Fortschritt erreicht werden können.

Intel 80286

Intel 80286

Intel 80286

Der Intel 80286, besser bekannt als i286 oder einfach 286, markierte einen entscheidenden Fortschritt in der Welt der Mikroprozessoren und begründete den Aufstieg des IBM-kompatiblen PCs zur marktbeherrschenden Computerplattform. Intel stellte den Chip 1982 vor, als Nachfolger des 8086 und 8088, die die erste Generation der IBM PCs antrieben. Der 286 wurde entwickelt, um mehr Leistung, bessere Speicherverwaltung und erstmals echte Mehrbenutzer- und Multitasking-Fähigkeiten durch einen neuen geschützten Modus zu bieten. Seine Einführung fiel in eine Zeit des wachsenden Konkurrenzkampfes zwischen Intel, Motorola, Zilog und National Semiconductor, die alle um die Vorherrschaft im Bereich der 16-Bit-Prozessoren kämpften.

Mit einer Taktfrequenz von 6 MHz bis 25 MHz, je nach Modell, bot der 286 eine Leistung, die bis zu sechsmal schneller als die des Intel 8086 war. Besonders hervorzuheben war die verbesserte Speicherverwaltung: Während der 8086 nur 1 MB Adressraum besaß, konnte der 286 im Protected Mode bis zu 16 MB RAM nutzen, was ihn für größere Anwendungen und professionelle Software attraktiv machte. Allerdings war dieser geschützte Modus in der Praxis problematisch, da ein Wechsel zurück in den Real Mode nicht ohne einen Neustart möglich war – eine Designentscheidung, die von Entwicklern und IT-Experten heftig kritisiert wurde. Ein bekannter Pressekommentar aus der BYTE (1983) lautete: „Der 286 ist ein Ferrari mit einem Tankdeckel, den man nur mit einem Spezialschlüssel öffnen kann – die Leistung ist da, aber die Bedienung bleibt umständlich.“

Intel 80286

Intel C80286-6
Thomas Nguyen
2020-08-15

Trotz dieser Einschränkungen wurde der 286 ein enormer kommerzieller Erfolg. Besonders der IBM PC/AT, der 1984 mit einem 6-MHz-286er erschien, setzte neue Maßstäbe für Unternehmenscomputer und Server. Firmen wie Compaq, Olivetti, Siemens, Tandy und ALR brachten bald eigene 286-basierte Systeme auf den Markt, oft mit höheren Taktraten und verbesserten Chipsätzen. Der Preis eines typischen 286-Prozessors lag anfangs bei 100 US-Dollar, was inflationsbereinigt heute etwa 290 Euro entspricht. Die gesamten PC-Systeme kosteten damals oft zwischen 5000 und 8000 US-Dollar, was sie für Privatanwender unerschwinglich machte – ein Umstand, der erst mit dem 386er und späteren günstigeren PCs geändert wurde.

Die Leistung des 286 war verglichen mit dem Motorola 68000, der in Computern wie dem Apple Macintosh, Atari ST und Commodore Amiga zum Einsatz kam, durchaus konkurrenzfähig, allerdings hinkte er in einigen Bereichen hinterher. Der 68000 bot von Haus aus eine flache Speicheradressierung und 32-Bit-Register, was ihn besonders effizient für grafikintensive Anwendungen machte, während der 286 durch seine segmentierte Speicherarchitektur ausgebremst wurde. Dennoch konnte der 286 durch seine enorme Softwarekompatibilität punkten – er lief problemlos mit der großen Bibliothek an MS-DOS- und frühen Windows-Programmen, während andere Prozessoren auf spezielle Anpassungen angewiesen waren. Spiele profitierten enorm von der zusätzlichen Leistung des 286, vor allem Titel, die VGA-Grafik (640x480, 256 Farben) und AdLib- oder SoundBlaster-Soundkarten nutzten. Bekannte Spiele, die auf 286er-Systemen populär waren, sind unter anderem Prince of Persia, Wing Commander, Monkey Island, Ultima VI, SimCity und Wolfenstein 3D (letzteres allerdings mit stark reduzierter Framerate).

Ein interessanter Aspekt des 286 war seine lange Lebensdauer. Obwohl er bereits 1985 vom Intel 386 abgelöst wurde, blieb er bis weit in die 1990er-Jahre in Budget-PCs, industriellen Steuerungen und Embedded-Systemen im Einsatz. Gerade in Osteuropa, Asien und Lateinamerika fanden 286er-Systeme noch lange nach ihrer offiziellen Ablösung Käufer, da sie günstiger waren als moderne PCs. Bis heute gibt es industrielle Maschinensteuerungen, die auf 286-Prozessoren basieren und nur mühsam ersetzt werden können.

Der Intel 286 war ein entscheidender Meilenstein in der Computerentwicklung. Trotz einiger technischer Einschränkungen half er, den PC-Markt zu etablieren und den Grundstein für spätere Innovationen zu legen. Seine Geschichte ist ein perfektes Beispiel für die Übergangsphase von 16-Bit- zu 32-Bit-Systemen, und seine Auswirkungen sind selbst Jahrzehnte später noch spürbar.

Intel 8086

Intel 8086

In den 1970er Jahren hatte sich Intel mit seinen Prozessoren, allen voran dem Intel 8008 und dem späteren 8080, einen guten Ruf erarbeitet. Der Intel 8080 war das Herzstück vieler frühe Personal Computer und das Betriebssystem CP/M wurde ursprünglich für diesen Prozessor entwickelt, was ihm eine breite Nutzerbasis verschaffte. Doch die Konkurrenz holte schnell auf: Zilog hatte mit dem Z80 einen ähnlichen Prozessor auf den Markt gebracht, der sowohl in der Leistung als auch in der Beliebtheit mit dem Intel 8080 konkurrierte. Auch MOS Technology trat mit dem 6502 auf den Plan, dessen günstiger Preis und gute Leistung vor allem im Heimcomputerbereich für Furore sorgten.

Intel erkannte, dass die Entwicklung eines leistungsstärkeren Prozessors notwendig war, um mit der Konkurrenz Schritt zu halten. Der Intel 8086, der 1978 vorgestellt wurde, sollte diesen Anforderungen gerecht werden und die Lücke zwischen den 8-Bit-Prozessoren und den zunehmend leistungsfähigeren 16-Bit-Systemen schließen. Intel setzte dabei auf eine völlig neue Architektur, die sowohl die Leistung steigerte als auch die Kompatibilität zu bestehenden 8-Bit-Anwendungen gewährleistete. Der Intel 8086 war eine 16-Bit-CPU, die in der Lage war, 16-Bit-Operationen auszuführen und eine 16-Bit-Adressierung zu ermöglichen. Im Gegensatz zu seinen 8-Bit-Vorgängern konnte der 8086 64 KByte Speicher direkt adressieren. Durch die Verwendung eines sogenannten segmented memory model konnte der 8086 jedoch auch mehr als 1 MByte an Speicher adressieren, was ihm einen erheblichen Vorteil gegenüber den 8-Bit-Prozessoren verschaffte, die meist nur 64 KByte oder weniger adressieren konnten.

Der Prozessor bestand aus 29.000 Transistoren und verfügte über 14 Register, die in Segmente unterteilt waren. Im Vergleich zu den Prozessoren der Konkurrenz hatte der 8086 eine höhere Registeranzahl (der Zilog Z80 hatte nur 8 Register), was ihn für komplexe Berechnungen und Multitasking-Anwendungen vorteilhafter machte. Zu den Registertypen gehörten unter anderem Daten-, Adress- und Statusregister sowie ein spezielles Stack-Register für die Verwaltung des Programmspeichers. Ein bemerkenswertes Merkmal des 8086 war seine Fähigkeit zur sogenannten "Micro-Op-Codierung", die es ermöglichte, Maschinenbefehle in kleinere, einfachere Operationen zu zerlegen, um die Verarbeitungszeit zu optimieren. Dies war eine technische Innovation, die es dem Prozessor ermöglichte, effizienter zu arbeiten, wenn auch nicht unbedingt schneller als Konkurrenzprodukte wie der Motorola 68000, der mit 8 MHz auf den Markt kam, während der 8086 anfangs mit nur 4,77 MHz arbeitete.

Die Konkurrenz war jedoch stark. Der Zilog Z80 war aufgrund seiner geringen Kosten und seiner Verbreitung im Markt weit verbreitet, vor allem in Heimcomputern und frühen Computern wie dem ZX Spectrum und dem TRS-80. Im Vergleich dazu war der Intel 8086 in der Anfangsphase relativ teuer und verfügte bei seiner Einführung nur über eine geringe Taktrate von 4,77 MHz, was ihn in Sachen Geschwindigkeit hinter dem Zilog Z80 und dem Motorola 68000 zurückließ. Der Motorola 68000, der 1979 auf den Markt kam, war ein 16-Bit-Prozessor, der in vielerlei Hinsicht als überlegen galt, da er mit einer höheren Taktrate von 8 MHz und einer eleganteren Architektur ausgestattet war, die es ihm ermöglichte, komplexere Befehle in kürzerer Zeit auszuführen. Ein weiterer Unterschied zwischen dem Intel 8086 und der Konkurrenz war der Befehlssatz. Der 8086 nutzte eine sogenannte CISC-Architektur (Complex Instruction Set Computing), die auf einer großen Anzahl von Maschinenbefehlen basierte, von denen viele sehr komplex waren. Im Gegensatz dazu setzte der Motorola 68000 auf eine RISC-ähnliche (Reduced Instruction Set Computing) Architektur, die weniger, aber einfachere Befehle nutzte, die schneller ausgeführt werden konnten. Diese unterschiedliche Architektur führte zu verschiedenen Designentscheidungen und unterschiedlichen Leistungsprofilen bei Anwendungen.

Der Intel 8086 war die Grundlage für die x86-Architektur, die auch heute noch in den meisten Personalcomputern verwendet wird. Trotz seiner anfänglichen Schwächen wurde er schließlich durch die Entwicklung des Intel 8088 weiter verbessert. Der 8088 war eine abgespeckte Version des 8086, die mit einer 8-Bit-Datenbus-Architektur ausgestattet war, was die Produktionskosten senkte und die Markteinführung eines erschwinglicheren Personalcomputers ermöglichte. Der IBM PC, der 1981 auf Basis des 8088 gebaut wurde, trug maßgeblich dazu bei, die x86-Architektur zu etablieren und die Ära des Personalcomputers einzuleiten. Während der 8086 und der 8088 technisch nicht die schnellsten Prozessoren ihrer Zeit waren, ermöglichte der Erfolg des IBM PCs, dass die x86-Architektur zur Grundlage des Personalcomputermarktes wurde. Intel setzte seine Entwicklung fort und brachte mit dem 80286, 80386 und später dem 80486 Prozessoren immer leistungsfähigere Modelle auf den Markt, die die Grundlage für die heutigen Computertechnologien bildeten.

Obwohl der Intel 8086 anfangs in Bezug auf Taktrate und Architektur hinter der Konkurrenz zurückblieb, spielte er eine entscheidende Rolle in der Entwicklung des Personalcomputermarktes. Durch seine Einführung wurde die x86-Architektur etabliert, die bis heute die Grundlage der meisten Desktop- und Laptop-Computer bildet. Der Intel 8086 mag nicht der leistungsfähigste Prozessor seiner Zeit gewesen sein, aber seine Bedeutung liegt in seiner weitreichenden Kompatibilität und seiner Rolle als Pionier der modernen Computerarchitektur. Ohne den Erfolg des 8086 und seiner späteren Varianten würde die heutige Computerlandschaft wahrscheinlich ganz anders aussehen.