Fujitsu FM-7

Fujitsu FM-7

Fujitsu FM-7Der Fujitsu FM-7, auch bekannt als „Fujitsu Micro 7“, wurde im November 1982 als kostengünstiger Heimcomputer eingeführt und war eine vereinfachte Version des FM-8. Trotz seiner Positionierung als Einsteigermodell übertraf er seinen Vorgänger in mehreren technischen Aspekten. Während der Entwicklungsphase des FM-7 wurde das Gerät intern als „FM-8 Jr.“ bezeichnet. Es wurden mehrere Prototypen getestet, um die Hardware zu optimieren und die Produktionskosten zu senken. Diese Prototypen führten schließlich zur finalen Version des FM-7, die sich durch ihre Dual-CPU-Architektur und den AY-3-8910 Soundchip auszeichnete.

Ausgestattet mit zwei MBL 68B09 Prozessoren, die jeweils mit 2 MHz betrieben wurden, übernahm einer die Hauptverarbeitung, während der andere für Grafik- und I/O-Aufgaben zuständig war. Diese Dual-CPU-Architektur ermöglichte eine effiziente Aufgabenverteilung und verbesserte die Gesamtleistung des Systems. Der FM-7 verfügte über 64 KB RAM, 48 KB VRAM und 48 KB ROM. Die Grafikauflösung betrug 640×200 Pixel mit der Fähigkeit, 8 Farben gleichzeitig darzustellen. Für den Klang sorgte der AY-3-8910 Soundchip, der drei Kanäle für die Tonerzeugung bot. Spätere Modelle, wie der FM77AV, integrierten den fortschrittlicheren Yamaha YM2203 Soundchip, der zusätzliche FM-Synthese-Funktionen bereitstellte.

Der FM-7 wurde mit verschiedenen Betriebssystemen ausgeliefert, darunter Fujitsu Disk BASIC, OS-9 und FLEX. Diese Vielfalt ermöglichte es den Nutzern, das System an ihre spezifischen Anforderungen anzupassen. Als Speichermedien kamen Kassetten und 5,25-Zoll-Disketten zum Einsatz. Das Gerät bot Schnittstellen wie RS-232, Centronics, RGB-Videoausgang und drei Erweiterungsslots, die beispielsweise für eine optionale Z80-CPU-Karte genutzt werden konnten.

Mit einem Einführungspreis von 126.000 Yen war der FM-7 deutlich günstiger als der FM-8, der 218.000 Yen kostete. Inflationsbereinigt entspricht dies etwa 1.000 Euro im Jahr 2025. Diese Preisgestaltung trug maßgeblich zur Popularität des FM-7 bei, insbesondere unter Computerenthusiasten in Japan. Insgesamt wurden rund 220.000 Einheiten des FM-7 verkauft.
Der FM-7 konkurrierte hauptsächlich mit dem NEC PC-8801 und dem Sharp X1. Obwohl er in einigen technischen Aspekten unterlegen war, überzeugte er durch sein gutes Preis-Leistungs-Verhältnis und seine Erweiterbarkeit. Im Vergleich zum FM-8 bot der FM-7 eine verbesserte Klangqualität und eine effizientere Architektur, während er gleichzeitig kostengünstiger war.
Die Entwicklung des FM-7 wurde von einem Team unter der Leitung von Fujitsu-Ingenieuren durchgeführt, die zuvor am FM-8 gearbeitet hatten. Ihr Ziel war es, einen erschwinglichen Heimcomputer zu schaffen, der dennoch leistungsfähig genug für verschiedene Anwendungen war. Der FM-7 wurde auch in Spanien unter dem Namen Secoinsa FM-7 verkauft und fand dort insbesondere im Bildungsbereich Anwendung.

Der Fujitsu FM-7 war ein bedeutender Heimcomputer in Japan und diente als Plattform für viele aufstrebende Entwickler. Ein herausragendes Beispiel ist Hironobu Sakaguchi, der später als Schöpfer der „Final Fantasy“-Reihe Berühmtheit erlangte. Seine Karriere begann mit der Entwicklung von Textadventures wie „The Death Trap“ (1984) und dessen Nachfolger „Will: The Death Trap II“ (1985) für den FM-7. Diese frühen Werke legten den Grundstein für seine spätere Erfolgsgeschichte bei Square.

iFeel MouseMan

iFeel MouseMan

iFeel MouseManIst denn schon ein Vierteljahrhundert vergangen? Im Jahr 2000 stellte nämlich Logitech die iFeel MouseMan vor und bot damit eine der ersten Computer-Mäuse, die haptisches Feedback integrierten. Er wurde im Herbst 2000 vorgestellt und kombinierte optische Präzision mit der Fähigkeit, taktile Rückmeldungen zu geben. Diese Innovation basierte auf der TouchSense-Technologie von Immersion Corp., die es ermöglichte, physische Empfindungen wie Vibrationen zu erzeugen, wenn der Mauszeiger über bestimmte Bildschirmobjekte bewegt wurde. Ziel war es, die Benutzererfahrung durch den zusätzlichen Sinneseindruck des Tastsinns zu bereichern.

Der iFeel MouseMan verfügte über einen USB-Anschluss, drei Tasten und ein Scrollrad. Sein Design war ergonomisch gestaltet, um sowohl Komfort als auch Funktionalität zu bieten. Die Maus nutzte einen optischen Sensor mit einer Auflösung von 800 dpi, was für die damalige Zeit eine hohe Präzision bedeutete. Die Integration des haptischen Feedbacks wurde durch einen kleinen Motor realisiert, der Vibrationen erzeugte, um verschiedene Texturen oder Aktionen zu simulieren.

Die Einführung des iFeel MouseMan wurde von Logitech als bedeutender Schritt in der Entwicklung von Benutzerschnittstellen angesehen. Wolfgang Hausen, Senior Vice President bei Logitech, betonte die Bedeutung des Tastsinns in der Computerinteraktion: "In der realen Welt verlassen wir uns stark auf unseren Tastsinn, um uns zu orientieren und zu führen. Warum sollten wir ihn nicht nutzen, um unser Computererlebnis zu verbessern?"

Der Preis für den iFeel MouseMan lag bei seiner Einführung bei 129 DM. Inflationsbereinigt entspricht dies im Jahr 2025 etwa 100 Euro. Eine günstigere Variante, die iFeel Mouse, war für 89 DM erhältlich, was heute rund 70 Euro entspricht.

In der Praxis zeigte sich, dass die haptischen Effekte besonders in Spielen zur Geltung kamen. Spiele wie Half-Life, Soldier of Fortune und Star Trek Voyager: Elite Force unterstützten die iFeel-Technologie, wodurch Explosionen, Schüsse oder andere Aktionen durch Vibrationen spürbar wurden. Allerdings war die Anzahl der Spiele, die diese Funktion unterstützten, begrenzt, und die Integration war oft nur durch spezielle Patches möglich.

Trotz des innovativen Ansatzes konnte sich der iFeel MouseMan nicht dauerhaft am Markt etablieren. Die begrenzte Softwareunterstützung und die zusätzlichen Kosten führten dazu, dass die Technologie nicht weit verbreitet wurde. Heute sind Mäuse mit haptischem Feedback selten, und der iFeel MouseMan gilt als Kuriosität in der Geschichte der Computerperipherie. Dennoch bleibt er ein interessantes Beispiel für den Versuch, die Computerinteraktion um den Tastsinn zu erweitern.

Competition Pro

Competition Pro

Joystick Competition PRO

Von MOS6502 - Eigenes Werk.

Der Competition Pro ist eines der bekanntesten Eingabegeräte der Heimcomputer-Ära und wurde zu einem Synonym für robuste, präzise Steuerung in den 1980er- und frühen 1990er-Jahren. Ursprünglich wurde das Design von der britischen Firma Kempston Micro Electronics entwickelt, einem Unternehmen mit Sitz in Bedfordshire, das in den frühen 1980er-Jahren vor allem durch Hardwareerweiterungen für den Sinclair ZX Spectrum bekannt wurde. Ziel war es, einen Joystick zu schaffen, der sich durch Industriequalität, Langlebigkeit und Präzision von den häufig schwach konstruierten Alternativen wie dem Atari CX40 oder QuickShot II absetzte. Kempston setzte auf langlebige Mikroschaltertechnik, ein massives Gehäuse aus schlagfestem Kunststoff, zwei großzügige Feuerknöpfe und ein ikonisches Design mit langem roten Stick und schwarzem Rundsockel.
Die Technik hinter dem Competition Pro war bemerkenswert einfach und zugleich genial. Jeder der acht Richtungsimpulse wurde über einen eigenen mechanischen Mikroschalter realisiert, was nicht nur ein hörbares Klicken beim Auslösen erzeugte, sondern auch für unmittelbares Feedback und präzise Steuerung sorgte. Die beiden Feuertasten waren intern parallel verschaltet, sodass sie dieselbe Funktion ansprachen – ideal für Links- wie Rechtshänder. Der Joystick war vollständig analoglos, arbeitete rein elektrisch-mechanisch und war kompatibel mit dem 9-poligen Atari-Standardanschluss, was ihn mit nahezu allen Heimcomputern jener Zeit verwendbar machte: Commodore 64, Atari XL/XE, Amstrad CPC (über Adapter), MSX, Amiga und Atari ST.

Die erste große Marktwelle des Competition Pro erfolgte Mitte der 1980er-Jahre, zunächst im Vereinigten Königreich, wo er unter dem Label von Kempston vertrieben wurde. Später erschienen lizenzierte Varianten in anderen Märkten – vor allem in Deutschland, wo Firmen wie Suzo, StarTec oder Logic 3 das Gerät unter gleichem Namen mit kleineren Designänderungen in Massen verkauften. Die Variante mit zusätzlichem Autofeuer war besonders beliebt bei Spielen, die schnelles Schießen erforderten. Der Preis lag in Deutschland bei etwa 40 bis 60 D-Mark, was inflationsbereinigt heute rund 50 bis 80 Euro entspricht. In einem Artikel der Zeitschrift 64’er (Ausgabe 2/1987) wurde er als „Maßstab in Sachen Joystick-Qualität“ bezeichnet. Auch die britische Zeitschrift Crash lobte 1986 seine „unverwüstliche Bauweise“ und „besonders direkte Steuerung für Actionspiele“.

Der Competition Pro war nicht nur erfolgreich, sondern erlangte in der Community Kultstatus. In Foren, Usergruppen und Zeitschriften wurde er regelmäßig gelobt, und noch heute berichten Retro-Gamer von Exemplaren, die nach 30 Jahren noch zuverlässig funktionieren. Seine Robustheit wurde oft in Anekdoten hervorgehoben – etwa beim Power Play-Wettbewerb 1988 in München, bei dem zwei Joysticks bei Hyper Sports kaputtgingen, bevor ein Zuschauer seinen Competition Pro auslieh, mit dem der Teilnehmer prompt das Finale gewann. Viele Spieler nannten ihn „den Panzer unter den Joysticks“. In Großbritannien wurde er in zahlreichen Spielebundles vertrieben – etwa zusammen mit dem Commodore 64 oder Amiga 500 – und avancierte damit zur Standardausstattung ganzer Spielerjahrgänge.

Populäre Spiele, die besonders gut mit dem Competition Pro steuerbar waren, sind Summer Games, International Karate, Giana Sisters, Commando, Turrican, Bubble Bobble, Decathlon, Katakis, Uridium und R-Type. Gerade bei Sport- oder Actionspielen mit schnellem Richtungswechsel und Joystick-Rütteln – sogenanntem „Waggling“ – spielte der Competition Pro seine Qualitäten voll aus. Während andere Modelle unter der Belastung versagten, hielt er stoisch stand.

Der technische Aufbau war so einfach wie effektiv: Keine Chips, keine Platine, nur fünf Mikroschalter, Drahtverbindungen und eine solide Kunststoffkonstruktion. Diese Reduktion auf das Wesentliche ermöglichte einfache Reparaturen – viele Nutzer löteten selbst neue Mikroschalter ein oder wechselten die Feder des Sticks, falls dieser nach Jahren ausleierte. Die Joysticks waren modular genug, um auch für Arcade-Umbauten oder andere DIY-Projekte verwendet zu werden.

In den 2000er-Jahren kehrte der Competition Pro als USB-Version zurück – etwa von Speed-Link als „Competition Pro USB“ – und wurde durch Emulatorfreunde (VICE, FS-UAE, WinUAE) neu entdeckt. Auch moderne FPGA-basierte Retro-Systeme wie der THEC64 oder MiSTer unterstützen ihn über Adapter. Auf Veranstaltungen wie der Gamescom oder der Evoke wird er bis heute verwendet – meist mit einem Lächeln der Nostalgie und Respekt vor seiner Konstruktion.

In einem Rückblick der Zeitschrift Retro Gamer von 2012 hieß es: „Der Competition Pro ist vielleicht das einzige Stück Hardware, das den Spielern überlegen war – nicht umgekehrt.“ Dieser Satz bringt auf den Punkt, warum er bis heute als Ikone der Eingabegeräte gilt. Seine Unverwüstlichkeit, der klare mechanische Anschlag, die ergonomische Bauform und die plattformübergreifende Kompatibilität machten ihn zum wahrscheinlich beliebtesten Joystick Europas – und für viele auch zum besten Joystick aller Zeiten.

Im Laufe seiner Produktionsgeschichte gab es mehrere Revisionen insbesondere bei den Mikroschaltern, Gehäusen und Herstellervarianten. Diese Unterschiede betreffen sowohl die Haptik, Langlebigkeit, als auch die Qualität der Bauteile, und sie sind ein zentrales Thema unter Retro-Sammlern.

Die frühen Competition-Pro-Modelle (Kempston-Design) verwendeten meist hochwertige Mikroschalter von Cherry oder alternativen Industriezulieferern. Diese Schalter zeichneten sich durch ein sehr klares Klicken, eine präzise Auslösung und eine lange Lebensdauer aus – teils über 1 Million Schaltvorgänge. In späteren, günstiger produzierten Varianten (z. B. aus Fernost oder Lizenzproduktionen) wurden oft billigere Nachbauten mit weicherem Klickgefühl verbaut. Diese neigten eher zum „Prellen“ (doppeltes Auslösen) oder zum mechanischen Versagen nach wenigen Monaten intensiver Nutzung.
Es existieren Versionen mit Metallfedern zur Zentrierung sowie solche mit Gummiring-Zentrierung. Die Metallfeder-Versionen galten als langlebiger und knackiger in der Rückstellung, während Gummiringe sich mit der Zeit abnutzten oder porös wurden. Manche Varianten hatten zusätzlich eine Metallplatte als Boden zur Stabilisierung – andere verzichteten darauf, was zu einem weicheren, manchmal schwammigen Gefühl führte.

Während das Grunddesign über Jahrzehnte gleich blieb, unterscheiden sich verschiedene Revisionen durch Details wie:
• Form und Länge des Sticks (z. B. kürzer oder mit Rillen)
• Feuertasten (flache Tasten mit kurzem Weg vs. gewölbte Drucktasten)
• Kabelqualität (gewellt, glatt, abgeschirmt oder ungeschirmt)
• Unterseite (mit oder ohne Saugnäpfe, Gummifüße, Metallplatte)

Hersteller- und Lizenzvarianten:
• Kempston Micro Electronics: Das Ur-Design, robust, meist Made in UK, hoher Qualitätsstandard.
• Suzo International: Wichtiger Lizenznehmer, Produktion u. a. in Deutschland und Asien; hier stammen viele der 80er- und 90er-Versionen.
• StarTec / Logic3 / Quickjoy: Spätere OEM-Fertigungen mit oft geringerer Fertigungsqualität.
• Speed-Link (USB-Version): Seit ca. 2004 in Fernost produziert, mit Mikroschaltern, die nicht mehr Cherry-Qualität erreichen, aber dem Look nachempfunden sind.

Varianten mit Zusatzfunktionen:
Einige Modelle boten Autofeuer-Schalter (manuell zuschaltbar, meist in der Mitte des Sockels), Zweite Feuerknopf-Belegung (manchmal unabhängig schaltbar für Systeme wie Amiga) oder Select/Start-Tasten bei Konsolen-kompatiblen Versionen (besonders bei späteren Retro-Fassungen).

Apple III

Apple III

Apple IIIAls Apple im Mai 1980 den Apple III vorstellte, galt er als ambitioniertes Vorhaben, das den erfolgreichen Apple II beerben und das Unternehmen aus dem Heimcomputersegment in den lukrativeren Markt für Business-Computer führen sollte. Die Erwartungen waren immens, denn Apple hatte sich mit dem Apple II als führender Hersteller in der Bildungs- und Hobbyszene etabliert, doch um Unternehmen wie IBM und DEC herauszufordern, musste ein professionelleres Gerät entstehen – leistungsfähiger, robuster und mit echtem Betriebssystem. Der Apple III wurde somit von Anfang an als Business-Maschine positioniert, mit höherem Arbeitsspeicher, besseren Textdarstellungsfähigkeiten und einem professionelleren Gehäuse. Doch die Realität entwickelte sich anders: Der Apple III wurde später berüchtigt als eines der größten Technikdesaster der frühen Computerindustrie.

Im Kern des Apple III arbeitete ein Synertek 6502A-Prozessor mit 2 MHz, eine leicht übertaktete Variante des bekannten MOS 6502, der auch im Apple II, Commodore PET und später im Commodore 64 zu finden war. Der 6502 war ein 8-Bit-Prozessor mit 16-Bit-Adressraum und einfacher Architektur, die ihn für kostengünstige Systeme attraktiv machte. Er konnte mit sehr wenigen Transistoren arbeiten, was niedrige Produktionskosten und geringeren Stromverbrauch zur Folge hatte. Der 6502 verfügte über drei 8-Bit-Register (A, X, Y), einen 16-Bit-Program Counter, einen Stackpointer und einen Status-Register, was ihn sehr gut für kompakte Maschinenprogrammierung geeignet machte. Für den Apple III jedoch war dieser Prozessor ein Anachronismus: Während IBM für seinen 1981 vorgestellten PC auf einen 16-Bit-Prozessor (den Intel 8088) setzte, verblieb Apple bei 8-Bit-Technik, wenn auch mit cleverer Architektur. Der Apple III konnte über spezielle Speicherbankumschaltung bis zu 512 KB RAM adressieren, weit mehr als der Apple II. Dennoch wurde der Prozessor bald als Engpass empfunden.

Der Startpreis des Apple III betrug bei seiner Vorstellung 4.340 US-Dollar, was inflationsbereinigt im Jahr 2025 etwa 14.700 Euro entspricht. Für diese Summe erhielt man einen Rechner mit 128 KB RAM, eingebautem 5¼-Zoll-Diskettenlaufwerk, monochromem Textbildschirm mit 80×24 Zeichen und dem neuen Betriebssystem SOS – dem Sophisticated Operating System. Die Preise waren deutlich höher als beim Apple II, der zu dieser Zeit je nach Konfiguration zwischen 1.000 und 2.000 Dollar kostete. Apple wollte sich bewusst vom Heimcomputermarkt absetzen, doch das Preis-Leistungs-Verhältnis wurde von vielen Zeitgenossen als ungünstig kritisiert. In der InfoWorld vom Oktober 1981 hieß es: „Apple verlangt einen Premiumpreis für einen Computer, der in vielen Belangen kaum mehr bietet als sein Vorgänger.

Ein zentrales Problem des Apple III war sein Aufbau: Steve Jobs bestand darauf, dass der Rechner keine Lüfter oder Lüftungsschlitze enthalten dürfe – aus ästhetischen Gründen. Dies führte zu massiven Hitzeproblemen. Die Chips überhitzten häufig, der integrierte Diskettencontroller löste sich buchstäblich aus dem Sockel, und das System wurde instabil. Apple musste bereits Ende 1980 die gesamte erste Produktionsreihe zurückrufen. Etwa 14.000 Geräte wurden überarbeitet oder ausgetauscht. Dies führte zu einem enormen Imageverlust. In einem internen Memo bezeichnete ein Apple-Manager das Gerät als „technisch zu früh geboren“. Spätere Revisionen des Apple III (etwa ab 1982, oft informell als „Apple III+“ bezeichnet) verbesserten die Situation durch geänderte Sockel, optionale Lüfter und überarbeitete Platinen Layouts, doch das Vertrauen war bereits verloren.

Als Massenspeicher verwendete der Apple III zunächst ein integriertes 143-KB-Diskettenlaufwerk (Apple Disk III), später auch das externe Apple ProFile-Festplattenlaufwerk mit 5 MB Kapazität – eines der ersten Festplattenlaufwerke im Personal-Computer-Bereich. Die Apple ProFile war allerdings teuer (über 3.000 Dollar) und nur über spezielle Karten ansteuerbar. Der Apple III verfügte über mehrere Erweiterungssteckplätze, einen Centronics-kompatiblen Drucker Port, einen seriellen Port (RS-232) und konnte über ein spezielles Interface auch mit AppleTalk-Netzen verbunden werden. Vorgesehen waren zudem Mausunterstützung, Farbmonitore, SCSI-Controller und externe Laufwerke, doch viele dieser Geräte erschienen verspätet oder gar nicht.

Der Bildschirm des Apple III war standardmäßig monochrom und zeigte 560×192 Pixel, wobei durch besondere Tricks auch Bitmapped-Grafik mit Farbanpassung möglich war – in Farbe war jedoch eine externe Grafikkarte nötig. Die Farbfähigkeiten waren theoretisch vorhanden, aber stark eingeschränkt. Der Rechner konnte maximal 16 Farben anzeigen, allerdings nicht simultan im Hochauflösungsmodus. Da jedoch kaum Programme die Farbmöglichkeiten unterstützten, blieb der Apple III faktisch ein monochromes System. Seine physischen Abmessungen lagen bei etwa 38×45×13 cm mit einem Gewicht von rund 10 kg – für damalige Verhältnisse ein sehr kompakter Businesscomputer. Als Soundchip kam keine dedizierte Lösung zum Einsatz, sondern der interne Speaker wurde direkt über den CPU-Takt gesteuert. Klanglich blieb der Apple III damit auf dem Niveau des Apple II, das heißt: einfache Piepser ohne Mehrstimmigkeit oder Musikfähigkeiten.

Das Betriebssystem SOS, das Apple eigens für den Apple III entwickelte, war der eigentliche technische Höhepunkt des Systems. Es unterstützte Dateien mit Metadaten, ein echtes Device Management, Benutzerverzeichnisse, feste Dateitypen und ein modulares Treibersystem – Konzepte, die später im Macintosh wiederkehren sollten. Die API war objektorientiert und systematisch dokumentiert, was Programmierer sehr schätzten. Leider war die Einstiegshürde hoch, und viele Entwickler scheuten die Umstellung. Außerdem war der Softwaremarkt für den Apple III schwach. Nur rund 200 Programme erschienen, meist Buchhaltungs- und Datenbanksoftware wie VisiCalc III, Apple III Pascal, Profile Pascal, Word Juggler oder Apple III BASIC. Spiele existierten kaum.

Die Hauptentwickler des Apple III waren unter anderem Wendell Sander, ein früher Apple-Ingenieur, der bereits am Apple II beteiligt war und als Hauptarchitekt des Apple III gilt. Sander war bekannt für seine detailverliebte Arbeit an Systembussen und Speicherzugriffen, doch sein technisches Design wurde durch die Designvorgaben von Jobs und durch Zeitdruck eingeschränkt. Auch Jef Raskin, später bekannt durch seine Rolle beim Macintosh-Projekt, war beteiligt, zog sich jedoch bald zurück. Rod Holt, der für die Stromversorgung beim Apple II bekannt war, war ebenfalls involviert, allerdings nicht federführend.
Der Apple III verkaufte sich über die gesamte Laufzeit hinweg nur etwa 65.000-mal – ein Bruchteil der über zwei Millionen verkauften Apple II-Modelle. Im April 1984 stellte Apple die Produktion endgültig ein, nachdem der Macintosh angekündigt worden war. Die meisten Einheiten wurden an US-Firmen verkauft, insbesondere an Universitäten und kleinere Buchhaltungsfirmen. In Europa blieb der Apple III weitgehend unbekannt.
Gegenüber seinem Vorgänger, dem Apple II, bot der Apple III einen professionelleren Gesamteindruck, mehr RAM, eine höhere Auflösung, ein echtes Betriebssystem und integrierte Massenspeicheroptionen. Doch der Preis, die Hitzeprobleme, der Mangel an Software und die geringe Entwicklerunterstützung ließen ihn als Fehlschlag gelten. Gegenüber der IBM-PC-Familie, die ab 1981 den Markt dominierte, fehlte dem Apple III schlicht die Rechenleistung und Standardkompatibilität. Der 8-Bit-Prozessor, das fehlende Betriebssystem-Ökosystem und die hohen Preise machten ihn unattraktiv. Selbst gegenüber dem CP/M-Markt oder frühen MS-DOS-PCs war der Apple III technologisch und wirtschaftlich unterlegen.

Ein Artikel in Byte Magazine von 1982 fasste es trocken zusammen: „Der Apple III ist wie ein Sportwagen, der ständig überhitzt, nicht richtig startet und nur auf bestimmten Straßen fahren kann. Schön, aber unpraktisch.“ Heute gilt der Apple III als Lehrstück in der Technikgeschichte – ein ambitioniertes Projekt, das an Designidealen, Zeitdruck und Marktverkennung scheiterte. Gleichzeitig bereitete es mit SOS und seiner Architektur den Boden für die Entwicklung des Macintosh, der später Apples wahre Antwort auf den Businessmarkt wurde.

Auch wenn der Apple III als Büromaschine entwickelt wurde, gab es einige Spiele für das System, beispielsweise Apple III Chess, das speziell für das Apple III entwickelt wurde und unter SOS lief. Es bot im Vergleich zu Apple II-Versionen ein ausgefeilteres Interface, eine höhere Bildschirmauflösung (Textmodus mit 80×24 Zeichen) und eine stärkere KI-Routine, die auf den erweiterten Arbeitsspeicher zugreifen konnte. Es war aber sehr langsam in höheren Schwierigkeitsstufen, da der 6502-Prozessor trotz doppelter Taktung (2 MHz) gegenüber dem 8088 des IBM PC schwächelte.

Mit Star Thief III portierte man ein erweitertes Action Game, dass exklusiv für das neue Flaggschiff angepasst wurde. Im Vergleich zur Apple II-Version hatte es eine bessere Steuerung über die numerische Tastatur, zusätzliche Level und leicht erweiterte Grafik. Es wurde in wenigen Apple-Händlerkatalogen erwähnt, war aber kommerziell unbedeutend.

Einige Hobbyisten und kleinere Entwicklerstudios veröffentlichten einfache Spiele, die speziell in Apple III Business BASIC oder SOS BASIC geschrieben wurden. Darunter befanden sich Spiele wie Hangman III, Treasure Cave oder Space Courier, die in Apple-Usergruppen oder über Diskettenversand vertrieben wurden. Diese Titel waren technisch einfach, nutzten aber gelegentlich die strukturierte Dateiverwaltung und die 80-Zeichen-Darstellung von SOS.

Apple hatte mit dem Apple III einen Rechner geschaffen, der keine Marktdurchdringung geschaffen hatte. Die technischen Probleme und die fehlende Spielkultur im Businessbereich taten ihr Übriges. Zudem war das SOS-Betriebssystem mit seiner anspruchsvollen API nicht attraktiv für Spieleentwickler, die lieber die große installierte Basis des Apple II nutzten. Eine Rückwärtskompatibilität zum Apple II war zwar theoretisch vorhanden – der Apple III konnte in einen Apple II-Modus booten – aber dieser war hardwareseitig unvollständig und fehleranfällig, sodass viele Apple II-Spiele dort nicht funktionierten.

Amstrad CPC 464+

Amstrad CPC 464+

Amstrad CPC 464+Als der Amstrad CPC 464+ im Jahr 1990 auf den Markt kam, war der Heimcomputermarkt bereits im Umbruch. 16-Bit-Maschinen wie der Commodore Amiga 500 und der Atari ST hatten längst die Fantasie der Entwickler und Spieler erobert, und der klassische 8-Bit-Markt schrumpfte rapide. Dennoch entschloss sich Amstrad unter der Leitung von Sir Alan Sugar dazu, der erfolgreichen CPC-Reihe ein letztes, modernisiertes Update zu verpassen – als Teil einer neuen Generation von Produkten, die mit dem GX4000-Spielsystem eine gemeinsame Hardwarebasis teilen sollten. Der CPC 464+ wurde als direkter Nachfolger des beliebten CPC 464 konzipiert, aber mit einem radikalen Designwechsel, leicht verbesserter Technik und der Möglichkeit, auf moderne Peripheriegeräte und Spiele zuzugreifen. Es war ein Versuch, mit minimalem Aufwand neuen Schwung in die Produktlinie zu bringen und gleichzeitig auf die Spielkonsole GX4000 aufzubauen, die intern dieselbe Hauptplatine verwendete.

Der CPC 464+ kostete zum Marktstart rund £199 mit Farbmonitor oder £149 ohne. Inflationsbereinigt entspricht das heute etwa 430 bis 575 Euro. Während das ursprüngliche CPC-Modell ein „All-in-One“-Konzept mit Monitor und eingebautem Laufwerk war, war der 464+ als modernisierter Desktop konzipiert, optisch stark an moderne Konsolen und PCs angelehnt. Die abgerundete Form, das dunkelgraue Gehäuse mit farbigen Funktionstasten und die markante rote Power-Taste erinnerten eher an ein Spielzeug oder eine Konsole als an einen klassischen Heimcomputer. Der eingebaute 3"-Kassettenrekorder war weiterhin vorhanden, obwohl zu diesem Zeitpunkt Kassetten als Speichermedium schon fast veraltet wirkten. Amstrad entschied sich bewusst dafür, um Kompatibilität zur alten CPC-Software zu garantieren und kostengünstig zu bleiben. Optional war ein 3-Zoll-Diskettenlaufwerk nachrüstbar – allerdings nur über spezielle Erweiterungen.

Technisch blieb vieles beim Alten: Der Herzschlag des CPC 464+ war wie beim Vorgänger der Zilog Z80A, ein 8-Bit-Prozessor mit 4 MHz Taktfrequenz. Der Z80 war 1976 entwickelt worden und zeichnete sich durch einen erweiterten Befehlssatz gegenüber dem Intel 8080 aus. Die CPU verfügte über 16-Bit-Adressbus und 8-Bit-Datenbus, was eine Adressierung von bis zu 64 KB direkt möglich machte. Der Befehlssatz bot auch Blockoperationen, ein Bit-Test-System und eine flexible Interrupt Struktur, was ihn besonders für Multitasking-freie Systeme wie Heimcomputer geeignet machte. Zusammen mit dem verbesserten Gate-Array im CPC 464+ wurde es möglich, Bildschirmausgaben effizienter zu verwalten, vor allem im Zusammenspiel mit der neuen DMA-Unterstützung für Sprites und Rastereffekte – allerdings wurden diese Erweiterungen nur von speziell programmierten Spielen ausgenutzt, insbesondere jenen, die auch auf der GX4000 liefen.

Eine der wesentlichen Neuerungen des CPC 464+ war die verbesserte Grafiklogik. Der Rechner unterstützte weiterhin die bekannten drei Bildschirmmodi des CPC: Mode 0 mit 160×200 Pixeln bei 16 Farben, Mode 1 mit 320×200 bei 4 Farben und Mode 2 mit 640×200 bei 2 Farben. Die neue Palette umfasste jetzt 4096 Farben, von denen bis zu 32 gleichzeitig darstellbar waren – vorausgesetzt, das Spiel nutzte die „Plus“-Features. Dies war ein deutliches Upgrade zum alten CPC, dessen Palette nur 27 Farben bot. Allerdings blieben die alten CPC-Spiele auf den alten Grafikmodi beschränkt, da die neue Grafikfähigkeit nicht automatisch aktiviert wurde. Das Bildsignal konnte über RGB oder SCART ausgegeben werden, was eine klare, hochwertige Darstellung auf zeitgenössischen Monitoren oder Fernsehern erlaubte.

Auch der Sound blieb weitgehend unverändert: Der AY-3-8912-Soundchip war erneut an Bord, ein dreistimmiger PSG, der einfache aber ausdrucksstarke Töne produzieren konnte. Theoretisch bot der 464+ durch zusätzliche DMA-Fähigkeiten in Verbindung mit neuen Softwareroutinen eine flexiblere Soundverarbeitung – aber auch hier galt: Nur speziell für die „Plus“-Reihe entwickelte Programme nutzten diese Features wirklich aus. Viele klassische CPC-Spiele liefen einfach im Kompatibilitätsmodus – identisch zu ihren Darstellungen auf dem Original-CPC.

Der Aufbau des CPC 464+ war modularer: Die Tastatur war fest im Gehäuse integriert, aber der Anschluss für Joysticks und Peripheriegeräte war hinter Klappen verborgen – ein Design, das zwar eleganter, aber weniger zugänglich war als beim Original. Der Computer verfügte über einen Erweiterungsport, SCART-Ausgang, Audioausgang und einen analogen Joystickport. Interessanterweise enthielt das neue Plus-Gate-Array Unterstützung für Hardware-Sprites und Raster-Interrupts, was die grafischen Möglichkeiten theoretisch auf Konsolenniveau hob. Einige geplante Peripheriegeräte – wie ein CD-ROM-Laufwerk für den GX4000 oder ein MIDI-Modul – wurden nie fertiggestellt. Die existierende Peripherie umfasste jedoch Drucker, Maus, Lightgun und Speichererweiterungen. Viele dieser Geräte waren kompatibel mit den alten CPCs oder speziell für die GX4000 entwickelt, ließen sich aber auch am CPC 464+ verwenden.

Als Betriebssystem diente weiterhin AMSDOS in Verbindung mit dem Locomotive BASIC 1.1, das in aktualisierter Form leicht angepasst wurde, aber vollständig kompatibel zum ursprünglichen CPC blieb. Die BASIC-Version war weiterhin leistungsfähig, schnell und verfügte über viele eingebaute Grafik- und Soundbefehle. Es war allerdings nicht an die neuen Grafik-Features der Plus-Serie angepasst – wer diese nutzen wollte, musste in Assembler programmieren oder spezielle Entwicklungswerkzeuge verwenden. Diese Einschränkung wurde in mehreren Zeitschriften kritisiert. So schrieb Amstrad Action im November 1990: „Der CPC 464+ sieht aus wie die Zukunft, fühlt sich aber immer noch nach 1984 an, wenn man BASIC startet.“

Die Verkaufszahlen des CPC 464+ waren enttäuschend. Während die ursprüngliche CPC-Serie über drei Millionen Einheiten verkaufte, kamen der 464+ und sein großer Bruder 6128+ zusammen vermutlich auf unter 100.000 Geräte. Der Markt war einfach zu stark auf 16-Bit-Rechner fokussiert, und viele Käufer hielten die neuen Features für Kosmetik. In Frankreich, wo der CPC traditionell stark war, verkaufte sich der 464+ noch relativ gut, vor allem durch Bundle-Angebote mit der GX4000-Konsole. Die Strategie, einen Computer und eine Konsole auf derselben Hardwarebasis zu verkaufen, ging jedoch nicht auf. Ein Bericht in Tilt (Frankreich) vom Dezember 1990 urteilte nüchtern: „Der Plus ist hübsch, aber zu spät. Wäre er 1987 gekommen, hätte er die Szene neu definiert.

Die Entwickler hinter dem 464+ waren größtenteils dieselben, die bereits am ursprünglichen CPC mitgewirkt hatten. Besonders erwähnenswert ist Cliff Lawson, ein langjähriger technischer Entwickler bei Amstrad, der maßgeblich an der Hardwareintegration und dem Plus-Gate-Array beteiligt war. Lawson äußerte sich später enttäuscht über die geringe Unterstützung durch Softwarehäuser: „Wir gaben ihnen die Tools – aber sie blieben bei Spectrum-Ports mit vier Farben.

Gegenüber dem Vorgänger CPC 464 bot der CPC 464+ einen moderneren Look, theoretisch bessere Grafik, Sprite- und Raster-Interrupts sowie eine klarere Videoausgabe. Praktisch jedoch war der Mehrwert gering, solange keine Plus-optimierte Software verwendet wurde. Der C64 war zu diesem Zeitpunkt grafisch immer noch konkurrenzfähig – besonders mit der Vielzahl an hochwertigen Spielen – und der Amiga hatte den Markt längst übernommen. Der CPC 464+ wirkte wie ein schöner, aber veralteter Zwischenschritt. Dennoch war er ein würdiger Abschluss der CPC-Reihe: gut verarbeitet, technisch solide und optisch seiner Zeit voraus – aber zu spät erschienen, um noch einen Unterschied zu machen.

Trotz seiner geringen Verbreitung besitzt der Amstrad CPC 464+ eine kleine, aber bemerkenswerte Sammlung an Spielen, die speziell für die „Plus“-Reihe entwickelt oder angepasst wurden. Diese Titel nutzten in der Regel die erweiterten Grafikfähigkeiten wie Hardware-Sprites, erweiterte Farbpalette und Rastereffekte – Eigenschaften, die auf klassischen CPCs nicht zur Verfügung standen. Viele dieser Spiele erschienen zeitgleich auch für die GX4000-Konsole, da beide Geräte dieselbe technische Basis hatten, was einen reibungslosen Parallelvertrieb erlaubte. Einige dieser Spiele gelten heute als technische Highlights des 8-Bit-Zeitalters auf dem CPC.

Burnin’ Rubber war das vielleicht bekannteste Spiel für den CPC 464+, da es dem Gerät als Bundle beilag und damit praktisch jeder Käufer es besaß. Der rasante Racer erinnerte optisch an OutRun und präsentierte für CPC-Verhältnisse spektakuläre Scrolling-Grafik, schnelle Fahrmanöver und fein aufgelöste Sprites. Es war eines der ersten Spiele, das die erweiterten Plus-Grafikfunktionen wie Farbverläufe, Multiplex-Sprites und Raster-Scrolling aktiv nutzte. Die Musik und die glatte Performance waren ein Paradebeispiel für das, was auf dem CPC technisch möglich war – wenn man die Plus-Features ausschöpfte.

Pang, ursprünglich ein Arcade-Hit von Mitchell und Capcom, wurde von Ocean Software für den CPC Plus portiert. Die Plus-Version unterschied sich deutlich von der regulären CPC-Fassung: Sie bot saubere Arcade-Grafik, weichere Animationen und nutzte die neue Farbpalette intensiv aus. Das Spiel wurde in Zeitschriften wie Amstrad Action als „nahezu arcade-perfect“ bezeichnet. Besonders lobten Kritiker die farbintensive Darstellung und die reaktionsschnelle Steuerung, die nur durch das neue Gate-Array möglich war.

Switchblade, ursprünglich ein Atari ST-Spiel von Gremlin Graphics, erhielt eine exklusive Plus-Version, die mit deutlich besserer Grafik, erweiterten Effekten und optimierter Soundausgabe daherkam. Die Sprites waren detaillierter, es gab farbige Lichtverläufe und rudimentäre Partikeleffekte – ein Showcase für Plus-Technik. Im Vergleich zur regulären CPC-Version wirkte das Spiel wie aus einer anderen Hardwaregeneration. Es wurde in Frankreich in Amstrad Cent Pour Cent besonders positiv besprochen.

Robocop 2, eine Ocean-Produktion, war technisch ambitioniert, wenn auch spielerisch eher solide. Die Plus-Version hatte beeindruckende Hintergründe mit parallaxem Scrolling, Sprite-Multiplexing und Soundeffekte, die über die reguläre AY-Architektur hinausgingen. Auch hier profitierten die Grafiken deutlich vom erweiterten Farbraum der Plus-Reihe.

Barbarian II (Plus Edition) erhielt als eines der wenigen älteren Spiele eine technisch verbesserte „Plus-Version“, die vollständig überarbeitet wurde. Statt nur vier Farben gab es nun kräftige, satte Sprites mit verbesserten Animationen, sowie erweitertes Parallax-Scrolling im Hintergrund. Diese Fassung wurde damals nur als Bundle oder über Spezialhändler vertrieben und ist heute unter Sammlern sehr gesucht.

Navy Seals, ebenfalls von Ocean, war ein später Titel mit düsterem militärischen Szenario, realistischer Sprite-Animation und clever eingesetzten Lichteffekten, die stark von den Rasterfähigkeiten der Plus-Serie Gebrauch machten. Die CPC-Version wurde zwar auch für ältere Modelle vertrieben, doch nur auf dem 464+/6128+ konnten die erweiterten Licht- und Farbverläufe korrekt dargestellt werden.

Einige Demoszenen-Gruppen entwickelten sogar Plus-exklusive Tech-Demos, die nicht als Spiele, sondern als Grafik- und Musikpräsentationen galten. Diese Demos nutzten Hardware-Sprites, Farbrastereffekte und DMA-Sound, um den Plus-Modellen ein Denkmal zu setzen. Gruppen wie Logon System, Benediction und Condense trieben die Maschinen bis an ihre Grenzen.

Insgesamt bleibt festzuhalten: Die Spielebibliothek für den CPC 464+ war klein, aber fein. Was ihr an Quantität fehlte, machte sie oft mit Qualität wett – insbesondere in der grafischen und klanglichen Präsentation. Viele der Plus-Spiele wirken wie ein versäumter Blick in eine alternative Zukunft des CPC: eine Zukunft, in der die Hardware die Software endlich eingeholt hätte. Doch die goldene Zeit war da schon vorbei. Was bleibt, ist ein letzter Glanzmoment der 8-Bit-Ära – konzentriert in wenigen, aber außergewöhnlichen Spielen.

Amstrad CPC 464

Amstrad CPC 464

Amstrad CPC 464Der Amstrad CPC (Colour Personal Computer), eine Heimcomputer-Serie aus Großbritannien, wurde 1984 von Amstrad unter der Leitung von Alan Michael Sugar veröffentlicht. Die Serie war Amstrads Antwort auf die Dominanz von Commodore, Sinclair und Acorn im britischen Heimcomputermarkt der frühen 1980er Jahre. Sugar, ein britischer Unternehmer aus einfachen Verhältnissen, hatte sich bis dahin mit billigen Stereoanlagen und Haushaltsgeräten einen Namen gemacht. Mit dem CPC wollte er in den expandierenden Heimcomputermarkt einsteigen, allerdings mit einer radikal anderen Herangehensweise: statt einem nackten Motherboard wie beim Sinclair ZX Spectrum oder modularen Komponenten wie beim Commodore 64 sollte der CPC als komplettes, benutzerfreundliches Paket daherkommen – inklusive Monitor und eingebautem Massenspeicher.

Der ursprüngliche CPC 464 erschien im Juni 1984 zu einem Preis von etwa £199 mit Monochrommonitor oder £299 mit Farbmonitor. Inflationsbereinigt entspricht das heute etwa 770 bis 1.160 Euro. Diese Strategie – ein Komplettsystem ohne das sonst übliche Kabelgewirr und externe Netzteile – war eine durchschlagende Innovation. Die ersten Modelle verkauften sich hervorragend, was nicht zuletzt am aggressiven Marketing lag: Die Werbekampagnen stellten den CPC als stilvolle, moderne Alternative zu den alternden Heimcomputern der Konkurrenz dar. In der „Your Computer“-Ausgabe vom August 1984 hieß es: „Der CPC ist ein Statement: Endlich ein Computer, der wie ein Gerät für Menschen aussieht und nicht wie ein Spielzeug für Bastler.“

Technisch war der CPC 464 um den Zilog Z80A-Prozessor herum aufgebaut, der mit 4 MHz getaktet war. Der Z80 war zu dieser Zeit ein populärer 8-Bit-Prozessor, der ursprünglich von Zilog entwickelt worden war, einer Firma, die von ehemaligen Intel-Mitarbeitern gegründet wurde. Der Z80 war binärkompatibel zum Intel 8080, aber mit erweitertem Befehlssatz und zusätzlichen Registern. Dies machte ihn für viele Entwickler attraktiv, da er sowohl leistungsfähig als auch kostengünstig war. Der Z80 verarbeitete Daten in 8-Bit-Schritten und adressierte bis zu 64 KB RAM direkt. Der CPC 464 verfügte standardmäßig über 64 KB RAM, später gab es Modelle mit 128 KB.

Die Grafikeinheit des CPC bot drei verschiedene Bildschirmmodi: Mode 0 mit 160×200 Pixeln bei 16 Farben, Mode 1 mit 320×200 Pixeln bei 4 Farben, und Mode 2 mit 640×200 Pixeln bei nur 2 Farben. Damit bot der CPC eine enorme Flexibilität – und schlug den ZX Spectrum in Farbdarstellung und Auflösung deutlich. Die Palette umfasste 27 Farben, wobei je nach Modus eine bestimmte Auswahl gleichzeitig darstellbar war. Der Bildschirm wurde über einen eingebauten Gate Array Chip angesteuert, der die Zusammenarbeit zwischen dem Prozessor und dem CRTC (Cathode Ray Tube Controller, ein Hitachi 6845) regelte.

Die Tonerzeugung übernahm der AY-3-8912 Soundchip von General Instrument. Dieser dreistimmige PSG (Programmable Sound Generator) war auch im MSX-Standard, dem Atari ST und im ZX Spectrum 128 enthalten. Er ermöglichte komplexe Klangstrukturen und war fähig, einfache Musik sowie Soundeffekte für Spiele zu generieren. Der AY-3-8912 verfügte über drei unabhängige Kanäle mit steuerbarer Lautstärke und Rauschgenerator, was ihn dem SID-Chip des C64 zwar unterlegen, aber dem simplen Beeper des Spectrum weit überlegen machte.

Das Betriebssystem des CPC war AMSDOS, ein in ROM eingebettetes Dateisystem, das mit dem ebenfalls enthaltenen Locomotive BASIC eng verzahnt war. Dieses BASIC galt damals als eines der leistungsfähigsten auf Heimcomputern. Es ermöglichte strukturierte Programmierung, hatte viele Befehle für Grafik und Sound, und nutzte die Hardware effizient aus. Locomotive Software Ltd., die dieses BASIC entwickelte, bestand aus einer kleinen Gruppe talentierter Entwickler, angeführt von Richard Clayton. Sie arbeiteten eng mit Amstrad zusammen, um ein konsistentes Benutzererlebnis zu garantieren.

Der Aufbau des CPC war ein Alleinstellungsmerkmal: Der Computer war in die Tastatureinheit integriert, ein Bandlaufwerk (bzw. später ein 3-Zoll-Diskettenlaufwerk beim CPC 664/6128) war eingebaut, und ein Monitor diente gleichzeitig als Netzteil für das System – ein cleveres Design, das Kabelsalat und Kompatibilitätsprobleme minimierte. Der Massenspeicher war zunächst das Kassettenlaufwerk, später ersetzte Amstrad es durch ein 3-Zoll-Diskettenlaufwerk, das von Hitachi stammte. Diese Disketten boten eine Kapazität von 178 KB pro Seite und galten als zuverlässig, waren jedoch teurer und weniger verbreitet als die 5,25-Zoll- oder 3,5-Zoll-Diskettenformate der Konkurrenz. Dies führte dazu, dass viele Anwender Adapter oder Zusatzlaufwerke verwendeten.

Anschlusstechnisch verfügte der CPC über einen Expansion-Port, Joystick-Anschluss, Audio-Ausgang, Druckeranschluss und einen RGB-Monitoranschluss. Viele Peripheriegeräte wurden geplant oder tatsächlich produziert, darunter Plotter, externe Laufwerke, Speichererweiterungen, Maus-Interfaces, Lightguns und sogar MIDI-Erweiterungen. Amstrad versuchte auch, den CPC als Bildungsrechner in Schulen zu etablieren – mit begrenztem Erfolg, da BBC Micro und Acorn hier stärker waren.

Mit über drei Millionen verkauften Einheiten war die CPC-Serie kommerziell ein großer Erfolg, insbesondere in Frankreich, Spanien und Großbritannien. Der CPC wurde nicht nur im Handel stark beworben, sondern auch als „Volkscomputer“ im Schulsystem einiger Länder eingeführt. Die CPC 464, 664 und 6128 bildeten die Kernfamilie, später folgten kompakte Varianten wie der CPC 464+ und 6128+ im Jahr 1990, die sich jedoch nicht mehr gut verkauften. In einem Artikel der französischen Zeitschrift Tilt wurde 1985 geschrieben: „Der CPC hat das geschafft, was der Thomson MO5 nicht konnte: Schüler begeistern, Eltern überzeugen und Entwickler motivieren.“

Zu den Nachteilen des CPC gehörten die proprietären 3-Zoll-Disketten, die begrenzte Softwarekompatibilität mit anderen Plattformen, sowie die etwas schwerfällige Grafikprogrammierung in BASIC. Auch wenn die Hardware solide war, wurden viele Spiele nur in Modus 1 mit 4 Farben portiert, um die Speicherkapazität nicht zu überlasten – ein Punkt, der die visuelle Qualität vieler Titel gegenüber C64- oder ST-Versionen schmälert. Dafür punktete der CPC mit Zuverlässigkeit, einfacher Bedienung und gutem BASIC.

Im Vergleich zur Konkurrenz war der C64 klanglich überlegen (dank SID), der Spectrum billiger (aber technisch deutlich unterlegen), und der BBC Micro besser für Bildungseinrichtungen ausgestattet, aber teurer. Der CPC versuchte sich dazwischen zu positionieren – mit einem gewissen Maß an Erfolg. Alan Sugar selbst bemerkte einmal süffisant: „Wir bauen keine Computer für Freaks. Wir bauen Maschinen für Menschen, die einfach einen funktionierenden Computer wollen.“

Zwar war der Amstrad CPC nie so stark mit prominenten Fans verbunden wie der Commodore 64 oder der ZX Spectrum, doch gibt es einige bekannte Persönlichkeiten aus der Technik-, Musik- oder Gameszene, die sich öffentlich als Fans oder frühere Nutzer des Amstrad CPC geäußert haben. Hier sind einige davon, darunter auch solche, die heute in der Retro- oder Games-Community einen gewissen Bekanntheitsgrad besitzen, beispielsweise Ben Daglish – Der bekannte britische Komponist von 8-Bit-Musik (u.a. The Last Ninja, Krakout) arbeitete zwar vorrangig für den C64, äußerte aber mehrfach in Interviews seine Sympathie für den CPC-Soundchip AY-3-8912 und nannte ihn „eleganter als man glaubt“. In einem Interview mit Retro Gamer sagte er: „Mit ein bisschen Liebe und technischem Verständnis ließ sich dem CPC-Soundchip fast so viel Gefühl entlocken wie dem SID.“

Auch John Romero war von der CPC Reihe angetan. Der Mitbegründer von id Software (Doom, Quake) erwähnte in einem Twitter-Beitrag, dass er nie selbst einen CPC besaß, aber ein Fan von CPC-Demos geworden sei, nachdem er sie auf Retro-Festivals gesehen hatte: „Demos auf dem CPC zeigen, wie viel man aus limitierter Hardware herausholen kann – echtes Kunsthandwerk.

Heute gilt der Amstrad CPC als einer der stilvollsten und durchdachtesten Heimcomputer der 80er Jahre. Eine aktive Retro-Community pflegt sein Erbe, entwickelt neue Spiele, Hardware-Erweiterungen und Emulatoren. Der CPC war nie der revolutionärste Computer – aber er war einer der solidesten, und sein Erfolg zeigt, dass durchdachtes Design und kluge Marktstrategie selbst gegen technisch überlegene Konkurrenten bestehen konnten.

FTL Games

FTL Games

FTL GamesFTL Games war ein kleines, aber äußerst einflussreiches Softwareunternehmen aus Kalifornien, das mit seinem dritten Produkt die Landschaft der Computerrollenspiele für immer verändern sollte. Ursprünglich firmierte die Firma unter dem Namen Software Heaven, gegründet von Wayne Holder und Russ Boelhauf in San Diego. Anfangs konzentrierte man sich auf sogenannte Utility-Software wie Rechtschreibprüfprogramme, die teils im Eigenvertrieb, teils im Auftrag anderer Firmen vertrieben wurden. Doch Wayne Holder hatte schon früh den Wunsch, neben der „seriösen“ Software auch Unterhaltungstitel zu entwickeln. Um diesem Vorhaben einen strukturellen Rahmen zu geben, rief er die Abteilung FTL ins Leben, deren Name für „Faster Than Light“ stand – ein passender Titel für ein Studio, das bald zum Pionier der Echtzeit-Rollenspiele werden sollte.

SunDog Frozen Legacy STZu den ersten Mitarbeitern zählte Bruce Webster, ein alter Schulfreund von Wayne Holder, der auch prompt die Leitung der neuen Spieleabteilung übernahm. Mit „SunDog: Frozen Legacy“ erschien 1984 das erste Spiel des Studios, zunächst für den Apple II, nur wenige Wochen später gefolgt von einer verbesserten Version 1.1. SunDog war ein ambitioniertes Handels- und Abenteuerspiel im Science-Fiction-Setting, das durch seine offene Spielwelt, Kampfelemente und eine relativ komplexe Spielmechanik hervorstach. Es war bemerkenswert stabil und ambitioniert für seine Zeit – und das in einer Ära, in der Patchkultur und Updates noch kein Standard waren. Als SunDog im Dezember 1985 für den Atari ST portiert wurde, erhielt es eine völlig überarbeitete Grafik und mehrere spielmechanische Verbesserungen. Die Portierung übernahm der frisch zu FTL gestoßene Doug Bell, der zuvor gemeinsam mit Andy Jaros am Titel „Crystal Dragon“ gearbeitet hatte – einem Projekt, das später als „Dungeon Master“ Weltruhm erlangen sollte. Bruce Webster dagegen verließ das Unternehmen kurz nach der Fertigstellung von SunDog – er war, wie er später zugab, von der intensiven Entwicklung ausgelaugt und wollte sich von der Branche zurückziehen.

Oids STNoch bevor sich FTL ganz auf Dungeon Master konzentrierte, erschien 1987 mit „Oids“ ein weiteres Spiel für den Atari ST, das auf der Physik klassischer Trägheitssteuerung basierte, wie man sie aus Titeln wie Gravitar oder Thrust kannte. Spieler steuerten ein kleines Raumschiff, das Roboter aus Gefangenschaft befreien sollte. Trotz minimalistischer Handlung entwickelte sich Oids, besonders in Großbritannien, zu einem Kultspiel. Die spätere Macintosh-Version hingegen blieb hinter den Erwartungen zurück, obwohl sie auf der MacWorld 1990 mit fünf Sternen bewertet wurde – mangels Marketings geriet sie schnell in Vergessenheit.

Inzwischen widmete sich das Studio wieder „Crystal Dragon“, dem ursprünglichen Projekt von Doug Bell und Andy Jaros. Das Spiel wurde über fünf Jahre hinweg entwickelt, wobei allein Andy Jaros über ein Jahr mit der grafischen Gestaltung verbrachte. Besonders die Anpassung an die Hardware des Atari ST war laut Jaros eine gewaltige Herausforderung. „Hätte ich den ST damals gekannt, wäre das Ganze in wenigen Monaten fertig gewesen“, bemerkte er später. Beeindruckend war die Komprimierungsleistung der Engine: Obwohl Jaros über ein Megabyte an Grafikdaten beisteuerte, passte das fertige Spiel auf eine einzelne 400-Kilobyte-Diskette. Wayne Holder erklärte in einem Interview: „Ein Großteil der Entwicklungszeit floss nicht in Inhalte, sondern in intelligente Datenkompression.

Dungeon Master 1 Atari STDas Ziel war von Anfang an klar: Dungeon Master, wie Crystal Dragon nun hieß, sollte mit den großen Vorbildern Ultima, Wizardry und The Bard’s Tale konkurrieren – und sie, wenn möglich, übertreffen. Inspiriert von den Stärken dieser Klassiker, schufen Bell und Jaros ein System, das die Rollenspielmechanik grundlegend erneuerte. Die Dungeon-Welt war in Echtzeit, statt in Runden erlebbar. Dies war zwar nicht neu, wurde doch bereits Dungeons von Daggorath 1982 auf dem TRS-80 Color Computer in dieser Weise präsentiert. Was Dungeon Master jedoch besonders machte, war die vollständige Integration von Echtzeitkämpfen, Bewegungen, Magie und Sound in einem 3D-ähnlichen Dungeon, zusammen mit Maussteuerung und einem Skillsystem, das auf Anwendung beruhte. Zaubersprüche wurden über Symbolkombinationen aus den vier Elementen konstruiert, Fähigkeiten durch wiederholte Nutzung verbessert statt über punktuelle Levelaufstiege. Die Benutzeroberfläche war vollständig mit der Maus bedienbar, und das Sounddesign – samt dynamischer Lichteffekte – sorgte für ungeahnte Immersion. Die Geschichte der Spielwelt, aufgeschrieben von Nancy Holder, Waynes Frau, wurde im Handbuch ausgiebig beschrieben und lieferte eine dichte Atmosphäre. Nancy Holder machte sich später auch als Autorin von Romanen zu Serien wie „Buffy“, „Sabrina“ und „Smallville“ einen Namen.

Als Dungeon Master 1987 erschien, war der Effekt unmittelbar spürbar. Das Spiel verkaufte sich allein auf dem Atari ST über 40.000 Mal im ersten Jahr – eine gigantische Zahl für die damalige Zeit. Internationale Portierungen erschienen unter anderem für Amiga, SNES, PC-9801, FM Towns, TurboGrafx-16 und Apple IIgs. Eine Fassung für das CDTV wurde nie veröffentlicht, da Commodore notwendige Informationen zum Speichermanagement verweigerte. Eine Macintosh-Version wurde zwar entwickelt, aber nie veröffentlicht – Gründe hierfür sind bis heute unbekannt. Erwähnenswert ist auch die Amiga-Version, die als erstes Spiel weltweit über 3D-Soundeffekte verfügte.

Dungeon Master wurde vielfach ausgezeichnet, unter anderem als „Spiel des Jahres“. 1989 folgte mit „Chaos Strikes Back“ ein Add-on, das sogar ohne das Hauptspiel lauffähig war – eine Seltenheit zu jener Zeit. Nur die PC-Version erhielt dieses Add-on nicht. Wie bei allen bisherigen Spielen stammte auch das Box-Cover von David R. Darrow, der Andy Jaros (an der Fackel) und seine Frau Andrea Darrow (der Held im Hintergrund) als Modelle nutzte – letzterer wurde eigens aus einem Fitnessstudio rekrutiert.

Angesichts dieses Erfolgs war eine Fortsetzung unausweichlich. Während ein Team an der vereinfachten Fassung „Dungeon Master: Theron’s Quest“ für die TurboGrafx arbeitete, begann die Hauptentwicklung an „Dungeon Master II“. Wie schon bei früheren Projekten zog sich die Entwicklung jedoch über Jahre hin – sechs Jahre, um genau zu sein. 1993 erschien das Spiel zunächst exklusiv in Japan, der Rest der Welt musste bis 1995 warten. Die Portierung gestaltete sich deutlich schwieriger als beim ersten Teil, nicht zuletzt wegen der stark voneinander abweichenden Hardware: Während der Amiga mit 32 Farben arbeitete, verfügte ein VGA-PC über 256 Farben. Erschienen ist das Spiel unter anderem für Mega-CD, FM Towns und PC-98.

Nach der Veröffentlichung von Dungeon Master II wurde es still um FTL. Die Entwickler verloren sich in langen Entwicklungszyklen, und 1996 wurde ohne große Ankündigung die Arbeit an neuen Projekten eingestellt. Seither gab es keine Lebenszeichen mehr von Faster Than Light. Ihre Reise, so schien es, hatte sie an ihr Ende geführt – mit Lichtgeschwindigkeit ins Nichts. Doch ihr Vermächtnis lebt weiter: Dungeon Master gilt bis heute als eines der innovativsten Rollenspiele aller Zeiten. Doug Bell und Andy Jaros werden in Fankreisen bis heute verehrt. Und wenn man bedenkt, dass Ultima Underworld, System Shock und sogar frühe Elder-Scrolls-Titel wie Arena von FTLs Werk beeinflusst wurden, dann kann man mit Fug und Recht behaupten, dass ein kleines Studio aus Kalifornien die Spielgeschichte nachhaltig geprägt hat.

Hang-On – 1985 by Sega

Hang-On – 1985 by Sega

Hang-On, veröffentlicht 1985 von Sega, war so gänzlich anders als bisherige Arcade Automaten, sowohl sowohl technologisch als auch kreativ. Das Motorradrennspiel entstand unter der Leitung von Yu Suzuki, einem Entwickler, der nicht nur für sein technisches Gespür, sondern auch für seine Leidenschaft für Autos und Motorräder bekannt war. Nachdem ein Kollege ihm den Vorschlag gemacht hatte, einen Torsionsstab – ein flexibles mechanisches Bauteil zur Richtungssteuerung – in ein Spiel zu integrieren, war Suzuki sofort fasziniert von der Idee, ein realistisches Fahrgefühl in ein Arcade-Spiel zu bringen. Obwohl sich die Verwendung des Torsionsstabs als zu kompliziert herausstellte, fand er mit einfachen, aber effektiven Federn eine praktikable Alternative, die das Neigen eines echten Motorrads simulierte.

Suzuki durfte völlig frei entscheiden, welche Art von Spiel er entwickeln wollte. Als Motorsportfan entschied er sich für ein Motorradrennspiel, das nicht nur technisch beeindrucken, sondern auch körperlich erfahrbar sein sollte. Das Arcade-Gehäuse wurde als vollwertiges Motorradmodell gestaltet, auf dem sich Spieler in Kurven seitwärts lehnen mussten, um die Richtung zu ändern – eine physische Immersion, wie sie bis dahin in der Spielewelt undenkbar war. Während Suzuki persönlich ein großer Fan von Motocross und Enduro war – später verwirklichte er diesen Stil in Enduro Racer – zeigte die Marktforschung, dass vor allem straßenbasierte GP 500-Rennen weltweit beliebt waren. Dies führte zur Entscheidung für diesen realistischen Rennstil.

Sega Hang on Arcade Automat

Von joho345 - Eigenes Werk, CC BY-SA 3.0

Besonders inspiriert wurde Suzuki durch den jungen Motorradweltmeister Freddie Spencer, dessen elegante Fahrweise er in Hang-On nachempfand. „Freddie Spencers Fahrstil war so schön. Und mein Spiel war wie eine Hommage an ihn“, erklärte Suzuki. „Er fuhr eine Honda, und ich fand es toll, wie er sich durchhielt!“ Der Name des Spiels selbst stammt aus einem Artikel in einer japanischen Motorradzeitschrift, in dem beschrieben wurde, wie ein Fahrer sich in Kurven am Motorrad „festhält“ – „Hang-On“. Später stellte sich heraus, dass diese Technik in Nordamerika „hang off“ genannt wurde, doch der ursprüngliche Name blieb bestehen.

Suzukis Vision ging weit über das Gameplay hinaus. Ursprünglich wollte er ein echtes 3D-Spiel schaffen, was jedoch aufgrund der damaligen technischen Begrenzungen nicht möglich war. Stattdessen spezifizierte er das Design für eine neue Arcade-Hardware, die auf dem bestehenden VCO Object-Systemboard basierte und später als Sega Hang-On Hardware bekannt wurde. Diese Plattform nutzte mehrere CPUs und DSP-Prozessoren, um mittels innovativer Sprite-Skalierung 3D-ähnliche Effekte auf 16-Bit-Grafikbasis zu erzeugen – ein Durchbruch, der den Grundstein für Segas spätere Super Scaler-Technologie legte, die in Space Harrier ebenfalls Verwendung fand.

Auch der Soundtrack war für seine Zeit außergewöhnlich. Komponiert wurde die Musik von Hiroshi Kawaguchi, einem ehemaligen Programmierer, der durch seine Tätigkeit in einer Rockband Suzukis Aufmerksamkeit erregte. Für Hang-On komponierte Kawaguchi eine rockige Musikuntermalung – etwas, das in Spielhallen bis dahin kaum zu hören war. Besonders das Hauptthema „Theme of Love“ sorgte für Begeisterung unter Spielern und Entwicklern gleichermaßen.

Zwei Versionen des Spiels wurden produziert: ein Standardmodell mit Lenker und Hebeln sowie eine Deluxe-Version mit einem Motorrad-Nachbau, der sich neigen ließ. Ursprünglich wollte Suzuki sogar ein Gyroskop einbauen, um Beschleunigung und Verzögerung noch realistischer darzustellen, doch diese Idee fiel letztlich Budgetgrenzen zum Opfer.

Die Veröffentlichung von Hang-On war ein weltweiter Erfolg. In Japan wurde das Spiel im Juli 1985 veröffentlicht, gefolgt von den USA im August und Europa im September. Trotz anfänglicher Bedenken, ob Spieler – insbesondere Frauen – bereit wären, sich auf das bewegliche Motorrad zu setzen, war die Resonanz überwältigend. In Spielhallen bildeten sich schnell Warteschlangen, um das neuartige Fahrerlebnis zu erleben. In den ersten Jahren wurden über 20.000 Automaten offiziell verkauft, zusätzlich kursierten bis zu 30.000 illegale Nachbauten auf dem Weltmarkt – ein deutliches Zeichen für die Popularität des Spiels.

Die Reaktionen der Fachpresse waren enthusiastisch. Das britische Magazin Computer and Video Games schrieb, Hang-On sei „das realistischste Arcade-Spiel seiner Zeit“ und lobte vor allem die intuitive Steuerung und die innovative Darstellung. Auch Sega selbst unterstrich in einer Pressemitteilung, man wolle mit diesem Spiel „die Grenzen dessen erweitern, was ein Arcade-Spiel leisten kann“.

Hang-On wurde für zahlreiche Heimcomputer und Konsolen portiert, darunter das Sega Master System, wo es in vielen Fällen als vorinstalliertes Spiel enthalten war. Weitere Umsetzungen erschienen für Systeme wie den PC-8801, den MSX und in späteren Compilations für moderne Plattformen. Der direkte Nachfolger Super Hang-On erschien 1987 und setzte die Erfolgsgeschichte fort – ebenfalls mit realistischen Steuerungen, besseren Grafiken und einer noch dynamischeren musikalischen Untermalung von Kawaguchi.

Yu Suzuki entwickelte nach Hang-On einige der einflussreichsten Spiele der Arcade-Ära, darunter Out Run, Space Harrier und After Burner. Rückblickend sagte er über Hang-On: „Es gab Spiele mit kurzen Melodien und Pieptönen, aber ich denke, Hang-On war das erste Spiel mit einer soliden Komposition mit Bass und Schlagzeug.

Hang-On bleibt bis heute ein Klassiker des Arcade-Zeitalters, nicht nur als technologische Innovation, sondern auch als leidenschaftliches Werk eines Entwicklers, der den Spielhallen eine neue Dimension des Erlebens geschenkt hat. Es war das erste große Spiel, das die sogenannte „Taikan“-Philosophie – also physisch interaktive Automaten – etablierte, und markierte damit den Beginn einer neuen Ära des immersiven Spielens, die bis heute nachwirkt.

Gun Fight – 1975 by Taito / Midway

Gun Fight - 1975 by Taito / Midway

Wer als Kind nicht Räuber und Gendarm oder Cowboy und Indianer gespielt hatte, war in seiner Kindheit wohl völlig isoliert in der westlichen Welt aufgewachen. Wieso also nicht dieses Filmprinzip für ein Videospiel adaptieren?

Gun Fight war ein bahnbrechendes Arcade-Spiel, das 1975 von Taito in Japan unter dem Titel Western Gun veröffentlicht und von Midway in den USA als Gun Fight adaptiert wurde. Es war das erste Videospiel, das menschliche Charaktere in einem direkten Duell darstellte, und markierte einen bedeutenden Schritt in der Entwicklung von Videospielen. Entwickelt wurde das Spiel von Tomohiro Nishikado für die Taito Corporation, der bereits zuvor mit TV Basketball (1974) experimentiert hatte und damit frühe Versuche unternommen hatte, menschenähnliche Figuren in Videospielen darzustellen. Bei Western Gun legte er die Messlatte höher, indem er zwei frei bewegliche Charaktere entwickelte, die über den Bildschirm wanderten und ihre Arme zum Zielen bewegen konnten – eine Pionierleistung für seine Zeit.

Die spielerische Grundlage von Western Gun beruhte auf dem elektromechanischen Spiel Gun Fight, das bereits 1969 von Sega veröffentlicht worden war. In diesem früheren Spiel standen sich zwei Cowboys auf einer beweglichen Bahn gegenüber, getrennt durch ein Feld mit Kakteen, Bäumen und einem Saloon. Beim Abschuss auf Kakteen neigten sich deren Spitzen vorübergehend, während ein Treffer den Cowboy kurzzeitig zu Fall brachte. Ziel war es, den Gegner innerhalb eines vorgegebenen Zeitrahmens möglichst oft zu treffen, um Punkte zu sammeln. Nishikado übernahm dieses Grundkonzept, passte es jedoch für den Videospielbereich an, indem er Hindernisse wie Felsen hinzufügte, von denen Kugeln abprallen konnten, und zerstörbare Kakteen integrierte, die visuell zerfielen, wenn sie getroffen wurden. Technisch setzte er dabei auf Transistor-Transistor-Logik (TTL), da der Einsatz von Mikroprozessoren in der Spieleentwicklung noch nicht etabliert war. Aufgrund seiner vielfältigen Interaktionsmöglichkeiten und der komplexen Spiellogik zählt Western Gun zu den aufwendigsten TTL-Spielen der 1970er Jahre.

Für den nordamerikanischen Markt wurde das Spiel von Taito an Midway lizenziert, wo es von Dave Nutting Associates technisch überarbeitet wurde. Die US-Version mit dem Titel Gun Fight war das erste Videospiel, das einen Mikroprozessor einsetzte – den Intel 8080. Dies ermöglichte nicht nur bessere Grafik und Animationen, sondern auch ein flüssigeres Gameplay. Der Hauptprogrammierer der amerikanischen Version war Thomas A. McHugh, unterstützt von Jamie Fenton. Nishikado selbst zeigte sich beeindruckt von den technischen Fortschritten der US-Fassung und ließ sich davon später bei der Entwicklung von Space Invaders inspirieren.

Das Gameplay war einfach, aber tiefgreifend: Zwei Spieler kontrollierten je einen Cowboy mit einem Joystick für Bewegung und einem zweiten zum Zielen. Schüsse konnten von den oberen und unteren Bildschirmrändern abprallen, was taktische Spielzüge ermöglichte. Die Einführung von direkter Gewalt zwischen menschlichen Spielfiguren sorgte zur damaligen Zeit für Aufsehen und kontroverse Diskussionen. Dennoch erhielt das Spiel in der Fachpresse Anerkennung für seine fortschrittliche Technik und die dynamische Spielmechanik.

Gun Fight war kommerziell sehr erfolgreich. In den USA wurden rund 8.600 Arcade-Automaten verkauft, und das Spiel rangierte 1975 auf Platz drei der umsatzstärksten Arcade-Spiele. In Japan zählte Western Gun im Jahr 1976 zu den zehn erfolgreichsten Spielen des Landes. Die Popularität des Spiels führte zu späteren Portierungen auf Systeme wie den Bally Astrocade und verschiedene Heimcomputer der 8-Bit-Ära. Nishikado, der mit diesem Spiel seinen Ruf als Pionier festigte, schrieb später mit Space Invaders endgültig Videospielgeschichte. Gun Fight bleibt damit nicht nur ein Zeugnis früher Kreativität, sondern auch ein Schlüsselwerk auf dem Weg zur modernen Spieletechnologie.

Sega Nomad

Sega Nomad

Par Evan-Amos — Travail personnel, Domaine public, https://commons.wikimedia.org/w/index.php?curid=14321960

Der Sega Nomad war ein ebenso ambitioniertes wie ungewöhnliches Handheld-System, das 1995 exklusiv auf dem nordamerikanischen Markt veröffentlicht wurde. Anders als andere mobile Spielgeräte seiner Zeit war der Nomad keine Neuentwicklung, sondern ein portabler Ableger der Sega Genesis – besser bekannt als Mega Drive in Europa und Japan. Dieses Konzept war revolutionär, denn zum ersten Mal bot ein Handheld die Möglichkeit, ohne technische Einschränkungen die Heimkonsolenspiele einer bestehenden Plattform unterwegs zu nutzen. Tatsächlich war der Nomad vollständig kompatibel mit den rund 600 Modulen der Genesis – ein Spiele-Lineup, das in seiner Breite und Qualität zu keinem anderen portablen Gerät passte, weder davor noch danach.

Die Wurzeln des Systems reichen sogar noch weiter zurück als zur Genesis selbst. Grundlage für den Nomad war das in Japan veröffentlichte Gerät namens Mega Jet – eine abgespeckte, tragbare Version des Mega Drive, die ursprünglich für den Einsatz an Bord von Flugzeugen der Fluggesellschaft Japan Airlines gedacht war. Der Mega Jet besaß keinen eigenen Bildschirm und wurde über AV-Ausgänge direkt mit den Bordmonitoren verbunden. Als Stromquelle diente der Zigarettenanzünder der Sitze, weshalb das Gerät außerhalb des Flugverkehrs praktisch nur in Autos mit integriertem Fernseher und entsprechender Stromversorgung nutzbar war. Erst mit dem Nomad entwickelte Sega daraus eine echte Handheld-Konsole mit integriertem Bildschirm und Energieversorgung – eine Weiterentwicklung, die aus einer Nischenlösung ein vollständig mobiles Gerät machte.

Während der Entwicklungszeit trug das Gerät intern den Codenamen "Venus", womit Sega einer firmeninternen Tradition folgte, neue Hardware-Projekte nach Himmelskörpern zu benennen. Das Entwicklerteam wurde maßgeblich von Hideki Sato geleitet, dem damaligen Technischen Direktor bei Sega of Japan, der bereits beim Master System, Mega Drive und später auch bei der Dreamcast federführend war. Sato galt als brillanter Ingenieur mit Hang zu gewagten Konzepten, die jedoch oft an den Realitäten des Marktes scheiterten.

Im Inneren des Nomad arbeitete ein Motorola 68000 Prozessor mit 7,67 MHz – der gleiche Hauptchip wie im Mega Drive. Unterstützt wurde er von einem sekundären Zilog Z80-Prozessor, der vor allem für Soundausgabe und Abwärtskompatibilität zuständig war. Der 68000 war als 16/32-Bit-CISC-Prozessor mit 16-bit-Datenbus und 24-bit-Adressraum ausgelegt, konnte bis zu 16 MB adressieren und war besonders effizient in der Ausführung komplexer Befehle – ein Vorteil, den Spieleentwickler wie Treasure oder Konami voll auszunutzen wussten.

Die grafischen Fähigkeiten wurden ebenfalls vom Mega Drive übernommen, wodurch der Nomad eine Auflösung von 320×224 Pixeln darstellen konnte – wobei der integrierte LCD-Bildschirm auf 320×200 Pixel beschränkt war. Die maximale Farbdarstellung lag bei 64 gleichzeitig aus einer Palette von 512 Farben. Der Bildschirm selbst war 3,25 Zoll groß und hintergrundbeleuchtet, was ihn zwar gut ablesbar machte, jedoch auch maßgeblich zum hohen Stromverbrauch beitrug. Im Bereich Sound sorgte der Yamaha YM2612 FM-Synthesizer für sechsstimmige Musik und Effekte – ein Chip, der für seinen charakteristischen, metallisch-synthetischen Klang bekannt war und von vielen Komponisten der 90er geschätzt wurde. Unterstützt wurde er vom SN76489 PSG-Chip, der zusätzlich drei Kanäle für einfache Töne bereitstellte.

Der Aufbau des Geräts war robust, aber auch auffällig klobig. Es war größer und schwerer als der Game Boy oder der Game Gear, mit Maßen von etwa 21 × 11 × 4 cm. Der Nomad besaß ein Modulfach auf der Oberseite, darunter ein 6-Tasten-Layout inklusive Starttaste, ein Steuerkreuz, Lautstärkeregler, Kopfhöreranschluss, AV-Out zum Anschluss an den Fernseher sowie einen Port für einen externen Controller. Diese Kombination machte ihn zum einzigen Handheld, der standardmäßig Mehrspielerfunktionen und TV-Kompatibilität bot – ohne zusätzliche Hardware.
Ein bemerkenswertes Detail war der PAL/NTSC-Schalter auf der Rückseite des Geräts – obwohl der Nomad offiziell nur in Nordamerika verkauft wurde, erlaubte dieser Schalter prinzipiell den Betrieb von Modulen aus anderen Regionen, sofern sie mechanisch passten. Diese Offenheit war ungewöhnlich für Sega, das sonst auf starke Regionalbeschränkungen setzte. Der modulare Aufbau des Genesis ermöglichte es grundsätzlich auch, Erweiterungen wie das Mega-CD oder das 32X mit dem Nomad zu verwenden – in der Praxis war dies jedoch unhandlich bis unmöglich, da die entsprechenden Anschlüsse fehlten oder das Gewicht der Kombi-Setups das Handheld sprengte. Findige Bastler und Drittanbieter entwickelten jedoch Adapter und Docking-Lösungen, die zumindest Teile dieser Erweiterungen nutzbar machten.

Eine der größten Schwächen des Nomad war zweifellos sein Energiehunger. Sechs AA-Batterien wurden benötigt, um das System überhaupt betreiben zu können – und selbst dann war nach etwa 90 Minuten Schluss. Im Vergleich dazu kam ein Game Boy mit zwei Batterien auf über 10 Stunden Laufzeit. Der Nomad war schlicht nicht für tragbares, langfristiges Spielen ausgelegt, obwohl genau das sein zentrales Versprechen war. Das lag auch daran, dass die damals erhältlichen Akkus meist nur 1,2 Volt statt der benötigten 1,5 Volt lieferten. Sega reagierte darauf mit einem hauseigenen Akkupack, das rund 79 Dollar kostete – ein Preis, der viele Kunden abschreckte.

Auch marketingseitig blieb das Gerät ein Waisenkind. Sega entwickelte keine gesonderte Werbekampagne für den Nomad und versäumte es, sein größtes Verkaufsargument – der sofortige Zugriff auf hunderte hochwertige Genesis-Spiele – klar herauszustellen. Der Einführungspreis lag bei 179 US-Dollar, sank jedoch innerhalb eines Jahres auf 60 Dollar, weil der Abverkauf schleppend verlief. Inflationsbereinigt entspräche der Startpreis heute etwa 320 Euro, während der Tiefstpreis etwa 105 Euro betrug.

Presseberichte aus der Zeit waren gespalten. Die Zeitschrift Electronic Gaming Monthly lobte in ihrer Oktoberausgabe 1995 die „unglaublich scharfe Grafikleistung in einem tragbaren Format“ und bezeichnete den Nomad als „eine Konsole für Hardcore-Gamer unterwegs“. Gleichzeitig wurde aber auf die Akkulaufzeit und das Fehlen eines strategischen Software-Supports hingewiesen. In einem Rückblick nannte Retro Gamer das Gerät ein „technologisches Wunder, das zur falschen Zeit kam“ – zu einem Zeitpunkt, als bereits PlayStation und Saturn den Umstieg auf 32-Bit einläuteten.
Im Vergleich zur Konkurrenz wie dem Nintendo Game Boy oder dem Atari Lynx konnte der Nomad in puncto Grafik, Sound und Flexibilität deutlich punkten. Er war der leistungsfähigste Handheld seiner Zeit. Doch die Nachteile lagen in seinem Gewicht, der Stromversorgung und der fehlenden Exklusivtitel, die speziell auf die Hardware zugeschnitten gewesen wären. Nintendo setzte hingegen auf effiziente Hardware und eine aggressive Softwarepolitik, die den Game Boy über Jahre hinweg dominierte.

Der Sega Nomad blieb ein Außenseiter in der Geschichte der Videospielkonsolen. Als portables Kraftpaket, das seiner Zeit in vielerlei Hinsicht voraus war, zählt er heute zu den faszinierendsten Nischenprodukten der Konsolenära. Trotz oder gerade wegen seiner Unvollkommenheiten ist er ein beliebtes Sammlerobjekt – ein tragbarer Dinosaurier aus der 16-Bit-Zeit, der den Traum verwirklichte, Heimspiele überallhin mitzunehmen, lange bevor Nintendo mit der Switch das Konzept perfektionierte.