Jay Miner

Jay Miner

Jay Miner

Wenn es einen Menschen gibt, der als Vater, als Schöpfer einer ganzen Computerserie gilt, dann ist dies mit Sicherheit Jay Miner, der Vater des Amiga. Seinen Lebenslauf zu schreiben ist nur möglich, wenn man seinen Blick auch auf die Geschichte seines Unternehmens Amiga, Inc. richtet. 1932 in Prescott, Arizona geboren, zog er schon bald mit seiner Familie nach Kalifornien und besuchte dort später die Universität von Berkeley. Zuvor jedoch leistete Jay seinen Dienst bei der amerikanischen Küstenwache, die sein Talent für Elektronik erkannte und ihn in eine Schule für Elektronik überstellte, die in Groton, Connecticut, lag. In diesem Umfeld lernte er seine zukünftige Frau Caroline Poplawski kennen, die er schon kurze Zeit später heiratete. Die Dienstzeit von drei Jahren verging, dank Heirat, relativ schnell, und Caroline zog mit ihrem Mann zurück nach Kalifornien, um sein Studium zu beginnen. 1959 schloss er dieses mit einem Bachelor of Science in Electrical Engineering and Computer Science erfolgreich ab. Dies ermöglichte ihm in den 1960ern, bei zahlreichen Unternehmen und Firmen anzufangen, aber auch das Glück mit eigenen Startups zu versuchen. Unter anderem entwickelte er einen ferngesteuerten Herzschrittmacher. Probleme hatte Miner jedoch mit seiner eigenen Gesundheit: die Funktion seiner Nieren war eingeschränkt und Jay verbrachte viel Zeit an Dialysegeräten. Allerdings schien dieses Problem ihn nicht weiter aufzuhalten, und in den nächsten Jahren entwarf er mitunter einen der ersten digitalen Voltmeter und Taschenrechner und war seiner Zeit damit voraus.

Harold M. Lee erkannte das Potenzial und lud ihn zu Atari ein, wo er sofort eine Festanstellung erhielt. Das erste Projekt war der Television Interface Adapter, kurz TIA, der den Grundstein zum Atari VCS 2600 bilden sollte. Atari selbst hatte zuvor mit den ersten Pong-Automaten ein Vermögen gemacht und vertrieb auch schon seit einiger Zeit Wohnzimmerversionen ihres Spielautomaten. Der Markt schien allerdings gesättigt zu sein, und ein logischer Schritt war demnach, ein Modell zu entwickeln, das dem Anwender ermöglichte, die Spiele auszutauschen und somit immer neue Anwendungen zu erleben. Jedoch kam Ataris Entwicklungsabteilung einfach nicht weiter, und erst Jays Mithilfe versprach Erfolg. Bisher besaß Atari lediglich eine Steckplatine voller Funktionen, die aber in dieser primitiven Weise nicht eingesetzt werden konnte. Jay setzte sich an das Problem und vereinte sämtliche Funktionen in einem Chip, den er TIA taufte. Mit seiner Hilfe und einer kurzen Zeit des Debuggings war das Problem gelöst, und Atari konnte das VCS 2600 auf den Markt bringen, das zu einem unglaublichen Erfolg und Beginn der modernen Computerspielindustrie wurde. Eine bekannte Anekdote sei hier erwähnt: Jay arbeitete nie allein, stets war seine engste „Mitarbeiterin“ dabei – sein Cockapoo Mitchy. Mitchy hatte sogar ein eigenes Namensschild an der Tür. Allerdings war Mitchy natürlich nicht wirklich „entscheidungsbefugt“ im technischen Sinne – Jay selbst erzählte gerne augenzwinkernd, dass er seinen Hund um Rat fragte und bei Missfallen das Konzept sofort verwarf. Diese Anekdote unterstreicht jedoch vor allem Jays humorvollen Umgang mit seiner Arbeit.

Das gemeinsame Entwicklungsteam bastelte in der Folgezeit an den weiterführenden Entwürfen des TIA, die später in den 8-Bit-Computern des Unternehmens arbeiten sollten. Jay entwarf dafür den ANTIC-Chip (Alphanumeric Television Interface Controller), der 1981 patentiert wurde. ANTIC beherrschte 14 unterschiedliche Modi zur Darstellung von Text und Grafik und unterstützte den MOS 6502 Prozessor bei der Datenverarbeitung. Im weitesten Sinne konnte man ihn als grafischen Coprozessor bezeichnen. Miners Vorarbeiten führten zusätzlich auch zum CTIA, der die verarbeiteten Grafiken und Texte an den Monitor ausgab. Der ANTIC verblieb bis 1986 in sämtlichen 8-Bit-Modellen des Unternehmens. Dies spricht wohl für sein vorzügliches Design, das keine Änderungen notwendig machte. Allerdings muss man hierbei auch erwähnen, dass Jay seine Entwürfe noch per Hand auf Papier brachte und so beschrieb, dass wohl nur er die Skizzen wirklich verstehen konnte. Nachfolgende Bearbeitungen durch Dritte waren kaum möglich.

Allerdings war Jay Miner nicht sonderlich glücklich, denn er interessierte sich für die neuen Motorola 68000 Prozessoren, die auf reiner 16-Bit-Basis arbeiteten. Jay fragte bei Atari nach, ob er einen Computer entwickeln dürfe, der auf diesem Chip basierte. Atari selbst war nicht sonderlich begeistert: die Entwicklung des Atari 800 hatte enorme Summen verschlungen, und das Unternehmen sah keinen Sinn in einem Computer, dessen Prozessor bereits 100 Dollar kostete, von den Kosten für den Arbeitsspeicher ganz zu schweigen. Der Motorola 68000 Prozessor benötigte die doppelte Menge an Speicher, was eben auch die Kosten verdoppelte. Diese uneinsichtige Einstellung der Führung, die die Zeichen der Zeit nicht verstanden, enttäuschte Miner gewaltig, und kurzerhand kündigte er seine Zusammenarbeit 1982 auf. Stattdessen unterschrieb er bei einem Unternehmen für Herzschrittmacher und Medizintechnik (Xymos). Die Entwicklung seines 16-Bit-Konzeptes entwickelte er dieser Zeit jedoch weiter, allerdings zumeist in Details, denn das Grundkonzept war bereits fertig entwickelt.

Amiga Inc.Ein paar Jahre früher, 1979, entschied sich auch Larry Kaplan, über seine Zukunft bei Atari nachzudenken. Gemeinsam mit ein paar weiteren Entwicklern war er über die Bezahlung nicht sonderlich erfreut und gründete Activision. Zwei Jahre später verließ er auch Activision wieder, um neue Projekte zu verfolgen. Jay Miner hingegen ging einen anderen Weg: er überzeugte Xymos, in die Produktion von Chips für ein neues Computersystem einzusteigen. Mit Investorenunterstützung entstand daraus Hi-Toro, das schon bald in Amiga, Inc. umbenannt wurde. Jay Miner wurde zum Vizepräsidenten und technischen Leiter. Anfangs wollte man mit Hi-Toro eine Spielkonsole entwickeln, die jedoch jederzeit zu einem echten Computer ausgebaut werden konnte. Diese Vision teilte Jay, auch wenn es anfangs nicht an die große Glocke gehängt wurde, da die Marktchancen für Computer damals als riskant galten.

Jay Miner zog schließlich nach Santa Clara, um sein eigenes Computerprojekt zu realisieren. Allerdings stellte Miner klare Forderungen: er erhielt ein monatliches Gehalt, ein Aktienpaket und seine persönliche Assistentin – Mitchy. Die Hundedame erhielt vollen Zutritt zu den Räumen des Unternehmens. Eine Klausel besagte, dass ihre Zutrittsberechtigung jederzeit wieder entzogen werden konnte, falls sich Mitarbeiter gestört fühlen sollten – was jedoch nie passierte, da Mitchy bei den Mitarbeitern sehr beliebt war. Jay war dieser Punkt sehr wichtig, er brauchte Mitchy um sich, um sich bei seiner Arbeit wohlzufühlen. Dies lockerte und beruhigte ihn, sodass er sich voll auf seine Arbeit konzentrieren konnte.

Bevor jedoch auch nur die erste Steckplatine begonnen wurde, verließ Larry Kaplan die Firma bereits wieder. Jay Miner wurde im selben Augenblick Vizepräsident eines Unternehmens, das bisher nur auf dem Papier existierte. Die Projektentwicklung lag nun völlig in seinen Händen. Auch ein Name wurde nun benötigt, und man einigte sich schließlich auf „Amiga, Inc.“. Jay selbst war zu Beginn überhaupt nicht begeistert über den Namen, korrigierte aber schon bald seine Meinung. Er glaubte zunächst, dass ein spanisches Wort bei den potenziellen Käufern falsche Assoziationen wecken könnte, doch letztlich erkannte er, dass der Name leicht einprägsam war und für eine freundliche, positive Zukunft stand.

Im Laufe der Monate wuchs das Entwicklungsteam für den Prototypen „Lorraine“ (benannt nach der Ehefrau des Unternehmenspräsidenten) stetig an. Jay Miner suchte nicht nur nach fähigen Entwicklern, sondern nach Menschen, die mit Leidenschaft hinter dem Projekt standen. Dabei tolerierte er auch unkonventionelle Eigenheiten. Einige Mitarbeiter trugen violette Strumpfhosen oder Plüschhasen-Slipper – Exzentrik war bei Amiga Inc. Teil der Unternehmenskultur und förderte ein familiäres Arbeitsklima.

Dale Luck, der Grafikspezialist des Unternehmens, war äußerlich kaum als solcher zu erkennen und erinnerte eher an einen Hippie der späten 1960er-Jahre. Für Jay zählte jedoch nur das Ergebnis. Solange die Arbeit erledigt wurde, ließ er seinen Mitarbeitern freie Hand. Dies führte dazu, dass einige tagelang von zu Hause aus arbeiteten, ohne im Büro zu erscheinen. Miner betonte: „Den Mitarbeitern zu gestatten, anders zu sein, ist ungemein wichtig.“

Die Richtung des neuen Systems war zunächst nicht klar definiert. RJ Mical, ein Soft- und Hardwareentwickler, plädierte für ein kostengünstiges Modell, das als Konkurrenz zum Atari VCS 2600 positioniert werden sollte. Diese Meinung teilten auch die Investoren, die ihr Kapital für ein solches Produkt bereitgestellt hatten. Dale Luck und Carl Sassenrath hingegen forderten eine Maschine mit umfangreichen Erweiterungsmöglichkeiten. Diese Grundsatzdiskussion war bis zur Veröffentlichung des Amiga nicht endgültig entschieden.

Amiga Inc. hatte jedoch kreative Methoden, um Meinungsverschiedenheiten zu lösen. Schaumstoff-Baseballschläger wurden bereitgestellt, mit denen Konflikte spielerisch ausgetragen wurden. Nach solchen „Schlachten“ wurde wieder konzentriert weitergearbeitet. Die Mitarbeiter waren hochmotiviert, da sie wussten, dass sie an einem der aufregendsten Computer ihrer Zeit arbeiteten. Die Softwareentwicklung war besonders engagiert und hatte ihre Vorgaben bereits fertiggestellt, bevor die Hardwareentwickler den ersten Grafikchip entworfen hatten.

Ein Betriebssystem fehlte jedoch noch. Carl Sassenrath erhielt die Aufgabe, ein echtes Multitasking-System zu entwickeln, aus dem schließlich „Exec“ entstand. Er erinnerte sich: „Ich wurde als Betriebssystemingenieur eingestellt. Beim Vorstellungsgespräch sagte Bob Pariseau, ich könne das so machen, wie ich wollte. Also sagte ich: Schön! Ich möchte ein multitaskingfähiges System entwickeln.

Jay Miner strebte einen Computer an, der dem späteren Amiga 2000 ähnelte und dem Anwender umfangreiche Ausbaumöglichkeiten bot. Die grafischen Fähigkeiten sollten ebenfalls fortschrittlich sein. Miner begann, sich mit den Aufgaben eines Blitters zu beschäftigen – ein Begriff, der für „Block Image Transfer“ steht und in der Computerwelt seit den frühen Modellen der Firma Xerox bekannt war. Der Blitter sollte Daten innerhalb des RAM schnell bewegen oder modifizieren, ohne den Hauptprozessor zu beanspruchen.

Lorraine

Miner kontaktierte seinen Freund Ron Nicholson, der Interesse an dieser Aufgabe zeigte und sich dem Team anschloss. Während einiger Brainstorming-Sitzungen wurden weitere Funktionen für den Blitter und andere Chips diskutiert. Dale Luck bat beispielsweise um eine „Line Drawing“-Funktion, die zuvor nicht vorgesehen war. Obwohl Miner zunächst keine Zeit dafür hatte, implementierte er die Funktion schließlich doch noch vor der bevorstehenden CES.

Insgesamt benötigte das Team zwei Jahre, um die Custom-Chips des Amiga zu entwerfen, während die Softwareabteilung an den Amiga-Libraries und den Grundfunktionen arbeitete. Da die Hardware größtenteils nur als Steckplatinen existierte, war eine präzise Beschreibung der Funktionen entscheidend. Die Ingenieure mussten genaue Registereinträge mitteilen, damit der Programmcode korrekt auf die Hardware zugreifen konnte.

Der erste Prototyp sah weit weniger imposant aus als der endgültige Amiga 1000. Das System bestand aus zahlreichen Steckplatinen, die die Custom-Chips simulierten und mit vielen Kabeln verbunden waren. Allein der Agnus-Chip bestand aus 24 Steckplatinen mit jeweils bis zu 250 Chips. Auch Paula und Denise benötigten ähnlichen Platz und trugen damals noch die Namen Daphne und Portia. Je mehr Platinen hinzugefügt wurden, desto schwieriger wurde die Gewährleistung der Funktionssicherheit.

Um Industriespionage zu vermeiden, entwickelte Amiga Inc. Peripheriegeräte für bestehende Computer und Konsolen, wie das Joyboard. Für die Konkurrenz sah Amiga Inc. wie ein gewöhnlicher Dritthersteller aus, der Joysticks produzierte, und war daher nicht weiter interessant. Ein Überbleibsel dieser Zeit ist die „Guru Meditation“, eine Fehlermeldung des Amiga-Systems. Das Joyboard war ein Joystick, auf dem der Spieler stehen konnte, um einen Cursor zu steuern. Wenn Programmierer an der Beseitigung von Bugs arbeiteten, setzten sie sich mit gekreuzten Beinen auf das Joyboard, was an einen meditierenden Guru erinnerte. Carl Sassenrath bemerkte später: „Das war unsere Antwort auf die Macintosh-Fehlermeldungen.

Intern begann man mit der Entwicklung eines Mainboards, das die Customchip-Steckplatinen aufnehmen konnte. Jay Miner nahm diese frühe Entwicklungsstudie mitsamt einiger Demoprogramme mit auf die CES-Messe im Januar 1984. Vor ausgesuchtem Fachpublikum, darunter Mitarbeiter von Sony, Philips, Hewlett Packard und Apple, führte er seine Maschine vor. Um die Leistungsfähigkeit zu demonstrieren, entwickelten die mitgereisten Amiga-Mitarbeiter auf der Messe die berühmte „Bouncing Ball“-Demo. Diese zeigte einen springenden Ball, dessen Aufprallgeräusch von Bob Parasseau aufgenommen und per Apple II digitalisiert wurde.

Trotz des beeindruckenden Auftritts auf der CES blieb der erhoffte Geldsegen aus. Amiga Inc. sah sich gezwungen, Hypotheken aufzunehmen, um die Gehälter der rund 20 Mitarbeiter zu bezahlen. Jay Miner belastete sogar sein eigenes Haus mit einer Hypothek. In dieser prekären Situation wandte er sich an seinen ehemaligen Arbeitgeber Atari, der mittlerweile von Jack Tramiel geführt wurde.

Er wandte sich an seinen alten Arbeitgeber Atari, angeführt durch Jack Tramiel, einem gewieften Manager, der auch schmutzige Tricks anwandte, wenn seine Position dadurch gebessert wurde. Dieser musste zuvor Commodore, eine Firma, die er selbst gegründet hatte, verlassen und sah mit dem Aufkauf von Atari die Chance seinem alten Unternehmen die Stirn zu bieten. Tramiel und sein Unternehmen gewährten Jay einen Kredit über 500.000 $, die allerdings an eine Klausel gebunden war. Jack Tramiel selbst hatte über den neuen Amiga Computer erfahren und war seinerseits daran interessiert diesen seinem Unternehmen einzuverleiben. Eine Klausel besagte allerdings, dass beide Firmen innerhalb eines Monats einen Vertrag abschließen müssten. Sollte keine Einigung erzielt werden, wäre Amiga verpflichtet, die Summe sofort zurückzuzahlen.

Jack Tramiel bot daraufhin an, Amiga für einen Dollar pro Aktie zu kaufen. Als Amiga dies ablehnte, senkte Tramiel sein Angebot auf 85 Cent pro Aktie. In letzter Minute erfuhr Commodore von der Situation und bot 4,25 US-Dollar pro Aktie. Commodore übernahm Amiga Inc. für insgesamt 24 Millionen US-Dollar. Jay Miner äußerte später: „Es war mein größtes Bedauern, dass wir nicht von Anfang an IBM ins Visier genommen haben. IBM war damals im PC-Markt sehr verwundbar.“

Jack Tramiel war außer sich – er sah sich um die Chance gebracht, einen neuen Computer präsentieren zu können, der Commodore sicher Schwierigkeiten bereitet hätte. Sein altes Unternehmen, Commodore, hatte jedoch erkannt, dass es etwas bekommen hatte, das mehr wert war als die reinen Chipsätze: Sie hatten die Entwickler selbst gewonnen, die den Amiga auch in Zukunft vorantreiben konnten. Zwar verfügten auch Commodores eigene Ingenieure über großes Know-how, aber das Amiga-Team war eingespielt und stand geschlossen hinter seinem Anführer Jay Miner. Deshalb unterstellte man Jay und sein Team keiner bestehenden Abteilung, sondern ließ sie zunächst weiterarbeiten wie zuvor.

Doch der Einfluss des neuen Eigentümers war unübersehbar. Jay Miner hatte zwar immer noch die Kontrolle über die technische Entwicklung, aber der Vorstand begann allmählich, eigene Vorstellungen einzubringen. Zunächst war es eine kleine Designänderung: Der Commodore-Präsident wollte das Keyboard in das Gehäuse einschiebbar haben, um Platz auf dem Tisch zu sparen. Für sich genommen eine Kleinigkeit, doch diese Änderung erforderte eine komplette Neugestaltung des Mainboards, was die Markteinführung um volle zwölf Monate verzögerte.

Als diese Hürde genommen war, verlangte Commodore, dass der Amiga nicht mehr als 256 KByte Speicher benötigte. Grund dafür waren die hohen RAM-Preise Anfang der 1980er-Jahre. Jay Miner widersprach entschieden: „Ich habe immer gesagt, dass Speicher billig ist – wenn auch nicht unbedingt im Preis, so doch im Verhältnis zur Leistungsfähigkeit des Systems“, erinnerte sich Dave Needle später. Jay wusste, dass die geplante Grafikleistung diesen Speicherplatz benötigte, und „erfand“ immer neue Probleme, die eine Reduzierung unpraktikabel machen würden.

Dieses Problem kannte Jay bereits: Schon beim Atari 2600-Nachfolger, als der Videospielmarkt zusammengebrochen war, wollten Investoren den Rechner mit nur 64 KByte ausstatten. Jay konnte damals wenigstens 128 KByte durchsetzen und die Hardware so gestalten, dass der Speicher später aufgerüstet werden konnte. Nun stand er erneut vor diesem Streitpunkt. Dave Needle hatte schließlich die Idee, einen Erweiterungsport in den Amiga 1000 zu integrieren, der Speichermodule aufnehmen konnte. Needle erklärte später: „Jay war strikt dagegen, aber ich wusste, dass wir so wenigstens den Speicher später ausbauen konnten.“

Jay Miner glaubte, das Thema sei mit einem Machtwort geklärt, nahm sich eine Auszeit und war sich sicher, dass keine Änderungen mehr kommen würden. Doch während seines Urlaubs reichte Dave Needle seinen Vorschlag an den Vorstand weiter – und Commodore akzeptierte ihn. Als Jay zurückkehrte, stand er fassungslos vor der Entscheidung, die ihm monatelange Mehrarbeit bescherte. „Wir haben damit wieder sechs Monate verloren, und als es fertig war, waren die RAM-Preise längst gefallen – ironischerweise hätte der ursprüngliche Speicher gar nicht so viel gekostet“, erinnerte sich RJ Mical.

Auch RJ Mical selbst war in dieser Zeit selten im Büro zu sehen. „Ich habe einfach gearbeitet, Tag und Nacht, um die Benutzeroberfläche fertigzustellen“, erzählte er später. Jay gab ihm freie Hand, und so entwickelte Mical fast im Alleingang das grafische Betriebssystem-Interface.

Der Amiga war schließlich fertig. Jay und sein Team mussten zwar mit einigen Kompromissen leben, aber das war immer noch besser, als wenn Atari den Amiga in seine Einzelteile zerpflückt hätte. Die größte Kontroverse blieb die RAM-Größe: Auch die Softwareabteilung kämpfte für 512 KByte, doch der Vorstand ließ sich nicht mehr umstimmen. Der Erweiterungssteckplatz war ebenfalls heftig umkämpft – ursprünglich sollte er oben auf dem Gehäuse liegen, um Erweiterungen wie bei Apple platzieren zu können. Aus Kostengründen einigte man sich schließlich auf seitliche Erweiterungen.

Amiga 1000Der Amiga 1000 wurde trotz allem ein Traumcomputer. Bei der Premiere in New York, gemeinsam mit Debbie Harry (Blondie) und Andy Warhol, zeigte das System eindrucksvoll seine Fähigkeiten. Das ursprüngliche Amiga-Team wusste, dass es nun entscheidend war, Entwickler und Händler direkt zu unterstützen, damit das System weiterwachsen konnte. Commodore jedoch hielt daran fest, wichtige Erweiterungen selbst zu entwickeln und den Großteil der Gewinne einzustreichen. Daher verbot das Management eine Erweiterung des Teams und begann sogar, Personal abzuziehen.

Jay Miner versuchte noch, Commodore zu überzeugen, dass der Amiga 1000 nicht das Ende sein dürfe und eine Version mit senkrechten Steckplätzen ein professionelleres System ergeben würde. Doch Commodore hatte angesichts der geringen Verkaufszahlen wenig Interesse. „Der Amiga war einfach zu teuer und wurde falsch vermarktet“, sagte RJ Mical. Commodore hatte das System, das aus der Videospielwelt stammte, als Businesscomputer vermarkten wollen – ein fataler Fehler, denn der Amiga war in erster Linie ein Multimedia-Computer.

Nicht nur strategische Fehler von Commodore machten die Situation schwer. Auch der Vorstand störte sich zunehmend an den exzentrischen Eigenheiten der Entwickler. „Es war nicht mehr wie früher – immer mehr Einschränkungen, immer weniger Freiheit“, erinnerte sich Dale Luck. Die Hippie-Ära des Amiga-Teams war endgültig vorbei.

Allerdings erkannte Commodore schon bald, dass der Amiga in seiner damaligen Form keine Chance auf dem Markt hatte, und begann in zwei Abteilungen parallel an einer Low-Cost- und einer High-End-Maschine zu arbeiten. Jay Miner war begeistert von der Richtung, die man nun mit dem Amiga 2000 einschlug. Endlich war es möglich, den Computer nach seinen eigenen Vorstellungen zu erweitern – eine Philosophie, die schon dem Apple II zum Erfolg verholfen hatte. Jay entwickelte zusätzlich ein automatisches Konfigurationssystem für die Steckplätze, das den Einsatz von Treiberdateien überflüssig machen sollte. Doch wie schon bei vielen seiner Ideen zuvor war der Vorstand wenig begeistert, weil dies die Herstellungskosten um 50 Cent pro Gerät erhöht hätte. Jay Miner hatte jedoch einen wichtigen Verbündeten: Rick Geiger, den Abteilungsleiter, der stets zwischen Jay und dem Vorstand vermittelte. Geiger schirmte Jay und sein Team vor vielen Forderungen der Unternehmensführung ab.

Allerdings musste Jay auch Zugeständnisse machen und Elemente einbauen, die Commodore verlangte. Dazu gehörte auch die angestrebte MS-DOS-Kompatibilität, die Geiger versprochen hatte, ohne sie wirklich umsetzen zu können. Jay war nie ein Freund dieser Idee. Wie er selbst einmal sagte: „Ich wollte keinen Clone bauen. Ich wollte, dass der Amiga besser ist.“ Er betonte immer wieder, dass der Amiga als eigenständiger und überlegener Computer konzipiert war – allein schon durch sein fortschrittliches Betriebssystem, das deutlich benutzerfreundlicher war als MS-DOS. Schließlich erschien mit dem Sidecar eine externe Hardwarelösung für PC-Kompatibilität – jedoch ohne Jays Beteiligung. Diese stellte sich als interessanter Ansatz heraus, war aber fehleranfällig und wenig erfolgreich.

Weitaus problematischer war, dass die lange Entwicklungsphase das Interesse von Drittanbietern schwächte. Der Amiga war zu teuer, wenige konnten ihn sich leisten, und viele angekündigte Zusatzgeräte ließen auf sich warten. Entwickler begannen sich anderweitig zu orientieren und wandten sich zunehmend PCs und Apple-Rechnern zu – ein herber Rückschlag für Jays Traum. Commodore verlor die Geduld und forderte die Entwickler auf, in ein neues Entwicklungsbüro an der Ostküste zu wechseln. Die Mannschaft lehnte dies ab, was nicht verwunderlich war: Kalifornien war das Herz der digitalen Innovation, hier standen die Fertigungsstätten, hier konnte man mit den neuesten Techniken arbeiten. Schließlich löste Commodore das gesamte Amiga-Entwicklungsteam in Los Gatos auf. Jay Miner konnte es nicht fassen, dass ein so gut eingespieltes Team auseinandergerissen wurde. Die Geburtsstätte des Amigas war Geschichte. Zwar erhielten alle weiterhin Verträge, aber nur noch als Berater – und auch das nur befristet.

Zusätzlich trug die verfehlte Werbung nicht zum Erfolg des Amigas bei; stattdessen übernahm der PC immer stärker die weltweite Führung. Jay Miner fühlte sich wie ein Vater, dessen Kind nicht den erhofften Weg gehen konnte. „Ich habe immer an das geglaubt, was wir da geschaffen haben“, erinnerte sich RJ Mical später. „Jay war das Herz des Projekts – er hat nie aufgehört, für seine Vision zu kämpfen.

Als die Produktion des Amiga 500 und Amiga 2000 anlief, entwickelte Jay weitere Chips für die Amiga-Reihe, um deren Fähigkeiten zu erweitern. Grundlegende Ideen davon wurden im sogenannten „erweiterten Chipsatz“ (ECS) umgesetzt, der später im Amiga 500+ und Amiga 3000 Verwendung fand. Doch Jay wurde immer unzufriedener mit den vertraglichen Bedingungen und dem zunehmenden Druck von Commodore. Das Unternehmen entfernte sich immer weiter von seiner ursprünglichen Philosophie – Jay erkannte, dass Commodore nun nur noch den Profit im Blick hatte, nicht den Geist der Maschine. Wie Jay einmal sagte: „Commodore hat uns vor Atari gerettet, aber sie sind mit der Zeit genau wie Atari geworden.

Schließlich zog er 1989 die Konsequenzen und wechselte zu Ventitrex, einem biotechnologischen Unternehmen in Sunnyvale, wo er an einem Defibrillator arbeitete. Das sollte das letzte Gerät sein, das Jay Miner entwickelte – seine Nieren begannen immer schlechter zu arbeiten. 1990 spendete ihm seine Schwester Joyce Beers eine Niere, die ihm noch vier weitere Jahre schenkte.

Auch in dieser Zeit blieb Jay dem Amiga eng verbunden. Er besuchte Messen, sprach offen seine Meinung und scheute nicht davor zurück, Missstände anzusprechen. Beispielsweise kritisierte er den Einbau einer IDE-Festplatte im Amiga 4000 als Rückschritt gegenüber der zuvor eingesetzten SCSI-Technologie. „Die Soundfähigkeiten sind seit Jahren gleich geblieben – das hätte ich gern verbessert gesehen“, sagte Jay einmal.

Wer Jay Miner kannte, wusste, dass er sich leidenschaftlich für seine Visionen einsetzte. Er war immer offen für Fragen und inspirierte viele. Doch am 20. Juni 1994 versagten seine Nieren endgültig – der Vater des Amiga-Computers fand seine letzte Ruhe. Nur wenige Entwickler haben ein so großes Vermächtnis hinterlassen. RJ Mical erinnerte sich später: „Jay war ein leiser Revolutionär – jemand, der immer das Beste wollte, selbst wenn es unbequem war.

 

 

 

Lucas Nascom 1

Lucas Nascom 1

Lucas Nascom 1Der Lucas Nascom 1 war ein britischer Einplatinen-Computerbausatz, der im November 1977 eingeführt wurde. Die grundsätzliche Entwicklungs-Idee kam ursprünglich von einer US-amerikanischen Firma namens Nasco, die jedoch speziell an den englischen Markt dachte, als sie mit John Marshall und Kerr Borland von Nascom Microcomputers kooperierte. Entwickelt wurde er schließlich von Chris Shelton, dessen Ziel es war, einen erschwinglichen Computer für Elektronikbegeisterte zu schaffen. Mit einem Preis von £197,50 (inflationsbereinigt etwa 1.590 € im Jahr 2025) war der Nascom 1 deutlich günstiger als zeitgenössische Modelle wie der Commodore PET oder der Apple II. Das Herzstück des Nascom 1 war ein Zilog Z80-Prozessor mit einer Taktfrequenz von 1 oder 2 MHz. Der Computer verfügte über 2 KB RAM, von denen 1 KB für den Videospeicher reserviert war, und 1 KB ROM, das das Monitorprogramm NAS-BUG enthielt. Die Textanzeige ermöglichte 48 Zeichen pro Zeile in 16 Zeilen (48×16), wobei keine Grafik- oder Farbdarstellung unterstützt wurde.

Der Nascom 1 wurde als Bausatz geliefert, der etwa 1.310 Lötstellen umfasste. Trotz des Aufwands war er bei Hobbyisten beliebt, da er eine vollständige QWERTY-Tastatur und eine Videoausgabe bot—Features, die bei vergleichbaren Kits selten waren. Daten konnten über eine serielle Schnittstelle nach dem Kansas City Standard auf Kassetten gespeichert werden. Zudem verfügte der Nascom 1 über zwei 8-Bit-Parallelschnittstellen und konnte mit zusätzlichen Hardwarekomponenten wie Floppy-Disk-Laufwerken und Soundkarten erweitert werden. In den ersten 18 Monaten nach der Markteinführung wurden über 12.000 Einheiten verkauft. Bis Mai 1980 stieg die Zahl auf über 35.000 verkaufte Nascom 1 und Nascom 2 Systeme, was ihn zu einem der erfolgreichsten Selbstbaucomputer seiner Zeit machte.

Der Nascom 1 bot eine Vielzahl von Erweiterungsmöglichkeiten. Neben der Unterstützung für Programmiersprachen wie BASIC, Pascal, C und Forth konnten Benutzer auch zusätzliche Hardware wie Speichererweiterungen und Peripheriegeräte anschließen. Dies machte den Nascom 1 zu einer flexiblen Plattform für verschiedene Anwendungen, von der Textverarbeitung bis hin zu Spielen. Trotz seiner Vorteile hatte der Nascom 1 auch einige Nachteile. Der Zusammenbau des Bausatzes erforderte technisches Know-how, und es waren zusätzliche Komponenten wie ein Netzteil und ein Gehäuse erforderlich, die separat erworben werden mussten. Zudem war der Computer standardmäßig nicht mit einem Soundchip ausgestattet; Audiofunktionen konnten nur durch zusätzliche Hardware realisiert werden. Im Vergleich zu Konkurrenten wie dem Commodore PET oder dem Apple II war der Nascom 1 zwar günstiger, bot jedoch keine integrierte Lösung mit Gehäuse, Netzteil und Monitor. Dennoch war er aufgrund seiner Erweiterbarkeit und der aktiven Community eine beliebte Wahl für Technikenthusiasten. Sein Einfluss auf die Entwicklung von Personal Computern in Großbritannien ist unbestritten, und er bleibt ein faszinierendes Beispiel für die Innovationskraft der frühen Computerpioniere.

Krakout – 1987 by Gremlin Graphics

Krakout - 1987 by Gremlin Graphics

„Krakout“, veröffentlicht 1987 von Gremlin Graphics, ist ein bemerkenswerter Vertreter des Breakout-Genres, der durch seine horizontale Ausrichtung und innovative Spielmechaniken auffällt. Entwickelt wurde das Spiel von Andy Green und Rob Toone, mit Grafiken von Terry Lloyd und Musik von Ben Daglish. Daglish, bekannt für seine Arbeiten an Titeln wie „The Last Ninja“ und „Deflektor“, trug maßgeblich zur Atmosphäre des Spiels bei. Er war Teil des Duos W.E.M.U.S.I.C. („We Make Use of Sound in Computers“) und arbeitete eng mit Tony Crowther zusammen.

Im Gegensatz zu traditionellen Breakout-Spielen, bei denen der Schläger am unteren Bildschirmrand positioniert ist, erlaubt „Krakout“ dem Spieler, den Schläger entweder auf der linken oder rechten Seite zu platzieren. Diese horizontale Ausrichtung verleiht dem Spiel eine neue Dynamik. Der Spieler steuert den Schläger, um einen Ball zu lenken, der Blöcke zerstört. Einzigartig ist, dass Power-Ups in Form von Buchstaben erscheinen, wenn bestimmte Blöcke getroffen werden. Diese Power-Ups bleiben stationär und müssen erneut mit dem Ball getroffen werden, um aktiviert zu werden. Zu den Power-Ups gehören unter anderem „E“ für einen verlängerten Schläger, „C“ für das Einfangen des Balls und „M“ für Raketen. Ein besonderes Feature ist das „Shield“-Power-Up, das eine Barriere hinter dem Schläger erzeugt, um den Ball im Spiel zu halten.

Das Spiel umfasst 100 Level, nach deren Abschluss es wieder bei Level 1 beginnt, ohne einen speziellen Endgegner. Einige Kritiker bemängelten das Fehlen eines abschließenden Bosskampfes. So schrieb ein Rezensent: „Gremlin Graphics hätte die Anzahl der Level um 20 reduzieren und stattdessen einen mehrphasigen Bosskampf hinzufügen sollen.

„Krakout“ wurde für mehrere Plattformen veröffentlicht, darunter Commodore 64, ZX Spectrum, Amstrad CPC, BBC Micro, MSX und Thomson. Die Verkaufszahlen sind nicht exakt dokumentiert, aber das Spiel war kommerziell erfolgreich und wurde in verschiedenen Kompilationen wie „10 Great Games“ aufgenommen. Die Kritiken zum Spiel waren gemischt. Das Magazin „Computer Gamer“ bewertete „Krakout“ mit 85 von 100 Punkten und lobte die innovative Ausrichtung. Im Gegensatz dazu kritisierte das Magazin „CRASH“ das Fehlen von In-Game-Musik und die hohe Schwierigkeit, was zu einer Bewertung von 46 % führte.

Dig Dug – 1982 by Namco

Dig Dug - 1982 by Namco

„Dig Dug“, veröffentlicht 1982 von Namco, zählt zu den Ikonen der goldenen Ära der Videospiele und hat sich mit seinem einzigartigen Spielkonzept, seinen charmanten Charakteren und einer überraschenden Tiefe weltweit in das Gedächtnis der Spieler eingebrannt. Die Entwicklung begann 1981, als Masahisa Ikegami gemeinsam mit Shigeru Yokoyama, bekannt als Schöpfer von „Galaga“, an dem Projekt arbeitete. Die Programmierung lag in den Händen von Shouichi Fukatani und Toshio Sakai, während Yuriko Keino für die Musik verantwortlich zeichnete. Sie entschied sich für eine eingängige Melodie, da realistische Schrittgeräusche technisch schwer umsetzbar waren, wie sie später in einem Interview sagte: „Ich wollte, dass sich die Bewegung lebendig anfühlt, ohne dass es aufgesetzt wirkt.“ Für die visuellen Aspekte war Hiroshi „Mr. Dotman“ Ono zuständig, ein Pionier der Pixelkunst, der das farbenfrohe und unverwechselbare Design von „Dig Dug“ prägte.

Im Spiel steuert der Spieler Taizo Hori, einen unterirdischen Tunnelgräber, der sich mit seiner Luftpumpe gegen zwei Arten von Gegnern behaupten muss: die kugelrunden Pookas und die feuerspeienden Fygars. Sie können entweder zum Platzen gebracht oder durch herabfallende Felsen zerquetscht werden, während man sich unterirdisch durch das Erdreich gräbt. Der Name des Protagonisten, Taizo Hori, ist ein Wortspiel: „Horitai zo“ bedeutet auf Japanisch „Ich will graben!“, was die Motivation des Helden charmant auf den Punkt bringt. Taizo Hori ist zudem der Vater von Susumu Hori, dem Protagonisten der „Mr. Driller“-Serie, was „Dig Dug“ auch mit diesem Franchise verbindet.

Das Spiel war ein kommerzieller Erfolg sondergleichen: In den USA wurden noch im selben Jahr über 22.000 Arcade-Automaten verkauft, was Einnahmen von rund 46,3 Millionen US-Dollar einbrachte. Weltweit lag der Umsatz 1982 bei schätzungsweise 520 Millionen US-Dollar. In Japan belegte „Dig Dug“ Platz zwei in den Arcade-Charts, direkt hinter „Pole Position“. Namco selbst beschrieb das Spiel in zeitgenössischen Pressemitteilungen als „eine neue Dimension der Action-Strategie“ und lobte die „spielerische Tiefe trotz einfacher Steuerung“.

In der münzbetriebenen Arcade-Version endet das Spiel in Runde 256, die als „Runde 0“ angezeigt wird. Hier wird ein Pooka direkt auf der Startposition des Spielers platziert, was ein sofortiges Scheitern unausweichlich macht. Dieses Level ist berühmt geworden als ein Paradebeispiel für einen „Kill Screen“ – ein Abschnitt, der durch einen Programmierfehler entstanden ist und den Spielfortschritt abrupt beendet.
Auch wenn „Dig Dug“ in vielen Heimversionen portiert wurde, unter anderem für Atari 2600, Commodore 64 und Apple II, blieb das Arcade-Original das Maß aller Dinge. 1985 erschien „Dig Dug II“, das allerdings nicht an den kommerziellen Erfolg des Vorgängers anknüpfen konnte. Immer wieder wurde „Dig Dug“ in Spielesammlungen wiederveröffentlicht, zuletzt auf modernen Plattformen wie der Nintendo Switch. Der höchste jemals offiziell verzeichnete Highscore stammt von Donald Hayes, der am 8. April 2017 die beachtliche Marke von 5.429.010 Punkten erreichte.

Im Rückblick bleibt „Dig Dug“ nicht nur ein herausragendes Beispiel für die Kreativität und Innovationsfreude der frühen 80er, sondern auch ein Symbol für die Faszination, die Arcade-Spiele bis heute ausüben. Oder wie Designer Shigeru Yokoyama einmal sagte: „Es geht nicht nur darum, Punkte zu sammeln. Es geht darum, eine Geschichte unter der Erde zu erzählen, in der jeder Zug zählt.“. Mit 8 Jahren habe ich mich aber auch nicht gefragt, warum ich mittels Luftpumpe aufblasen und platzen lassen sollte. Wir haben es einfach gemacht, oder nicht?

Fujitsu FM-7

Fujitsu FM-7

Fujitsu FM-7Der Fujitsu FM-7, auch bekannt als „Fujitsu Micro 7“, wurde im November 1982 als kostengünstiger Heimcomputer eingeführt und war eine vereinfachte Version des FM-8. Trotz seiner Positionierung als Einsteigermodell übertraf er seinen Vorgänger in mehreren technischen Aspekten. Während der Entwicklungsphase des FM-7 wurde das Gerät intern als „FM-8 Jr.“ bezeichnet. Es wurden mehrere Prototypen getestet, um die Hardware zu optimieren und die Produktionskosten zu senken. Diese Prototypen führten schließlich zur finalen Version des FM-7, die sich durch ihre Dual-CPU-Architektur und den AY-3-8910 Soundchip auszeichnete.

Ausgestattet mit zwei MBL 68B09 Prozessoren, die jeweils mit 2 MHz betrieben wurden, übernahm einer die Hauptverarbeitung, während der andere für Grafik- und I/O-Aufgaben zuständig war. Diese Dual-CPU-Architektur ermöglichte eine effiziente Aufgabenverteilung und verbesserte die Gesamtleistung des Systems. Der FM-7 verfügte über 64 KB RAM, 48 KB VRAM und 48 KB ROM. Die Grafikauflösung betrug 640×200 Pixel mit der Fähigkeit, 8 Farben gleichzeitig darzustellen. Für den Klang sorgte der AY-3-8910 Soundchip, der drei Kanäle für die Tonerzeugung bot. Spätere Modelle, wie der FM77AV, integrierten den fortschrittlicheren Yamaha YM2203 Soundchip, der zusätzliche FM-Synthese-Funktionen bereitstellte.

Der FM-7 wurde mit verschiedenen Betriebssystemen ausgeliefert, darunter Fujitsu Disk BASIC, OS-9 und FLEX. Diese Vielfalt ermöglichte es den Nutzern, das System an ihre spezifischen Anforderungen anzupassen. Als Speichermedien kamen Kassetten und 5,25-Zoll-Disketten zum Einsatz. Das Gerät bot Schnittstellen wie RS-232, Centronics, RGB-Videoausgang und drei Erweiterungsslots, die beispielsweise für eine optionale Z80-CPU-Karte genutzt werden konnten.

Mit einem Einführungspreis von 126.000 Yen war der FM-7 deutlich günstiger als der FM-8, der 218.000 Yen kostete. Inflationsbereinigt entspricht dies etwa 1.000 Euro im Jahr 2025. Diese Preisgestaltung trug maßgeblich zur Popularität des FM-7 bei, insbesondere unter Computerenthusiasten in Japan. Insgesamt wurden rund 220.000 Einheiten des FM-7 verkauft.
Der FM-7 konkurrierte hauptsächlich mit dem NEC PC-8801 und dem Sharp X1. Obwohl er in einigen technischen Aspekten unterlegen war, überzeugte er durch sein gutes Preis-Leistungs-Verhältnis und seine Erweiterbarkeit. Im Vergleich zum FM-8 bot der FM-7 eine verbesserte Klangqualität und eine effizientere Architektur, während er gleichzeitig kostengünstiger war.
Die Entwicklung des FM-7 wurde von einem Team unter der Leitung von Fujitsu-Ingenieuren durchgeführt, die zuvor am FM-8 gearbeitet hatten. Ihr Ziel war es, einen erschwinglichen Heimcomputer zu schaffen, der dennoch leistungsfähig genug für verschiedene Anwendungen war. Der FM-7 wurde auch in Spanien unter dem Namen Secoinsa FM-7 verkauft und fand dort insbesondere im Bildungsbereich Anwendung.

Der Fujitsu FM-7 war ein bedeutender Heimcomputer in Japan und diente als Plattform für viele aufstrebende Entwickler. Ein herausragendes Beispiel ist Hironobu Sakaguchi, der später als Schöpfer der „Final Fantasy“-Reihe Berühmtheit erlangte. Seine Karriere begann mit der Entwicklung von Textadventures wie „The Death Trap“ (1984) und dessen Nachfolger „Will: The Death Trap II“ (1985) für den FM-7. Diese frühen Werke legten den Grundstein für seine spätere Erfolgsgeschichte bei Square.

iFeel MouseMan

iFeel MouseMan

iFeel MouseManIst denn schon ein Vierteljahrhundert vergangen? Im Jahr 2000 stellte nämlich Logitech die iFeel MouseMan vor und bot damit eine der ersten Computer-Mäuse, die haptisches Feedback integrierten. Er wurde im Herbst 2000 vorgestellt und kombinierte optische Präzision mit der Fähigkeit, taktile Rückmeldungen zu geben. Diese Innovation basierte auf der TouchSense-Technologie von Immersion Corp., die es ermöglichte, physische Empfindungen wie Vibrationen zu erzeugen, wenn der Mauszeiger über bestimmte Bildschirmobjekte bewegt wurde. Ziel war es, die Benutzererfahrung durch den zusätzlichen Sinneseindruck des Tastsinns zu bereichern.

Der iFeel MouseMan verfügte über einen USB-Anschluss, drei Tasten und ein Scrollrad. Sein Design war ergonomisch gestaltet, um sowohl Komfort als auch Funktionalität zu bieten. Die Maus nutzte einen optischen Sensor mit einer Auflösung von 800 dpi, was für die damalige Zeit eine hohe Präzision bedeutete. Die Integration des haptischen Feedbacks wurde durch einen kleinen Motor realisiert, der Vibrationen erzeugte, um verschiedene Texturen oder Aktionen zu simulieren.

Die Einführung des iFeel MouseMan wurde von Logitech als bedeutender Schritt in der Entwicklung von Benutzerschnittstellen angesehen. Wolfgang Hausen, Senior Vice President bei Logitech, betonte die Bedeutung des Tastsinns in der Computerinteraktion: "In der realen Welt verlassen wir uns stark auf unseren Tastsinn, um uns zu orientieren und zu führen. Warum sollten wir ihn nicht nutzen, um unser Computererlebnis zu verbessern?"

Der Preis für den iFeel MouseMan lag bei seiner Einführung bei 129 DM. Inflationsbereinigt entspricht dies im Jahr 2025 etwa 100 Euro. Eine günstigere Variante, die iFeel Mouse, war für 89 DM erhältlich, was heute rund 70 Euro entspricht.

In der Praxis zeigte sich, dass die haptischen Effekte besonders in Spielen zur Geltung kamen. Spiele wie Half-Life, Soldier of Fortune und Star Trek Voyager: Elite Force unterstützten die iFeel-Technologie, wodurch Explosionen, Schüsse oder andere Aktionen durch Vibrationen spürbar wurden. Allerdings war die Anzahl der Spiele, die diese Funktion unterstützten, begrenzt, und die Integration war oft nur durch spezielle Patches möglich.

Trotz des innovativen Ansatzes konnte sich der iFeel MouseMan nicht dauerhaft am Markt etablieren. Die begrenzte Softwareunterstützung und die zusätzlichen Kosten führten dazu, dass die Technologie nicht weit verbreitet wurde. Heute sind Mäuse mit haptischem Feedback selten, und der iFeel MouseMan gilt als Kuriosität in der Geschichte der Computerperipherie. Dennoch bleibt er ein interessantes Beispiel für den Versuch, die Computerinteraktion um den Tastsinn zu erweitern.

Competition Pro

Competition Pro

Joystick Competition PRO

Von MOS6502 - Eigenes Werk.

Der Competition Pro ist eines der bekanntesten Eingabegeräte der Heimcomputer-Ära und wurde zu einem Synonym für robuste, präzise Steuerung in den 1980er- und frühen 1990er-Jahren. Ursprünglich wurde das Design von der britischen Firma Kempston Micro Electronics entwickelt, einem Unternehmen mit Sitz in Bedfordshire, das in den frühen 1980er-Jahren vor allem durch Hardwareerweiterungen für den Sinclair ZX Spectrum bekannt wurde. Ziel war es, einen Joystick zu schaffen, der sich durch Industriequalität, Langlebigkeit und Präzision von den häufig schwach konstruierten Alternativen wie dem Atari CX40 oder QuickShot II absetzte. Kempston setzte auf langlebige Mikroschaltertechnik, ein massives Gehäuse aus schlagfestem Kunststoff, zwei großzügige Feuerknöpfe und ein ikonisches Design mit langem roten Stick und schwarzem Rundsockel.
Die Technik hinter dem Competition Pro war bemerkenswert einfach und zugleich genial. Jeder der acht Richtungsimpulse wurde über einen eigenen mechanischen Mikroschalter realisiert, was nicht nur ein hörbares Klicken beim Auslösen erzeugte, sondern auch für unmittelbares Feedback und präzise Steuerung sorgte. Die beiden Feuertasten waren intern parallel verschaltet, sodass sie dieselbe Funktion ansprachen – ideal für Links- wie Rechtshänder. Der Joystick war vollständig analoglos, arbeitete rein elektrisch-mechanisch und war kompatibel mit dem 9-poligen Atari-Standardanschluss, was ihn mit nahezu allen Heimcomputern jener Zeit verwendbar machte: Commodore 64, Atari XL/XE, Amstrad CPC (über Adapter), MSX, Amiga und Atari ST.

Die erste große Marktwelle des Competition Pro erfolgte Mitte der 1980er-Jahre, zunächst im Vereinigten Königreich, wo er unter dem Label von Kempston vertrieben wurde. Später erschienen lizenzierte Varianten in anderen Märkten – vor allem in Deutschland, wo Firmen wie Suzo, StarTec oder Logic 3 das Gerät unter gleichem Namen mit kleineren Designänderungen in Massen verkauften. Die Variante mit zusätzlichem Autofeuer war besonders beliebt bei Spielen, die schnelles Schießen erforderten. Der Preis lag in Deutschland bei etwa 40 bis 60 D-Mark, was inflationsbereinigt heute rund 50 bis 80 Euro entspricht. In einem Artikel der Zeitschrift 64’er (Ausgabe 2/1987) wurde er als „Maßstab in Sachen Joystick-Qualität“ bezeichnet. Auch die britische Zeitschrift Crash lobte 1986 seine „unverwüstliche Bauweise“ und „besonders direkte Steuerung für Actionspiele“.

Der Competition Pro war nicht nur erfolgreich, sondern erlangte in der Community Kultstatus. In Foren, Usergruppen und Zeitschriften wurde er regelmäßig gelobt, und noch heute berichten Retro-Gamer von Exemplaren, die nach 30 Jahren noch zuverlässig funktionieren. Seine Robustheit wurde oft in Anekdoten hervorgehoben – etwa beim Power Play-Wettbewerb 1988 in München, bei dem zwei Joysticks bei Hyper Sports kaputtgingen, bevor ein Zuschauer seinen Competition Pro auslieh, mit dem der Teilnehmer prompt das Finale gewann. Viele Spieler nannten ihn „den Panzer unter den Joysticks“. In Großbritannien wurde er in zahlreichen Spielebundles vertrieben – etwa zusammen mit dem Commodore 64 oder Amiga 500 – und avancierte damit zur Standardausstattung ganzer Spielerjahrgänge.

Populäre Spiele, die besonders gut mit dem Competition Pro steuerbar waren, sind Summer Games, International Karate, Giana Sisters, Commando, Turrican, Bubble Bobble, Decathlon, Katakis, Uridium und R-Type. Gerade bei Sport- oder Actionspielen mit schnellem Richtungswechsel und Joystick-Rütteln – sogenanntem „Waggling“ – spielte der Competition Pro seine Qualitäten voll aus. Während andere Modelle unter der Belastung versagten, hielt er stoisch stand.

Der technische Aufbau war so einfach wie effektiv: Keine Chips, keine Platine, nur fünf Mikroschalter, Drahtverbindungen und eine solide Kunststoffkonstruktion. Diese Reduktion auf das Wesentliche ermöglichte einfache Reparaturen – viele Nutzer löteten selbst neue Mikroschalter ein oder wechselten die Feder des Sticks, falls dieser nach Jahren ausleierte. Die Joysticks waren modular genug, um auch für Arcade-Umbauten oder andere DIY-Projekte verwendet zu werden.

In den 2000er-Jahren kehrte der Competition Pro als USB-Version zurück – etwa von Speed-Link als „Competition Pro USB“ – und wurde durch Emulatorfreunde (VICE, FS-UAE, WinUAE) neu entdeckt. Auch moderne FPGA-basierte Retro-Systeme wie der THEC64 oder MiSTer unterstützen ihn über Adapter. Auf Veranstaltungen wie der Gamescom oder der Evoke wird er bis heute verwendet – meist mit einem Lächeln der Nostalgie und Respekt vor seiner Konstruktion.

In einem Rückblick der Zeitschrift Retro Gamer von 2012 hieß es: „Der Competition Pro ist vielleicht das einzige Stück Hardware, das den Spielern überlegen war – nicht umgekehrt.“ Dieser Satz bringt auf den Punkt, warum er bis heute als Ikone der Eingabegeräte gilt. Seine Unverwüstlichkeit, der klare mechanische Anschlag, die ergonomische Bauform und die plattformübergreifende Kompatibilität machten ihn zum wahrscheinlich beliebtesten Joystick Europas – und für viele auch zum besten Joystick aller Zeiten.

Im Laufe seiner Produktionsgeschichte gab es mehrere Revisionen insbesondere bei den Mikroschaltern, Gehäusen und Herstellervarianten. Diese Unterschiede betreffen sowohl die Haptik, Langlebigkeit, als auch die Qualität der Bauteile, und sie sind ein zentrales Thema unter Retro-Sammlern.

Die frühen Competition-Pro-Modelle (Kempston-Design) verwendeten meist hochwertige Mikroschalter von Cherry oder alternativen Industriezulieferern. Diese Schalter zeichneten sich durch ein sehr klares Klicken, eine präzise Auslösung und eine lange Lebensdauer aus – teils über 1 Million Schaltvorgänge. In späteren, günstiger produzierten Varianten (z. B. aus Fernost oder Lizenzproduktionen) wurden oft billigere Nachbauten mit weicherem Klickgefühl verbaut. Diese neigten eher zum „Prellen“ (doppeltes Auslösen) oder zum mechanischen Versagen nach wenigen Monaten intensiver Nutzung.
Es existieren Versionen mit Metallfedern zur Zentrierung sowie solche mit Gummiring-Zentrierung. Die Metallfeder-Versionen galten als langlebiger und knackiger in der Rückstellung, während Gummiringe sich mit der Zeit abnutzten oder porös wurden. Manche Varianten hatten zusätzlich eine Metallplatte als Boden zur Stabilisierung – andere verzichteten darauf, was zu einem weicheren, manchmal schwammigen Gefühl führte.

Während das Grunddesign über Jahrzehnte gleich blieb, unterscheiden sich verschiedene Revisionen durch Details wie:
• Form und Länge des Sticks (z. B. kürzer oder mit Rillen)
• Feuertasten (flache Tasten mit kurzem Weg vs. gewölbte Drucktasten)
• Kabelqualität (gewellt, glatt, abgeschirmt oder ungeschirmt)
• Unterseite (mit oder ohne Saugnäpfe, Gummifüße, Metallplatte)

Hersteller- und Lizenzvarianten:
• Kempston Micro Electronics: Das Ur-Design, robust, meist Made in UK, hoher Qualitätsstandard.
• Suzo International: Wichtiger Lizenznehmer, Produktion u. a. in Deutschland und Asien; hier stammen viele der 80er- und 90er-Versionen.
• StarTec / Logic3 / Quickjoy: Spätere OEM-Fertigungen mit oft geringerer Fertigungsqualität.
• Speed-Link (USB-Version): Seit ca. 2004 in Fernost produziert, mit Mikroschaltern, die nicht mehr Cherry-Qualität erreichen, aber dem Look nachempfunden sind.

Varianten mit Zusatzfunktionen:
Einige Modelle boten Autofeuer-Schalter (manuell zuschaltbar, meist in der Mitte des Sockels), Zweite Feuerknopf-Belegung (manchmal unabhängig schaltbar für Systeme wie Amiga) oder Select/Start-Tasten bei Konsolen-kompatiblen Versionen (besonders bei späteren Retro-Fassungen).

Apple III

Apple III

Apple IIIAls Apple im Mai 1980 den Apple III vorstellte, galt er als ambitioniertes Vorhaben, das den erfolgreichen Apple II beerben und das Unternehmen aus dem Heimcomputersegment in den lukrativeren Markt für Business-Computer führen sollte. Die Erwartungen waren immens, denn Apple hatte sich mit dem Apple II als führender Hersteller in der Bildungs- und Hobbyszene etabliert, doch um Unternehmen wie IBM und DEC herauszufordern, musste ein professionelleres Gerät entstehen – leistungsfähiger, robuster und mit echtem Betriebssystem. Der Apple III wurde somit von Anfang an als Business-Maschine positioniert, mit höherem Arbeitsspeicher, besseren Textdarstellungsfähigkeiten und einem professionelleren Gehäuse. Doch die Realität entwickelte sich anders: Der Apple III wurde später berüchtigt als eines der größten Technikdesaster der frühen Computerindustrie.

Im Kern des Apple III arbeitete ein Synertek 6502A-Prozessor mit 2 MHz, eine leicht übertaktete Variante des bekannten MOS 6502, der auch im Apple II, Commodore PET und später im Commodore 64 zu finden war. Der 6502 war ein 8-Bit-Prozessor mit 16-Bit-Adressraum und einfacher Architektur, die ihn für kostengünstige Systeme attraktiv machte. Er konnte mit sehr wenigen Transistoren arbeiten, was niedrige Produktionskosten und geringeren Stromverbrauch zur Folge hatte. Der 6502 verfügte über drei 8-Bit-Register (A, X, Y), einen 16-Bit-Program Counter, einen Stackpointer und einen Status-Register, was ihn sehr gut für kompakte Maschinenprogrammierung geeignet machte. Für den Apple III jedoch war dieser Prozessor ein Anachronismus: Während IBM für seinen 1981 vorgestellten PC auf einen 16-Bit-Prozessor (den Intel 8088) setzte, verblieb Apple bei 8-Bit-Technik, wenn auch mit cleverer Architektur. Der Apple III konnte über spezielle Speicherbankumschaltung bis zu 512 KB RAM adressieren, weit mehr als der Apple II. Dennoch wurde der Prozessor bald als Engpass empfunden.

Der Startpreis des Apple III betrug bei seiner Vorstellung 4.340 US-Dollar, was inflationsbereinigt im Jahr 2025 etwa 14.700 Euro entspricht. Für diese Summe erhielt man einen Rechner mit 128 KB RAM, eingebautem 5¼-Zoll-Diskettenlaufwerk, monochromem Textbildschirm mit 80×24 Zeichen und dem neuen Betriebssystem SOS – dem Sophisticated Operating System. Die Preise waren deutlich höher als beim Apple II, der zu dieser Zeit je nach Konfiguration zwischen 1.000 und 2.000 Dollar kostete. Apple wollte sich bewusst vom Heimcomputermarkt absetzen, doch das Preis-Leistungs-Verhältnis wurde von vielen Zeitgenossen als ungünstig kritisiert. In der InfoWorld vom Oktober 1981 hieß es: „Apple verlangt einen Premiumpreis für einen Computer, der in vielen Belangen kaum mehr bietet als sein Vorgänger.

Ein zentrales Problem des Apple III war sein Aufbau: Steve Jobs bestand darauf, dass der Rechner keine Lüfter oder Lüftungsschlitze enthalten dürfe – aus ästhetischen Gründen. Dies führte zu massiven Hitzeproblemen. Die Chips überhitzten häufig, der integrierte Diskettencontroller löste sich buchstäblich aus dem Sockel, und das System wurde instabil. Apple musste bereits Ende 1980 die gesamte erste Produktionsreihe zurückrufen. Etwa 14.000 Geräte wurden überarbeitet oder ausgetauscht. Dies führte zu einem enormen Imageverlust. In einem internen Memo bezeichnete ein Apple-Manager das Gerät als „technisch zu früh geboren“. Spätere Revisionen des Apple III (etwa ab 1982, oft informell als „Apple III+“ bezeichnet) verbesserten die Situation durch geänderte Sockel, optionale Lüfter und überarbeitete Platinen Layouts, doch das Vertrauen war bereits verloren.

Als Massenspeicher verwendete der Apple III zunächst ein integriertes 143-KB-Diskettenlaufwerk (Apple Disk III), später auch das externe Apple ProFile-Festplattenlaufwerk mit 5 MB Kapazität – eines der ersten Festplattenlaufwerke im Personal-Computer-Bereich. Die Apple ProFile war allerdings teuer (über 3.000 Dollar) und nur über spezielle Karten ansteuerbar. Der Apple III verfügte über mehrere Erweiterungssteckplätze, einen Centronics-kompatiblen Drucker Port, einen seriellen Port (RS-232) und konnte über ein spezielles Interface auch mit AppleTalk-Netzen verbunden werden. Vorgesehen waren zudem Mausunterstützung, Farbmonitore, SCSI-Controller und externe Laufwerke, doch viele dieser Geräte erschienen verspätet oder gar nicht.

Der Bildschirm des Apple III war standardmäßig monochrom und zeigte 560×192 Pixel, wobei durch besondere Tricks auch Bitmapped-Grafik mit Farbanpassung möglich war – in Farbe war jedoch eine externe Grafikkarte nötig. Die Farbfähigkeiten waren theoretisch vorhanden, aber stark eingeschränkt. Der Rechner konnte maximal 16 Farben anzeigen, allerdings nicht simultan im Hochauflösungsmodus. Da jedoch kaum Programme die Farbmöglichkeiten unterstützten, blieb der Apple III faktisch ein monochromes System. Seine physischen Abmessungen lagen bei etwa 38×45×13 cm mit einem Gewicht von rund 10 kg – für damalige Verhältnisse ein sehr kompakter Businesscomputer. Als Soundchip kam keine dedizierte Lösung zum Einsatz, sondern der interne Speaker wurde direkt über den CPU-Takt gesteuert. Klanglich blieb der Apple III damit auf dem Niveau des Apple II, das heißt: einfache Piepser ohne Mehrstimmigkeit oder Musikfähigkeiten.

Das Betriebssystem SOS, das Apple eigens für den Apple III entwickelte, war der eigentliche technische Höhepunkt des Systems. Es unterstützte Dateien mit Metadaten, ein echtes Device Management, Benutzerverzeichnisse, feste Dateitypen und ein modulares Treibersystem – Konzepte, die später im Macintosh wiederkehren sollten. Die API war objektorientiert und systematisch dokumentiert, was Programmierer sehr schätzten. Leider war die Einstiegshürde hoch, und viele Entwickler scheuten die Umstellung. Außerdem war der Softwaremarkt für den Apple III schwach. Nur rund 200 Programme erschienen, meist Buchhaltungs- und Datenbanksoftware wie VisiCalc III, Apple III Pascal, Profile Pascal, Word Juggler oder Apple III BASIC. Spiele existierten kaum.

Die Hauptentwickler des Apple III waren unter anderem Wendell Sander, ein früher Apple-Ingenieur, der bereits am Apple II beteiligt war und als Hauptarchitekt des Apple III gilt. Sander war bekannt für seine detailverliebte Arbeit an Systembussen und Speicherzugriffen, doch sein technisches Design wurde durch die Designvorgaben von Jobs und durch Zeitdruck eingeschränkt. Auch Jef Raskin, später bekannt durch seine Rolle beim Macintosh-Projekt, war beteiligt, zog sich jedoch bald zurück. Rod Holt, der für die Stromversorgung beim Apple II bekannt war, war ebenfalls involviert, allerdings nicht federführend.
Der Apple III verkaufte sich über die gesamte Laufzeit hinweg nur etwa 65.000-mal – ein Bruchteil der über zwei Millionen verkauften Apple II-Modelle. Im April 1984 stellte Apple die Produktion endgültig ein, nachdem der Macintosh angekündigt worden war. Die meisten Einheiten wurden an US-Firmen verkauft, insbesondere an Universitäten und kleinere Buchhaltungsfirmen. In Europa blieb der Apple III weitgehend unbekannt.
Gegenüber seinem Vorgänger, dem Apple II, bot der Apple III einen professionelleren Gesamteindruck, mehr RAM, eine höhere Auflösung, ein echtes Betriebssystem und integrierte Massenspeicheroptionen. Doch der Preis, die Hitzeprobleme, der Mangel an Software und die geringe Entwicklerunterstützung ließen ihn als Fehlschlag gelten. Gegenüber der IBM-PC-Familie, die ab 1981 den Markt dominierte, fehlte dem Apple III schlicht die Rechenleistung und Standardkompatibilität. Der 8-Bit-Prozessor, das fehlende Betriebssystem-Ökosystem und die hohen Preise machten ihn unattraktiv. Selbst gegenüber dem CP/M-Markt oder frühen MS-DOS-PCs war der Apple III technologisch und wirtschaftlich unterlegen.

Ein Artikel in Byte Magazine von 1982 fasste es trocken zusammen: „Der Apple III ist wie ein Sportwagen, der ständig überhitzt, nicht richtig startet und nur auf bestimmten Straßen fahren kann. Schön, aber unpraktisch.“ Heute gilt der Apple III als Lehrstück in der Technikgeschichte – ein ambitioniertes Projekt, das an Designidealen, Zeitdruck und Marktverkennung scheiterte. Gleichzeitig bereitete es mit SOS und seiner Architektur den Boden für die Entwicklung des Macintosh, der später Apples wahre Antwort auf den Businessmarkt wurde.

Auch wenn der Apple III als Büromaschine entwickelt wurde, gab es einige Spiele für das System, beispielsweise Apple III Chess, das speziell für das Apple III entwickelt wurde und unter SOS lief. Es bot im Vergleich zu Apple II-Versionen ein ausgefeilteres Interface, eine höhere Bildschirmauflösung (Textmodus mit 80×24 Zeichen) und eine stärkere KI-Routine, die auf den erweiterten Arbeitsspeicher zugreifen konnte. Es war aber sehr langsam in höheren Schwierigkeitsstufen, da der 6502-Prozessor trotz doppelter Taktung (2 MHz) gegenüber dem 8088 des IBM PC schwächelte.

Mit Star Thief III portierte man ein erweitertes Action Game, dass exklusiv für das neue Flaggschiff angepasst wurde. Im Vergleich zur Apple II-Version hatte es eine bessere Steuerung über die numerische Tastatur, zusätzliche Level und leicht erweiterte Grafik. Es wurde in wenigen Apple-Händlerkatalogen erwähnt, war aber kommerziell unbedeutend.

Einige Hobbyisten und kleinere Entwicklerstudios veröffentlichten einfache Spiele, die speziell in Apple III Business BASIC oder SOS BASIC geschrieben wurden. Darunter befanden sich Spiele wie Hangman III, Treasure Cave oder Space Courier, die in Apple-Usergruppen oder über Diskettenversand vertrieben wurden. Diese Titel waren technisch einfach, nutzten aber gelegentlich die strukturierte Dateiverwaltung und die 80-Zeichen-Darstellung von SOS.

Apple hatte mit dem Apple III einen Rechner geschaffen, der keine Marktdurchdringung geschaffen hatte. Die technischen Probleme und die fehlende Spielkultur im Businessbereich taten ihr Übriges. Zudem war das SOS-Betriebssystem mit seiner anspruchsvollen API nicht attraktiv für Spieleentwickler, die lieber die große installierte Basis des Apple II nutzten. Eine Rückwärtskompatibilität zum Apple II war zwar theoretisch vorhanden – der Apple III konnte in einen Apple II-Modus booten – aber dieser war hardwareseitig unvollständig und fehleranfällig, sodass viele Apple II-Spiele dort nicht funktionierten.

Amstrad CPC 464+

Amstrad CPC 464+

Amstrad CPC 464+Als der Amstrad CPC 464+ im Jahr 1990 auf den Markt kam, war der Heimcomputermarkt bereits im Umbruch. 16-Bit-Maschinen wie der Commodore Amiga 500 und der Atari ST hatten längst die Fantasie der Entwickler und Spieler erobert, und der klassische 8-Bit-Markt schrumpfte rapide. Dennoch entschloss sich Amstrad unter der Leitung von Sir Alan Sugar dazu, der erfolgreichen CPC-Reihe ein letztes, modernisiertes Update zu verpassen – als Teil einer neuen Generation von Produkten, die mit dem GX4000-Spielsystem eine gemeinsame Hardwarebasis teilen sollten. Der CPC 464+ wurde als direkter Nachfolger des beliebten CPC 464 konzipiert, aber mit einem radikalen Designwechsel, leicht verbesserter Technik und der Möglichkeit, auf moderne Peripheriegeräte und Spiele zuzugreifen. Es war ein Versuch, mit minimalem Aufwand neuen Schwung in die Produktlinie zu bringen und gleichzeitig auf die Spielkonsole GX4000 aufzubauen, die intern dieselbe Hauptplatine verwendete.

Der CPC 464+ kostete zum Marktstart rund £199 mit Farbmonitor oder £149 ohne. Inflationsbereinigt entspricht das heute etwa 430 bis 575 Euro. Während das ursprüngliche CPC-Modell ein „All-in-One“-Konzept mit Monitor und eingebautem Laufwerk war, war der 464+ als modernisierter Desktop konzipiert, optisch stark an moderne Konsolen und PCs angelehnt. Die abgerundete Form, das dunkelgraue Gehäuse mit farbigen Funktionstasten und die markante rote Power-Taste erinnerten eher an ein Spielzeug oder eine Konsole als an einen klassischen Heimcomputer. Der eingebaute 3"-Kassettenrekorder war weiterhin vorhanden, obwohl zu diesem Zeitpunkt Kassetten als Speichermedium schon fast veraltet wirkten. Amstrad entschied sich bewusst dafür, um Kompatibilität zur alten CPC-Software zu garantieren und kostengünstig zu bleiben. Optional war ein 3-Zoll-Diskettenlaufwerk nachrüstbar – allerdings nur über spezielle Erweiterungen.

Technisch blieb vieles beim Alten: Der Herzschlag des CPC 464+ war wie beim Vorgänger der Zilog Z80A, ein 8-Bit-Prozessor mit 4 MHz Taktfrequenz. Der Z80 war 1976 entwickelt worden und zeichnete sich durch einen erweiterten Befehlssatz gegenüber dem Intel 8080 aus. Die CPU verfügte über 16-Bit-Adressbus und 8-Bit-Datenbus, was eine Adressierung von bis zu 64 KB direkt möglich machte. Der Befehlssatz bot auch Blockoperationen, ein Bit-Test-System und eine flexible Interrupt Struktur, was ihn besonders für Multitasking-freie Systeme wie Heimcomputer geeignet machte. Zusammen mit dem verbesserten Gate-Array im CPC 464+ wurde es möglich, Bildschirmausgaben effizienter zu verwalten, vor allem im Zusammenspiel mit der neuen DMA-Unterstützung für Sprites und Rastereffekte – allerdings wurden diese Erweiterungen nur von speziell programmierten Spielen ausgenutzt, insbesondere jenen, die auch auf der GX4000 liefen.

Eine der wesentlichen Neuerungen des CPC 464+ war die verbesserte Grafiklogik. Der Rechner unterstützte weiterhin die bekannten drei Bildschirmmodi des CPC: Mode 0 mit 160×200 Pixeln bei 16 Farben, Mode 1 mit 320×200 bei 4 Farben und Mode 2 mit 640×200 bei 2 Farben. Die neue Palette umfasste jetzt 4096 Farben, von denen bis zu 32 gleichzeitig darstellbar waren – vorausgesetzt, das Spiel nutzte die „Plus“-Features. Dies war ein deutliches Upgrade zum alten CPC, dessen Palette nur 27 Farben bot. Allerdings blieben die alten CPC-Spiele auf den alten Grafikmodi beschränkt, da die neue Grafikfähigkeit nicht automatisch aktiviert wurde. Das Bildsignal konnte über RGB oder SCART ausgegeben werden, was eine klare, hochwertige Darstellung auf zeitgenössischen Monitoren oder Fernsehern erlaubte.

Auch der Sound blieb weitgehend unverändert: Der AY-3-8912-Soundchip war erneut an Bord, ein dreistimmiger PSG, der einfache aber ausdrucksstarke Töne produzieren konnte. Theoretisch bot der 464+ durch zusätzliche DMA-Fähigkeiten in Verbindung mit neuen Softwareroutinen eine flexiblere Soundverarbeitung – aber auch hier galt: Nur speziell für die „Plus“-Reihe entwickelte Programme nutzten diese Features wirklich aus. Viele klassische CPC-Spiele liefen einfach im Kompatibilitätsmodus – identisch zu ihren Darstellungen auf dem Original-CPC.

Der Aufbau des CPC 464+ war modularer: Die Tastatur war fest im Gehäuse integriert, aber der Anschluss für Joysticks und Peripheriegeräte war hinter Klappen verborgen – ein Design, das zwar eleganter, aber weniger zugänglich war als beim Original. Der Computer verfügte über einen Erweiterungsport, SCART-Ausgang, Audioausgang und einen analogen Joystickport. Interessanterweise enthielt das neue Plus-Gate-Array Unterstützung für Hardware-Sprites und Raster-Interrupts, was die grafischen Möglichkeiten theoretisch auf Konsolenniveau hob. Einige geplante Peripheriegeräte – wie ein CD-ROM-Laufwerk für den GX4000 oder ein MIDI-Modul – wurden nie fertiggestellt. Die existierende Peripherie umfasste jedoch Drucker, Maus, Lightgun und Speichererweiterungen. Viele dieser Geräte waren kompatibel mit den alten CPCs oder speziell für die GX4000 entwickelt, ließen sich aber auch am CPC 464+ verwenden.

Als Betriebssystem diente weiterhin AMSDOS in Verbindung mit dem Locomotive BASIC 1.1, das in aktualisierter Form leicht angepasst wurde, aber vollständig kompatibel zum ursprünglichen CPC blieb. Die BASIC-Version war weiterhin leistungsfähig, schnell und verfügte über viele eingebaute Grafik- und Soundbefehle. Es war allerdings nicht an die neuen Grafik-Features der Plus-Serie angepasst – wer diese nutzen wollte, musste in Assembler programmieren oder spezielle Entwicklungswerkzeuge verwenden. Diese Einschränkung wurde in mehreren Zeitschriften kritisiert. So schrieb Amstrad Action im November 1990: „Der CPC 464+ sieht aus wie die Zukunft, fühlt sich aber immer noch nach 1984 an, wenn man BASIC startet.“

Die Verkaufszahlen des CPC 464+ waren enttäuschend. Während die ursprüngliche CPC-Serie über drei Millionen Einheiten verkaufte, kamen der 464+ und sein großer Bruder 6128+ zusammen vermutlich auf unter 100.000 Geräte. Der Markt war einfach zu stark auf 16-Bit-Rechner fokussiert, und viele Käufer hielten die neuen Features für Kosmetik. In Frankreich, wo der CPC traditionell stark war, verkaufte sich der 464+ noch relativ gut, vor allem durch Bundle-Angebote mit der GX4000-Konsole. Die Strategie, einen Computer und eine Konsole auf derselben Hardwarebasis zu verkaufen, ging jedoch nicht auf. Ein Bericht in Tilt (Frankreich) vom Dezember 1990 urteilte nüchtern: „Der Plus ist hübsch, aber zu spät. Wäre er 1987 gekommen, hätte er die Szene neu definiert.

Die Entwickler hinter dem 464+ waren größtenteils dieselben, die bereits am ursprünglichen CPC mitgewirkt hatten. Besonders erwähnenswert ist Cliff Lawson, ein langjähriger technischer Entwickler bei Amstrad, der maßgeblich an der Hardwareintegration und dem Plus-Gate-Array beteiligt war. Lawson äußerte sich später enttäuscht über die geringe Unterstützung durch Softwarehäuser: „Wir gaben ihnen die Tools – aber sie blieben bei Spectrum-Ports mit vier Farben.

Gegenüber dem Vorgänger CPC 464 bot der CPC 464+ einen moderneren Look, theoretisch bessere Grafik, Sprite- und Raster-Interrupts sowie eine klarere Videoausgabe. Praktisch jedoch war der Mehrwert gering, solange keine Plus-optimierte Software verwendet wurde. Der C64 war zu diesem Zeitpunkt grafisch immer noch konkurrenzfähig – besonders mit der Vielzahl an hochwertigen Spielen – und der Amiga hatte den Markt längst übernommen. Der CPC 464+ wirkte wie ein schöner, aber veralteter Zwischenschritt. Dennoch war er ein würdiger Abschluss der CPC-Reihe: gut verarbeitet, technisch solide und optisch seiner Zeit voraus – aber zu spät erschienen, um noch einen Unterschied zu machen.

Trotz seiner geringen Verbreitung besitzt der Amstrad CPC 464+ eine kleine, aber bemerkenswerte Sammlung an Spielen, die speziell für die „Plus“-Reihe entwickelt oder angepasst wurden. Diese Titel nutzten in der Regel die erweiterten Grafikfähigkeiten wie Hardware-Sprites, erweiterte Farbpalette und Rastereffekte – Eigenschaften, die auf klassischen CPCs nicht zur Verfügung standen. Viele dieser Spiele erschienen zeitgleich auch für die GX4000-Konsole, da beide Geräte dieselbe technische Basis hatten, was einen reibungslosen Parallelvertrieb erlaubte. Einige dieser Spiele gelten heute als technische Highlights des 8-Bit-Zeitalters auf dem CPC.

Burnin’ Rubber war das vielleicht bekannteste Spiel für den CPC 464+, da es dem Gerät als Bundle beilag und damit praktisch jeder Käufer es besaß. Der rasante Racer erinnerte optisch an OutRun und präsentierte für CPC-Verhältnisse spektakuläre Scrolling-Grafik, schnelle Fahrmanöver und fein aufgelöste Sprites. Es war eines der ersten Spiele, das die erweiterten Plus-Grafikfunktionen wie Farbverläufe, Multiplex-Sprites und Raster-Scrolling aktiv nutzte. Die Musik und die glatte Performance waren ein Paradebeispiel für das, was auf dem CPC technisch möglich war – wenn man die Plus-Features ausschöpfte.

Pang, ursprünglich ein Arcade-Hit von Mitchell und Capcom, wurde von Ocean Software für den CPC Plus portiert. Die Plus-Version unterschied sich deutlich von der regulären CPC-Fassung: Sie bot saubere Arcade-Grafik, weichere Animationen und nutzte die neue Farbpalette intensiv aus. Das Spiel wurde in Zeitschriften wie Amstrad Action als „nahezu arcade-perfect“ bezeichnet. Besonders lobten Kritiker die farbintensive Darstellung und die reaktionsschnelle Steuerung, die nur durch das neue Gate-Array möglich war.

Switchblade, ursprünglich ein Atari ST-Spiel von Gremlin Graphics, erhielt eine exklusive Plus-Version, die mit deutlich besserer Grafik, erweiterten Effekten und optimierter Soundausgabe daherkam. Die Sprites waren detaillierter, es gab farbige Lichtverläufe und rudimentäre Partikeleffekte – ein Showcase für Plus-Technik. Im Vergleich zur regulären CPC-Version wirkte das Spiel wie aus einer anderen Hardwaregeneration. Es wurde in Frankreich in Amstrad Cent Pour Cent besonders positiv besprochen.

Robocop 2, eine Ocean-Produktion, war technisch ambitioniert, wenn auch spielerisch eher solide. Die Plus-Version hatte beeindruckende Hintergründe mit parallaxem Scrolling, Sprite-Multiplexing und Soundeffekte, die über die reguläre AY-Architektur hinausgingen. Auch hier profitierten die Grafiken deutlich vom erweiterten Farbraum der Plus-Reihe.

Barbarian II (Plus Edition) erhielt als eines der wenigen älteren Spiele eine technisch verbesserte „Plus-Version“, die vollständig überarbeitet wurde. Statt nur vier Farben gab es nun kräftige, satte Sprites mit verbesserten Animationen, sowie erweitertes Parallax-Scrolling im Hintergrund. Diese Fassung wurde damals nur als Bundle oder über Spezialhändler vertrieben und ist heute unter Sammlern sehr gesucht.

Navy Seals, ebenfalls von Ocean, war ein später Titel mit düsterem militärischen Szenario, realistischer Sprite-Animation und clever eingesetzten Lichteffekten, die stark von den Rasterfähigkeiten der Plus-Serie Gebrauch machten. Die CPC-Version wurde zwar auch für ältere Modelle vertrieben, doch nur auf dem 464+/6128+ konnten die erweiterten Licht- und Farbverläufe korrekt dargestellt werden.

Einige Demoszenen-Gruppen entwickelten sogar Plus-exklusive Tech-Demos, die nicht als Spiele, sondern als Grafik- und Musikpräsentationen galten. Diese Demos nutzten Hardware-Sprites, Farbrastereffekte und DMA-Sound, um den Plus-Modellen ein Denkmal zu setzen. Gruppen wie Logon System, Benediction und Condense trieben die Maschinen bis an ihre Grenzen.

Insgesamt bleibt festzuhalten: Die Spielebibliothek für den CPC 464+ war klein, aber fein. Was ihr an Quantität fehlte, machte sie oft mit Qualität wett – insbesondere in der grafischen und klanglichen Präsentation. Viele der Plus-Spiele wirken wie ein versäumter Blick in eine alternative Zukunft des CPC: eine Zukunft, in der die Hardware die Software endlich eingeholt hätte. Doch die goldene Zeit war da schon vorbei. Was bleibt, ist ein letzter Glanzmoment der 8-Bit-Ära – konzentriert in wenigen, aber außergewöhnlichen Spielen.

Amstrad CPC 464

Amstrad CPC 464

Amstrad CPC 464Der Amstrad CPC (Colour Personal Computer), eine Heimcomputer-Serie aus Großbritannien, wurde 1984 von Amstrad unter der Leitung von Alan Michael Sugar veröffentlicht. Die Serie war Amstrads Antwort auf die Dominanz von Commodore, Sinclair und Acorn im britischen Heimcomputermarkt der frühen 1980er Jahre. Sugar, ein britischer Unternehmer aus einfachen Verhältnissen, hatte sich bis dahin mit billigen Stereoanlagen und Haushaltsgeräten einen Namen gemacht. Mit dem CPC wollte er in den expandierenden Heimcomputermarkt einsteigen, allerdings mit einer radikal anderen Herangehensweise: statt einem nackten Motherboard wie beim Sinclair ZX Spectrum oder modularen Komponenten wie beim Commodore 64 sollte der CPC als komplettes, benutzerfreundliches Paket daherkommen – inklusive Monitor und eingebautem Massenspeicher.

Der ursprüngliche CPC 464 erschien im Juni 1984 zu einem Preis von etwa £199 mit Monochrommonitor oder £299 mit Farbmonitor. Inflationsbereinigt entspricht das heute etwa 770 bis 1.160 Euro. Diese Strategie – ein Komplettsystem ohne das sonst übliche Kabelgewirr und externe Netzteile – war eine durchschlagende Innovation. Die ersten Modelle verkauften sich hervorragend, was nicht zuletzt am aggressiven Marketing lag: Die Werbekampagnen stellten den CPC als stilvolle, moderne Alternative zu den alternden Heimcomputern der Konkurrenz dar. In der „Your Computer“-Ausgabe vom August 1984 hieß es: „Der CPC ist ein Statement: Endlich ein Computer, der wie ein Gerät für Menschen aussieht und nicht wie ein Spielzeug für Bastler.“

Technisch war der CPC 464 um den Zilog Z80A-Prozessor herum aufgebaut, der mit 4 MHz getaktet war. Der Z80 war zu dieser Zeit ein populärer 8-Bit-Prozessor, der ursprünglich von Zilog entwickelt worden war, einer Firma, die von ehemaligen Intel-Mitarbeitern gegründet wurde. Der Z80 war binärkompatibel zum Intel 8080, aber mit erweitertem Befehlssatz und zusätzlichen Registern. Dies machte ihn für viele Entwickler attraktiv, da er sowohl leistungsfähig als auch kostengünstig war. Der Z80 verarbeitete Daten in 8-Bit-Schritten und adressierte bis zu 64 KB RAM direkt. Der CPC 464 verfügte standardmäßig über 64 KB RAM, später gab es Modelle mit 128 KB.

Die Grafikeinheit des CPC bot drei verschiedene Bildschirmmodi: Mode 0 mit 160×200 Pixeln bei 16 Farben, Mode 1 mit 320×200 Pixeln bei 4 Farben, und Mode 2 mit 640×200 Pixeln bei nur 2 Farben. Damit bot der CPC eine enorme Flexibilität – und schlug den ZX Spectrum in Farbdarstellung und Auflösung deutlich. Die Palette umfasste 27 Farben, wobei je nach Modus eine bestimmte Auswahl gleichzeitig darstellbar war. Der Bildschirm wurde über einen eingebauten Gate Array Chip angesteuert, der die Zusammenarbeit zwischen dem Prozessor und dem CRTC (Cathode Ray Tube Controller, ein Hitachi 6845) regelte.

Die Tonerzeugung übernahm der AY-3-8912 Soundchip von General Instrument. Dieser dreistimmige PSG (Programmable Sound Generator) war auch im MSX-Standard, dem Atari ST und im ZX Spectrum 128 enthalten. Er ermöglichte komplexe Klangstrukturen und war fähig, einfache Musik sowie Soundeffekte für Spiele zu generieren. Der AY-3-8912 verfügte über drei unabhängige Kanäle mit steuerbarer Lautstärke und Rauschgenerator, was ihn dem SID-Chip des C64 zwar unterlegen, aber dem simplen Beeper des Spectrum weit überlegen machte.

Das Betriebssystem des CPC war AMSDOS, ein in ROM eingebettetes Dateisystem, das mit dem ebenfalls enthaltenen Locomotive BASIC eng verzahnt war. Dieses BASIC galt damals als eines der leistungsfähigsten auf Heimcomputern. Es ermöglichte strukturierte Programmierung, hatte viele Befehle für Grafik und Sound, und nutzte die Hardware effizient aus. Locomotive Software Ltd., die dieses BASIC entwickelte, bestand aus einer kleinen Gruppe talentierter Entwickler, angeführt von Richard Clayton. Sie arbeiteten eng mit Amstrad zusammen, um ein konsistentes Benutzererlebnis zu garantieren.

Der Aufbau des CPC war ein Alleinstellungsmerkmal: Der Computer war in die Tastatureinheit integriert, ein Bandlaufwerk (bzw. später ein 3-Zoll-Diskettenlaufwerk beim CPC 664/6128) war eingebaut, und ein Monitor diente gleichzeitig als Netzteil für das System – ein cleveres Design, das Kabelsalat und Kompatibilitätsprobleme minimierte. Der Massenspeicher war zunächst das Kassettenlaufwerk, später ersetzte Amstrad es durch ein 3-Zoll-Diskettenlaufwerk, das von Hitachi stammte. Diese Disketten boten eine Kapazität von 178 KB pro Seite und galten als zuverlässig, waren jedoch teurer und weniger verbreitet als die 5,25-Zoll- oder 3,5-Zoll-Diskettenformate der Konkurrenz. Dies führte dazu, dass viele Anwender Adapter oder Zusatzlaufwerke verwendeten.

Anschlusstechnisch verfügte der CPC über einen Expansion-Port, Joystick-Anschluss, Audio-Ausgang, Druckeranschluss und einen RGB-Monitoranschluss. Viele Peripheriegeräte wurden geplant oder tatsächlich produziert, darunter Plotter, externe Laufwerke, Speichererweiterungen, Maus-Interfaces, Lightguns und sogar MIDI-Erweiterungen. Amstrad versuchte auch, den CPC als Bildungsrechner in Schulen zu etablieren – mit begrenztem Erfolg, da BBC Micro und Acorn hier stärker waren.

Mit über drei Millionen verkauften Einheiten war die CPC-Serie kommerziell ein großer Erfolg, insbesondere in Frankreich, Spanien und Großbritannien. Der CPC wurde nicht nur im Handel stark beworben, sondern auch als „Volkscomputer“ im Schulsystem einiger Länder eingeführt. Die CPC 464, 664 und 6128 bildeten die Kernfamilie, später folgten kompakte Varianten wie der CPC 464+ und 6128+ im Jahr 1990, die sich jedoch nicht mehr gut verkauften. In einem Artikel der französischen Zeitschrift Tilt wurde 1985 geschrieben: „Der CPC hat das geschafft, was der Thomson MO5 nicht konnte: Schüler begeistern, Eltern überzeugen und Entwickler motivieren.“

Zu den Nachteilen des CPC gehörten die proprietären 3-Zoll-Disketten, die begrenzte Softwarekompatibilität mit anderen Plattformen, sowie die etwas schwerfällige Grafikprogrammierung in BASIC. Auch wenn die Hardware solide war, wurden viele Spiele nur in Modus 1 mit 4 Farben portiert, um die Speicherkapazität nicht zu überlasten – ein Punkt, der die visuelle Qualität vieler Titel gegenüber C64- oder ST-Versionen schmälert. Dafür punktete der CPC mit Zuverlässigkeit, einfacher Bedienung und gutem BASIC.

Im Vergleich zur Konkurrenz war der C64 klanglich überlegen (dank SID), der Spectrum billiger (aber technisch deutlich unterlegen), und der BBC Micro besser für Bildungseinrichtungen ausgestattet, aber teurer. Der CPC versuchte sich dazwischen zu positionieren – mit einem gewissen Maß an Erfolg. Alan Sugar selbst bemerkte einmal süffisant: „Wir bauen keine Computer für Freaks. Wir bauen Maschinen für Menschen, die einfach einen funktionierenden Computer wollen.“

Zwar war der Amstrad CPC nie so stark mit prominenten Fans verbunden wie der Commodore 64 oder der ZX Spectrum, doch gibt es einige bekannte Persönlichkeiten aus der Technik-, Musik- oder Gameszene, die sich öffentlich als Fans oder frühere Nutzer des Amstrad CPC geäußert haben. Hier sind einige davon, darunter auch solche, die heute in der Retro- oder Games-Community einen gewissen Bekanntheitsgrad besitzen, beispielsweise Ben Daglish – Der bekannte britische Komponist von 8-Bit-Musik (u.a. The Last Ninja, Krakout) arbeitete zwar vorrangig für den C64, äußerte aber mehrfach in Interviews seine Sympathie für den CPC-Soundchip AY-3-8912 und nannte ihn „eleganter als man glaubt“. In einem Interview mit Retro Gamer sagte er: „Mit ein bisschen Liebe und technischem Verständnis ließ sich dem CPC-Soundchip fast so viel Gefühl entlocken wie dem SID.“

Auch John Romero war von der CPC Reihe angetan. Der Mitbegründer von id Software (Doom, Quake) erwähnte in einem Twitter-Beitrag, dass er nie selbst einen CPC besaß, aber ein Fan von CPC-Demos geworden sei, nachdem er sie auf Retro-Festivals gesehen hatte: „Demos auf dem CPC zeigen, wie viel man aus limitierter Hardware herausholen kann – echtes Kunsthandwerk.

Heute gilt der Amstrad CPC als einer der stilvollsten und durchdachtesten Heimcomputer der 80er Jahre. Eine aktive Retro-Community pflegt sein Erbe, entwickelt neue Spiele, Hardware-Erweiterungen und Emulatoren. Der CPC war nie der revolutionärste Computer – aber er war einer der solidesten, und sein Erfolg zeigt, dass durchdachtes Design und kluge Marktstrategie selbst gegen technisch überlegene Konkurrenten bestehen konnten.