Panzer General – 1994 by SSI

Panzer General - 1994 by SSI

panzer general coverPanzer General, veröffentlicht 1994 von SSI, war ein rundenbasiertes Strategiespiel, das mit seinen hexagonalen Karten zwar keineswegs eine Neuerfindung des Genres darstellte, wohl aber den entscheidenden Schritt wagte, das bis dahin als sperrig geltende Wargame-Genre massentauglich zu machen. In Japan waren Hexfeld-Kriegsspiele längst etabliert: Mit Titeln wie Daisenryaku, das seit 1985 auf Plattformen wie dem MSX oder PC-88 erschien, war das Prinzip bereits fester Bestandteil der dortigen Spielkultur. Auch auf westlichen Konsolen hatte man mit Nectaris (1989, PC-Engine) – später auch bekannt als Military Madness – einen beliebten Vertreter, der Taktik und Zugänglichkeit verband. Doch im Westen galt Hex-Strategie bis dahin als Domäne grauer DOS-Menüs und dicker Handbücher. Panzer General änderte das.

Der Spieler übernahm das Kommando über die deutsche Wehrmacht zu Beginn des Zweiten Weltkriegs und konnte seine Kernarmee durch eine ganze Kampagne führen – von Polen 1939 bis zu einem möglichen Sieg über die USA im Jahr 1945. Jede Schlacht brachte je nach Erfolg Prestige, das in neue Truppen, Upgrades oder Verstärkungen investiert werden konnte. Das Kampagnensystem war verzweigt, sodass alternative Pfade möglich wurden: Wer in Frankreich schnell genug siegte, konnte früher nach England übersetzen, wer Afrika dominierte, bekam andere Ziele. Durch diese Mechanik entstand ein Spielgefühl, das sich deutlich von den linearen Missionen früherer SSI-Titel abhob.

Die Entwicklung lag in den Händen von Paul Murray, der als Lead Programmer und Game Designer die technische und spielmechanische Basis schuf. Joel Billings, Gründer von SSI, war laut MobyGames ausdrücklich als Campaign Designer tätig und entwarf mit David Landrey die Struktur und Szenarien der Kampagne. Bret Berry übernahm als Producer die Gesamtkoordination, Doug Brandon steuerte den Soundtrack bei, der mit militärischen Marschthemen und orchestralen Akzenten für ungewohnt viel Atmosphäre sorgte. Die Benutzeroberfläche und Karten wurden von David Jensen gestaltet, während Ron Calonje für die Audio-Implementierung verantwortlich war.

Während der Entwicklung wurden mehrere Features konzipiert, aber letztlich gestrichen. Dazu gehörte ein Szenario-Editor, mit dem Spieler eigene Schlachten entwerfen sollten. Auch war eine zweite, sowjetische Kampagne angedacht, ebenso wie eine „Was-wäre-wenn“-Reihe um eine Invasion Großbritanniens oder eine ausführlichere Einbindung Italiens und Japans. Diese Entwürfe wurden aus Zeit- und Budgetgründen fallengelassen. In internen Design-Skizzen tauchten darüber hinaus alternative Karten für Afrika, die Kaukasusregion und sogar ein Seegefecht um Gibraltar auf – keine davon schaffte es ins finale Spiel.

Bei seiner Veröffentlichung wurde Panzer General zu einem gewaltigen Erfolg: Über 250.000 verkaufte Exemplare allein in der ersten Phase machten es zum erfolgreichsten SSI-Spiel überhaupt. Kritiken lobten das Spiel für seine intuitive Steuerung, die gelungene Verbindung aus taktischer Tiefe und Spielbarkeit sowie das motivierende Fortschrittssystem. Computer Gaming World nannte es das „beste Kriegsspiel seit Jahren“, PC Gamer urteilte: „So stellt man sich strategisches Gameplay mit Geschichte vor.“ In Deutschland vergaben Magazine wie PC Player bis zu 86 %.

Doch in Deutschland kam auch Kritik auf – und zwar nicht nur im Feuilleton. 1996 wurde Panzer General von der Bundesprüfstelle für jugendgefährdende Schriften indiziert. In der offiziellen Begründung heißt es:
Bedenklich ist das Angebot, durch geschicktes taktisches Verhalten den Ausgang einzelner Schlachten wie den Verlauf des ganzen (Zweiten Welt)Krieges zu beeinflussen und erfolgreicher zu sein als die Truppen Nazi-Deutschlands. Der ‚Endsieg‘ wird doch noch, wenigstens am Computer, möglich!“
Die Darstellung der Kampagne und das Verpackungsdesign wurden ebenfalls bemängelt. So hieß es im Text auf der Rückseite der Box, der Spieler könne als deutscher General „die Geschichte umschreiben“. Zwar wurde im Handbuch an einer Stelle erwähnt, dass man auch auf Seite der Alliierten „Krieg spielen“ könne, doch in der Realität spielten sich sämtliche Kampagnen ausschließlich aus deutscher Sicht. Italien und Japan tauchten nicht auf, und der gesamte Plot war auf die Perspektive der Wehrmacht ausgelegt. Besonders der fiktive Angriff auf Amerika am 1. Juni 1945 – als Finale der Kampagne – wurde als gefährlicher Revisionismus eingestuft.

Trotz dieser Kontroverse blieb der internationale Erfolg ungebrochen. Das Spiel wurde in mehreren Sprachen lokalisiert, 1995 erschien eine Windows-Version mit überarbeitetem Interface, eine PlayStation-Version folgte unter dem Titel Allied General. Eine Amiga-Version wurde nie entwickelt oder veröffentlicht, auch wenn dies manchmal fälschlich behauptet wird – Panzer General war ein reines DOS-Produkt und orientierte sich technisch und visuell bereits an der frühen Windows-Ästhetik.

In der Rückschau bleibt Panzer General ein Meilenstein. Es kombinierte das jahrzehntelang gewachsene Know-how klassischer Papier-und-Papp-Wargames mit der Benutzerfreundlichkeit eines modernen PC-Spiels. Es war ein taktisches Spiel, aber auch ein erzählerisches Experiment, das Geschichte nicht erklärte, sondern spielbar machte – mit allen Chancen und Abgründen. Der Erfolg beruhte nicht zuletzt auf der Entscheidung, Geschichte nicht als rein dokumentarischen Prozess zu sehen, sondern als interaktives Szenario mit Optionen. Für viele war das befreiend, für manche verstörend. Unabhängig davon hat Panzer General das Genre definiert wie kaum ein anderes Spiel zuvor. Es war nicht das erste Hexfeld-Spiel – aber das erste, das in der westlichen Welt ein Millionenpublikum mit kleinen, sechseckigen Feldern fesseln konnte. Und damit war es, ganz im Geiste von SSI, ein strategischer Sieg auf ganzer Linie.

Viele Jahre nach dem ursprünglichen Erfolg und mehreren offiziellen Fortsetzungen wie Allied General und Pacific General entstand schließlich das inoffizielle, aber offiziell lizenzierte Remake, das als würdiger Nachfolger gilt: Panzer Corps. Veröffentlicht 2011 von Slitherine und entwickelt von The Lordz Games Studio in Kooperation mit Flashback Games, präsentierte es sich als moderne Neuinterpretation von Panzer General, die sich nicht damit begnügte, nostalgische Gefühle zu wecken, sondern das Spielkonzept gezielt verbesserte. Die Grundlage war ein Fanprojekt – Panzer General Forever – das mit Unterstützung von Community und Entwicklern zur Vollversion ausgebaut wurde. Die Spielmechanik blieb dabei dem Original treu: rundenbasierte Kämpfe auf Hexfeldern, eine verzweigte Kampagne mit Prestige-System, langlebigen Eliteeinheiten und taktischer Vielfalt. Neu hinzu kamen eine hochauflösende 2D-Grafik, ein eigener Karteneditor, dutzende DLC-Erweiterungen – darunter Afrika Korps, Soviet Corps und eine Grand Campaign mit über 150 Szenarien – sowie Online-Multiplayer und Modding-Unterstützung. Die Kritik war fast durchweg positiv, das Spiel wurde als „Comeback des Generals“ gefeiert und auf Plattformen wie GOG, Steam und iPad veröffentlicht. Damit schloss sich der Kreis: Panzer Corps brachte jene Strategen zurück ins Feld, die 1994 mit VGA-Panzern durch Polen marschierten – diesmal in hübscherer Uniform und mit deutlich weniger Ladezeiten. 2020 folgte mit Panzer Corps 2 schließlich auch der Schritt in die 3D-Grafik und moderne Engine, aber der Takt bleibt derselbe: Prestige, Panzer, Plan – Zug für Zug.

Fiendish Freddy’s Big Top O‘ Fun – 1989 by Gray Matter / Mindscape

Fiendish Freddy's Big Top O' Fun - 1989 by Gray Matter / Mindscape

btof titleFiendish Freddy’s Big Top O’ Fun, entwickelt von Gray Matter Inc. unter Leitung von Chris Gray und veröffentlicht 1989 von Mindscape, ist ein grellbuntes, schwarzhumoriges Zirkusspiel, das mit sechs teils brutalen Minispielen in Folge für offene Münder und verkrampfte Joystickhände sorgte. Der Spieler übernimmt die Rolle eines Zirkusdirektors, der versucht, seinen heruntergekommenen Betrieb mit spektakulären Shows vor der endgültigen Schließung zu retten. 10.000 Dollar müssen verdient werden, doch da ist Fiendish Freddy – ein zynischer Saboteur mit Zylinder und Zigarrenschneidern, der nichts lieber tut, als den Artisten das Leben zur Hölle zu machen.

Bereits die Disziplinen selbst lesen sich wie eine Mischung aus Slapstick und Sadismus: Beim Turmsprung aus mehreren hundert Metern Höhe muss der Artist in immer kleinere Wasserbecken zielen, darunter ein winziges Planschbecken – das einzige, was zwischen ihm und der zersplitterten Wirbelsäule steht. Währenddessen greift Freddy schon mal zur Rakete, um den Springer abzuschießen. Beim Jonglieren versucht ein Propellerhut die Würfe zu sabotieren, bei der Seiltanznummer sägt Freddy mit Brecheisen und Kettensäge an der Stabilität des Seils. Besonders makaber: In der Messerwurf-Disziplin rotieren Zielscheibe und Assistentin, und wer danebenwirft, trifft sie ins Fleisch – begleitet von erstaunlich expliziten Bluteffekten für ein Spiel von 1989.

Diese Darstellung rief zwar keine öffentlichen Proteste hervor, sorgte aber bei manchen Eltern für hochgezogene Augenbrauen. Dass das Spiel überhaupt ungeschnitten auf Plattformen wie dem C64, Amiga oder Atari ST erscheinen konnte, lag wohl an der grellbunten Optik, die den Splatterhumor durch Slapstick entschärfte. Dennoch: Wenn in der Seiltanz-Disziplin der Artist vom Trapez segelt und Freddy mit einem Amboss hinterherwirft, blieb nicht viel Raum für Interpretation. Wie ein Spieler in einem späteren Forum treffend schrieb: „Fiendish Freddy war eigentlich das erste Mortal Kombat – nur mit Clowns.

Die Programmierung übernahm Simon Golding, der Soundtrack stammt von Barry Leitch, der später mit Top Gear, Lotus Turbo Challenge und Super Cars II berühmt wurde, und die Grafiken – sämtliche Sprites, Animationen und Szenenhintergründe – wurden komplett von Kristi-Louise Herd erstellt. Sie zeichnete alles selbst auf dem Atari ST, wie sie später in einem Interview erklärte. Für die 8-Bit-Portierungen – etwa für C64, Amstrad CPC, ZX Spectrum – war Imagitec Design verantwortlich, wobei jede Plattform ihre Eigenheiten hatte. Die Amiga-Version bot Sprachausgabe („Welcome to the Big Top!“), die Spectrum-Fassung dagegen eine reduzierte Farbpalette und keine Samples, aber flüssiges Gameplay. Der C64 wiederum verfügte über zwei verschiedene Versionen – Tape und Cartridge –, wobei Letztere aufgrund der berüchtigten Multiload-Zeiten deutlich bevorzugt wurde. In der Tape-Fassung dauerte das Nachladen zwischen den Disziplinen mitunter länger als die Disziplin selbst. Die Cartridge-Version war deshalb auch Teil des Commodore 64 Games System-Pakets – eine Ehre, die nur wenigen Spielen zuteilwurde und auf einen gewissen kommerziellen Erfolg schließen lässt.

Laut Pressematerial von Mindscape war das Spiel „das unterhaltsamste und abwechslungsreichste Zirkuserlebnis auf Heimcomputern“, und auch die Presse war weitgehend begeistert. Die britische Zzap!64 vergab 89 %, Crash ernannte die Spectrum-Fassung zum „Crash Smash“, Sinclair User verlieh den „Classic“-Award. Die Zeitschrift The One lobte vor allem den Humor und die technische Vielfalt – die unterschiedlichen Disziplinen seien wie eigenständige Spiele. Der einzige größere Kritikpunkt war die teils schwankende Steuerung bei Trapez und Kanonenritt – aber das gehörte fast schon zur absurden Show. Ein Leserbrief an Your Sinclair fasste das Spiel mit britischem Humor so zusammen: „Der einzige Zirkus, in dem Scheitern mehr Spaß macht als Gewinnen.“

Während der Entwicklung testete das Team auch andere Disziplinen: eine Parade mit Elefanten, ein Feuerspucker-Wettkampf, sogar eine Glaskugel-Balanciernummer, bei der der Artist auf rollenden Fässern jonglieren sollte. Letztlich fielen all diese Ideen dem knappen Speicher und den technischen Einschränkungen der 8-Bit-Zielplattformen zum Opfer. Besonders ärgerlich: Man hatte intern mit einem Kamera-Schwenk über das Publikum geplant, komplett mit Konfetti und Rufen – wurde aber gestrichen, um Ladezeiten zu sparen.

Das Spiel wurde weltweit vertrieben, erschien auch in einer französischen, deutschen und spanischen Fassung – auf dem Amiga mit übersetzten Texten, auf dem C64 in Multilanguage-ROMs. Verkaufszahlen liegen nicht exakt vor, doch durch die vielen Portierungen, die Aufnahme ins C64GS und zahlreiche Budget-Wiederveröffentlichungen (u. a. unter dem Label Kixx) kann man von weit über 50.000 verkauften Einheiten ausgehen – was für ein Spiel dieser Art im damaligen Umfeld beachtlich ist.

Musikalisch griff Barry Leitch tief in die Klamottenkiste: schrille Calliope-Klänge, nervöses Trompetengebläse und abruptes Staccato unterlegten die Chaosakte mit absurder Theatralik. Besonders die Eröffnungsfanfare hatte Ohrwurmpotenzial, das noch Wochen später in Schulpausen gepfiffen wurde. Die Soundeffekte stammten aus dem typischen Gray-Matter-Toolkit: Samples von Lachen, Schmerzensschreien und einer weiblichen Assistentin, die gelegentlich aufstöhnt, wenn ein Messer sie trifft – bizarr und kurios zugleich.

Fiendish Freddy’s Big Top O’ Fun bleibt bis heute ein Beispiel dafür, wie schräge Ideen, technische Cleverness und eine Prise bösen Humors zu einem einzigartigen Spielerlebnis führen können. Weder ein klassisches Sportspiel noch ein reines Partyspiel, balanciert es virtuos auf dem Drahtseil zwischen Mini-Game-Sammlung, Satire und Slapstick-Videotheater. Es ist ein Titel, der sich nicht einfach einordnen lässt – aber genau das macht ihn bis heute unvergessen. Und während Fiendish Freddy im Hintergrund seine Zigarre anzündet und grinst, wissen wir: Selbst wenn wir verlieren, unterhalten hat’s auf jeden Fall.

 

The Goonies – 1985 by Datasoft / U.S. Gold

The Goonies - 1985 by Datasoft / U.S. Gold

goonies coverThe Goonies, veröffentlicht 1985 in den USA von Datasoft und ein Jahr später in Europa von US Gold, war eine jener frühen Filmumsetzungen, die versuchten, das cineastische Abenteuerfeuerwerk ins pixelige 8‑Bit‑Universum zu übertragen – und das mit erstaunlich viel Charme, obwohl (oder gerade weil) man statt auf actionreiche Dauerballerei auf Puzzle-Kombinationen und Geschicklichkeit setzte. Das Spiel wurde von Scott Spanburg programmiert, der später noch durch Bruce Lee und Zorro auffiel, während Kelly Day die Grafik entwarf und Richard Mirsky (Apple II, Atari) sowie John A. Fitzpatrick (C64) sich um die Musik kümmerten – letztere teils mit eigenständigen Tape‑ und Diskettenversionen, was zur damaligen Zeit noch echte Unterschiede bedeutete.

Spielerisch begibt man sich in einem Mix aus Plattformspiel und Puzzler mit zwei Goonies gleichzeitig durch acht Level, die lose Szenen aus dem gleichnamigen Spielberg-Film aufgreifen. Im Solomodus kann man zwischen den Figuren hin- und herschalten, im Zwei-Spieler-Modus übernimmt jeder einen der Charaktere. Ziel in jedem Abschnitt: Schalter aktivieren, Schlüssel finden, Fallen vermeiden – und das möglichst synchron. Die grafische Umsetzung war je nach Plattform unterschiedlich detailreich, wobei besonders die C64- und Amstrad-Versionen sich durch etwas knackigere Farben und Musikuntermalung hervortaten, während die ZX Spectrum-Fassung mit spartanischer Darstellung auskommen musste, dafür aber flüssiger lief.

Der Entwicklungsprozess verlief vergleichsweise geordnet, wobei einige ursprünglich geplante Spielelemente und Level aus Speicherplatzgründen wieder gestrichen wurden. Laut Aussagen in späteren Entwicklerforen war unter anderem ein Level vorgesehen, in dem die Fratellis mit einer Lore durch das Bild rasten sollten – eine direkte Anspielung auf die dramatische Lorenfahrt aus dem Film. Auch experimentierte man mit einem Bildschirm, der bei bestimmten Aktionen zittern oder kollabieren sollte – eine Art primitiver Erdbebeneffekt, der durch flackernde Tiles und Soundeffekte simuliert werden sollte. Letztlich war die Technik auf den Zielplattformen dafür zu begrenzt, sodass man den Plan aufgab und das Ganze durch eher statische Levelbilder ersetzte. Ebenso wurden alternative Figuren wie Andy oder Brand als spielbare Charaktere verworfen, da die Zweierkonstellation mit Mikey & Mouth technisch am einfachsten zu realisieren war.

Was damals nur wenige wussten: Auf dem Amstrad CPC konnte man mit einem versteckten Tastendruck F5 tatsächlich das Startlevel ändern – eine Art inoffizieller Trainer-Modus, den man wohl ursprünglich zu Testzwecken eingebaut und nie entfernt hatte. Und in der CPC-Version startete man mit 8 Leben statt der üblichen 5 – möglicherweise ein Kompromiss an die damals als „etwas schwieriger“ geltende Tastensteuerung. In manchen Fassungen wie der Apple-II- und MSX-Version lassen sich beim Neustart sogar kleine Unterschiede im Levelverlauf und der Platzierung von Objekten feststellen – vermutlich bedingt durch leicht andere Portierungsbasen.

Besonders spannend ist der internationale Versionsvergleich: In Japan erschien 1986 bei Konami eine eigene Umsetzung für Famicom und MSX mit völlig anderem Spielprinzip, Musik und Mechanik. Diese Version wurde später mit dem bekannten The Goonies II auf dem NES fortgesetzt – viele europäische und US-Spieler gingen damals fälschlich davon aus, Goonies II wäre ein Sequel zur US Gold-Version, obwohl es sich um einen völlig anderen Ast der Lizenzgeschichte handelte.

Kritiken fielen meist positiv aus, wenn auch nicht euphorisch. Die C64-Version erhielt im Schnitt 68–75 % in Magazinen wie Zzap!64, der Spectrum pendelte um die 74 %, während der CPC immerhin auf respektable 70 % kam. Besonders gelobt wurde die Kombination aus Rätseldesign und Teamwork-Mechanik, aber man bemängelte die recht kurze Spieldauer und den manchmal frickeligen Schwierigkeitsgrad. Ein User-Kommentar aus dem Retro Gamer Forum brachte es auf den Punkt: „Ein Spiel, bei dem die Kooperation nicht hilft, sondern scheitert, wenn der zweite Spieler zu blöd ist – willkommen bei den echten Goonies!

Kommerziell gesehen war The Goonies ein veritabler Erfolg. Während genaue Verkaufszahlen schwer greifbar sind, tauchte es in mehreren Compilations auf, etwa in US Golds Kixx-Reihe oder auf Tape-Zusammenstellungen wie Hit Pak. Die Tatsache, dass es auf beinahe allen 8-Bit-Systemen erschien – von Apple II über Atari 8-Bit bis hin zu Amstrad CPC, ZX Spectrum und MSX – spricht für eine gute Marktverbreitung. Sogar eine PC-88-Version wurde in Japan realisiert, mit leicht verändertem Grafikstil und japanisch lokalisiertem Text, was im Westen kaum bekannt war.

Heute ist The Goonies ein Liebling der Abandonware-Szene und Emulationsfreunde. Die C64-Version ist rund 170 kB groß, die Amstrad-Version knapp 128 kB, die Spectrum-Fassung nur rund 46 kB – und dennoch steckt in diesen paar Kilobyte jede Menge Liebe, Timing und Trial & Error. Besonders Sammler schätzen die Tape-Editionen mit alternativen Artworks, z. B. die grüne Kixx-Label-Kassette, die in UK später einen gewissen Kultstatus erlangte.

Was bleibt, ist ein Spiel, das filmische Nostalgie mit cleverem Spieldesign verband. Keine überbordende Grafikorgie, kein revolutionäres Gameplay – aber ein liebevoll umgesetzter Lizenztitel, der den Charme des Films in ein kompaktes, forderndes Puzzle-Erlebnis für zwei kleine Pixelhelden übersetzte. Für Freunde klassischer Movie Games bleibt The Goonies auch heute noch ein kleiner, blinkender Goldschatz im Labyrinth der Retrogeschichte.

2400 A.D. – 1987 by Origin Systems

2400 A.D. – 1988 by Origin Systems

314527 2400 ad dos front cover2400 A.D. von Origin Systems war eines dieser Spiele, das mit großen Ambitionen gestartet wurde – und mit einem leisen „bitte vergessen“ im Firmenarchiv endete. Entwickelt von Chuck Bueche, besser bekannt als „Chuckles“, der zuvor als Entwickler bei Ultima I–IV sowie Autoduel tätig war, erschien der Titel 1988 für den Apple II und MS-DOS – und hätte eine neue Sci-Fi-Rollenspielreihe einläuten sollen. Stattdessen wurde er zum Paradebeispiel für verpasste Chancen bei einem eigentlich hochinteressanten Cyberpunk-Konzept.

Das Spiel versetzt den Spieler in die dystopische Stadt Metropolis auf dem Planeten XK-120, wo eine Roboterdiktatur das tägliche Leben unterjocht. Als Mitglied des Widerstands sollte man durch Gespräche, kleinere Aktionen und gelegentliche Gewaltakte das Regime nach und nach destabilisieren. Vom Gameplay erinnerte vieles an Ultima IV: Top-down-Ansicht, Tastenkürzel für Aktionen, ein rudimentärer Parser für Gespräche und eine offene Spielwelt, die man erkunden konnte, sobald man eine Ahnung hatte, was überhaupt zu tun war. Der Humor blitzte gelegentlich durch – etwa durch Bewohner mit Namen wie „Sven the Janitor“, der völlig belangloses Zeug von sich gab. Wer sich jedoch eine epische Story oder moralische Entscheidungsfreiheit erhoffte, wurde enttäuscht. Der Plot plätscherte dahin, und die immer gleichen Roboter-Patrouillen nervten schneller, als einem lieb war.

Chuck Bueche hatte ursprünglich größere Pläne. In internen Konzeptzeichnungen, die später auf Messen kursierten, war von mehreren Städten, einem Bahnnetz, Außenmissionen und sogar städtischen Bezirksaufständen die Rede. Auch ein erweitertes Dialogsystem mit thematischen Auswahloptionen wurde getestet – fiel aber wegen mangelnder Speicherressourcen weg. Der Parser blieb also dumm wie ein Toaster: Wer das richtige Schlagwort nicht tippte, bekam „I don't understand“ als Antwort. Das machte viele Quests zu Rätseln mit der Methode „raten und hoffen“.

Produziert wurde das Spiel mit für Origin typischem Aufwand: Es lag eine faltbare Stadtkarte bei, ein dickes Handbuch und – tatsächlich – kleine Metall-Miniaturen von Robotern, als wolle man ein Tabletop-Spiel simulieren. Diese Aufmachung war vielleicht auch nötig, um den Preis von knapp 50 Dollar zu rechtfertigen, was inflationsbereinigt etwa 130 Euro heute entspricht. Richard Garriott, Mitbegründer von Origin, stand hinter der Veröffentlichung, hatte aber mit der Entwicklung selbst wenig zu tun. Die Promotion war dennoch typisch großspurig: In Anzeigen hieß es, 2400 A.D. sei „the next evolution in science fiction role playing“, eine neue Dimension sei erreicht worden – der damals übliche Werbe-Overkill.

Doch die Verkaufszahlen blieben weit hinter den Erwartungen zurück. Weder Apple-II- noch PC-Spieler wollten sich auf das experimentelle Setting einlassen. Viele kritisierten die langsame Performance auf älteren Maschinen, das belanglose Missionsdesign und die seelenlose Welt. In einem seltenen Interview sagte Chuck Bueche später: „Wir haben die Essenz eines RPGs genommen, aber dabei vergessen, den Spieler auch zu motivieren.
Ein Spieletester der Computer Gaming World war noch direkter: „Wenn man sich bei 2400 A.D. langweilt, liegt das nicht an einem selbst – es liegt am Spiel.

Eine Portierung auf den Commodore 64 war zwar intern mal Thema, wurde aber nie über das Planungsstadium hinausgeführt. Entgegen mancher Mythen war John Romero nicht an einer C64-Version beteiligt – auch wenn er zu der Zeit bei Origin arbeitete. Stattdessen wurde recht bald das bereits begonnene Sequel 2500 A.D. eingestellt, nachdem klar war, dass Teil eins kommerziell gefloppt war. Bueche verließ Origin kurz darauf und widmete sich dem Studium. Rückblickend war 2400 A.D. so etwas wie sein letzter großer Alleingang.

Einige interessante Details zur Produktion: Die Stadt Metropolis basierte laut Designer-Skizzen auf einer Mischung aus sowjetischen Stadtentwürfen der 1970er-Jahre und texanischen Einkaufszentren – kein Witz. Die Robotertypen hatten interne Codenamen wie „Smashbot“, „Zapbot“ und „Snitchbot“, letzterer war ein besonders nerviger Denunziant, der in jeder Gasse zu stehen schien. Es gab ursprünglich auch eine moralische Skala für den Spieler – bei zu brutaler Vorgehensweise hätten sogar Mitkämpfer das Vertrauen verloren. Auch das fiel dem Rotstift zum Opfer.

Die Kritiken waren – höflich gesagt – mittelmäßig. MobyGames listet keine internationalen Wertungen, aber Fanreviews pendeln zwischen „nette Idee, langweilige Umsetzung“ und „mehr als eine Tech-Demo ist das nicht“. Besonders heftig war das Urteil in einem Rückblick der Amiga Power, die (sinngemäß) meinten: „2400 A.D. sieht aus wie ein Ultima, spielt sich wie ein Schachspiel ohne Regeln.
Ein Nutzer auf MyAbandonware schrieb trocken: „Ich wollte Widerstandskämpfer sein. Stattdessen habe ich Möbel umstellt und mit Robotern über Faxgeräte gesprochen.

Komponisten oder Sounddesigner wurden im Abspann nicht genannt – ein weiteres Indiz dafür, dass Musik und Atmosphäre bei diesem Titel nicht Priorität hatten. Soundeffekte gab es, aber sie waren rudimentär, und auf vielen Systemen sogar deaktiviert, wenn der Arbeitsspeicher zu knapp wurde.

Heute ist 2400 A.D. ein kurioses Relikt – nicht wirklich gut, aber in seiner Mischung aus ambitioniertem Worldbuilding und blutleerem Gameplay irgendwie charmant. Es ist ein Beispiel dafür, wie sich große Ideen im Labyrinth der Limitierungen verlieren können. Und es ist der Beweis, dass selbst bei Origin Systems nicht alles Gold war, was auf Klappkarte gedruckt wurde.

Wer möchte, kann es über DOSBox spielen. Die DOS-Version umfasst knapp 200 kB und läuft sogar auf 8088-kompatiblen Maschinen mit CGA. Und vielleicht, nur vielleicht, entdeckt man beim nächsten Durchspielen etwas, das die damalige Rebellion doch noch rechtfertigt. Wahrscheinlich aber nicht.

 

Hewlett-Packard HP-65

Hewlett-Packard HP-65

hp 65 white background

Von HP_65.jpg: teclasorg on flickrderivative work: Pittigrilli (talk) - HP_65.jpg, CC BY-SA 2.0, https://commons.wikimedia.org/w/index.php?curid=9710858

Der Hewlett-Packard HP-65, im Jahr 1974 eingeführt, war ein revolutionäres Gerät, das zwar äußerlich als Taschenrechner daherkam, in Wahrheit jedoch der weltweit erste programmierbare Taschenrechner mit magnetischem Massenspeicher war. Der HP-65 markierte einen echten Meilenstein in der Geschichte der mobilen Rechentechnik und leitete eine neue Ära ein – nicht nur für Hewlett-Packard, sondern für die gesamte Rechnerindustrie.

Die Geschichte des HP-65 beginnt bei HPs legendärer Calculator Division in Cupertino, Kalifornien, unter der Leitung von Bill Hewlett und Dave Packard, den beiden Unternehmensgründern. Die technische Projektleitung übernahm Tom Osborne, der schon maßgeblich am HP-35 beteiligt gewesen war – dem ersten wissenschaftlichen Taschenrechner überhaupt. Der HP-65 sollte nun ein Gerät werden, das nicht nur Zahlen verarbeiten, sondern auch ganze Programme speichern und ausführen konnte – ein „Personal Computer“ im Taschenformat, Jahre bevor dieser Begriff überhaupt in Umlauf kam. Osborne selbst beschrieb das Projekt später als „das komplexeste und aufregendste Produkt, das wir in den 70er Jahren je versucht haben“, und in der Retrospektive war der HP-65 nicht weniger als der Urahn aller heutigen programmierbaren Taschencomputer.

Der HP-65 verwendete einen speziell entwickelten, proprietären CMOS-Prozessor von HP selbst, der eng mit dem damaligen Logikdesign der HP-9800-Serie verwandt war. Eine „CPU“ im klassischen Sinn war es nicht – vielmehr bestand die Recheneinheit aus einem diskreten Mikroprogramm-Kontrollwerk, das speziell auf das RPN-Bedienschema (Reverse Polish Notation) und 19-stellige BCD-Arithmetik zugeschnitten war. Das Gerät besaß registerbasierten Speicher, und der Programmspeicher war streng limitiert: 100 Schritte, aufgeteilt in einem eigenen microcodebasierten Format, das spezielle Token für jede Funktion verwendete – zum Beispiel wurde die Tastenfolge SIN nicht als ASCII, sondern als 2-Bit-Kode gespeichert, um Speicherplatz zu sparen. Für damalige Verhältnisse war das eine Meisterleistung der Miniaturisierung, die selbst Großrechnerentwickler ins Staunen versetzte.

Was den HP-65 von allen Taschenrechnern seiner Zeit abhob – und warum er mit Recht als bahnbrechend gilt – war das integrierte Magnetkartenlaufwerk. Dieses konnte kleine, etwa daumengroße Karten einlesen und beschreiben, mit denen Programme gespeichert und wieder abgerufen werden konnten – ein Feature, das bis dahin nur stationäre Computer mit Magnetband oder Lochkarten besaßen. Die Karten wurden über einen Schlitz oben am Gehäuse eingeschoben und mit einem simplen Motorstreifen eingezogen. Jeder Streifen konnte zwei Programme speichern, eines auf jeder Seite. Das System war so gestaltet, dass man z. B. eigene numerische Routinen, Integrationsverfahren oder Maschinenbauformeln direkt unterwegs programmieren und wiederverwenden konnte – etwas völlig Neues im Jahr 1974.

Der ursprüngliche Verkaufspreis betrug 795 US-Dollar, was inflationsbereinigt im Jahr 2025 etwa 4.370 Euro entspricht. Damit war der HP-65 eindeutig ein Gerät für Profis – Ingenieure, Wissenschaftler, Raumfahrttechniker. Und tatsächlich wurde der HP-65 sogar von der NASA auf Apollo- und Skylab-Missionen mitgeführt. Eine Pressemitteilung von HP im Jahr 1975 betonte stolz: „Der HP-65 ist nun weltraumtauglich und wird als rechnergestütztes Backup an Bord für die Missionsplanung eingesetzt..“ NASA-Ingenieur Bruce P. Smith sagte dazu: „Es war das einzige Gerät unseres Vertrauens, das klein genug zum Tragen und intelligent genug war, um die Flugbahn neu zu berechnen, wenn die Bordsysteme ausfielen.“

Der HP-65 hatte ein rotes LED-Display mit 15 Stellen, kein Grafikdisplay, keine Farben, keine Auflösung im heutigen Sinne. Der Bildschirm bestand aus Segmentanzeigen, wie sie in Digitaluhren üblich waren. Eine besondere Raffinesse war der dynamische Scrolling-Effekt: Bei langen Zahlen oder Programmbefehlen scrollte die Anzeige von rechts nach links, um den gesamten Inhalt anzuzeigen – ein Kunstgriff, der durch ausgeklügeltes Timing im Controller-Chip ermöglicht wurde.

Ein Betriebssystem im klassischen Sinne besaß der HP-65 nicht – seine „Firmware“ war ein Satz von 51 festen mathematischen Funktionen plus einem interpreterähnlichen Mikrocode, der die Programmschritte ausführte. Die Bedienung erfolgte über 35 Tasten, die je nach Modus bis zu drei Funktionen aufwiesen. Durch die Nutzung von Tastenkombinationen konnte der Nutzer zwischen numerischen, programmierbaren und Steuerbefehlen umschalten. Auch eine Sprungbefehlsstruktur mit Labels und Subroutinen war implementiert – quasi ein Mini-BASIC ohne Texteditor.

Der Speicher bestand aus 9 Speicherregistern (R0 bis R8) plus einem Stack mit vier Ebenen (X, Y, Z, T), wie im RPN-Design üblich. Massenspeicher im heutigen Sinn war das Magnetkartenlaufwerk – langsamer als RAM, aber mobil und zuverlässig. Externe Anschlüsse hatte der HP-65 keine. Peripheriegeräte waren keine vorgesehen – das Gerät war vollständig stand-alone, kein Interface, keine Netzwerkanbindung, kein Netzteilanschluss. Strom kam ausschließlich über einen integrierten Akku, der allerdings als notorisch fehleranfällig galt. Viele Besitzer der ersten Serien berichten davon, dass die Ladeeinheit überhitzte und die Nickel-Cadmium-Zellen beschädigte. Ein Service Bulletin von HP aus dem Jahr 1975 warnte davor, das Netzteil bei entnommenem Akku anzuschließen – ein seltener Designfehler für ein ansonsten fast perfektes Gerät.

Größe und Gewicht des HP-65 waren für damalige Verhältnisse sensationell: mit 13 × 8 × 3 cm und rund 300 Gramm war das Gerät wirklich „tragbar“, auch wenn es im Jackett ein ziemlicher Klotz blieb. Der Soundchip bestand aus einem einzigen Piezo-Piepser, der bei Fehlern oder Tastentönen ein einfaches Signal ausgab. Musik, Sprache oder gar Soundausgabe im heutigen Sinne gab es selbstverständlich nicht.

Trotz des stolzen Preises verkaufte HP in den ersten drei Jahren über 100.000 Einheiten – was für ein Gerät dieser Klasse, ohne Spiele, ohne Bildschirm, ohne Tastatur im klassischen Sinn, eine gigantische Zahl war. Die US-Zeitschrift BusinessWeek nannte den HP-65 „die eleganteste Maschine, die ein Wissenschaftler ohne Labor tragen kann“, und die New York Times titelte 1975: „Vom Raketenlabor in die Hemdtasche: HPs Taschenrechner weist den Weg“.

Konkurrenz gab es wenig: Texas Instruments brachte erst 1977 den TI SR-52 auf den Markt, der erstmals ein ähnliches Funktionspaket bot. Der SR-52 war günstiger, aber weniger zuverlässig – das Magnetkartenlaufwerk war mechanisch anfälliger, die Programmierung nicht so elegant gelöst. Ein späterer Vergleichstest im Magazin BYTE (1979) kam zum Urteil: „Der HP-65 fühlt sich wie ein Präzisionsinstrument an – der TI wie ein Spielzeug, das sich zu sehr anstrengt.“

Der HP-65 war ein voller Erfolg – technisch, wirtschaftlich, symbolisch. Er veränderte Hewlett-Packard grundlegend: Die Calculator Division wurde nach dem Erfolg massiv ausgebaut, das Unternehmen wandelte sich vom Instrumentenhersteller zum Innovator für mobile Datenverarbeitung. Es war der HP-65, der das Fundament für spätere Geräte wie den HP-41C oder den legendären HP-71 legte. Tom Osborne blieb bis Mitte der 80er bei HP und entwickelte unter anderem den HP-67 und HP-97 – direkte Nachfolger des HP-65, aber mit alphanumerischen Displays und erweitertem Speicher.

Man kann mit Fug und Recht sagen: Der HP-65 war kein Taschenrechner – sondern der erste Taschencomputer, auch wenn er noch keine Bits und Bytes im heutigen Sinn verarbeitete. In seinem Innersten war er ein mikrocodiertes Rechenwerk im Taschenformat – das erste, das man im Flugzeug, im Labor oder im Weltall einsetzen konnte. Und genau das machte ihn unsterblich.

 

Amiga 600

Amiga 600

olympus digital cameraDer Commodore Amiga 600, intern zunächst als Amiga 300 entwickelt, war 1992 Commodores Versuch, einen modernen, kompakteren Heimcomputer für Einsteiger auf den Markt zu bringen. Ursprünglich geplant als günstiger, abgespeckter Amiga 500 für die untere Preisklasse, wurde das Gerät unter dem Projektnamen „June Bug“ (eine Anspielung auf den B-52’s Song, wie auch „Rock Lobster“ beim A500) entwickelt – mit dem Ziel, das Lebensende des Amiga 500 einzuläuten und einen kleinen, kosteneffizienten Amiga für Spiele, Multimedia und Einsteiger zu etablieren. Doch Commodores Management entschied sich in letzter Minute für eine Namensänderung: Statt Amiga 300 sollte das Gerät als Amiga 600 erscheinen, was vielen Kunden suggerierte, es handle sich um einen größeren technischen Sprung. Das Gegenteil war der Fall. David Pleasance, späterer Chef von Commodore UK, beschrieb die Entscheidung rückblickend trocken: „Der Amiga 600 war ein kompletter und absoluter Unsinn – ein Produkt, das niemand wirklich haben wollte.“ In einem Interview mit Retro Gamer ergänzte er: „Das war keine Marktentscheidung, das war ein politisches Manöver. Niemand bei Commodore UK hatte den A600 verlangt – wir wurden damit überrumpelt.

Der Entwickler George Robbins, ein Veteran, der zuvor schon maßgeblich an der A500-Hardware gearbeitet hatte, hatte ursprünglich ein ganz anderes Gerät im Sinn: „Mein Plan war es, ein kostengünstiges A500 zu bauen – etwas einfaches, günstigeres, aber kompatibles. Herausgekommen ist ein aufgeblasenes Durcheinander mit sinnlosen Funktionen..“ Seine Kritik zielte insbesondere auf das Eingreifen des neuen Technikchefs Bill Sydnes, der von IBM gekommen war. Sydnes hatte beim IBM PCjr bereits einen umstrittenen Heimcomputer verantwortet und versuchte nun, dem Amiga 600 Features aus der PC-Welt einzuverleiben – unter anderem den 44-poligen IDE-Port und den PCMCIA-Steckplatz. Robbins kommentierte trocken: „Die Hinzufügung dieser Funktionen führte zu höheren Kosten, größerer Komplexität und verletzte die Kompatibilität – all die Dinge, die ich vermeiden wollte.“

Commodores Hardware-Ikone Dave Haynie brachte es gewohnt direkt auf den Punkt: „Die A600 war eine völlig unnötige Maschine. Sie kostete mehr in der Herstellung als eine A500, leistete weniger und hatte keinen Upgrade-Weg. Es war im Grunde ein Beispiel interner Politik.“ In einer Usenet-Diskussion einige Jahre später führte Haynie weiter aus: „Wir hätten ein echtes, kostengünstiges Amiga machen können, wenn sie zugehört hätten. Der A600 war nichts anderes als die gleichen alten Teile in einem kleineren Gehäuse und kostete mehr. Es gab keine Möglichkeit, einen schnelleren CPU oder ein echtes Grafik-Upgrade einzubauen.“ Damit meinte er unter anderem die Tatsache, dass fast alle Chips nun als SMD-Variante direkt verlötet waren – eine Premiere bei Amigas, die Erweiterungen nahezu unmöglich machte. Geplant war laut internen Quellen sogar kurzzeitig eine Variante mit integriertem Netzteil, ähnlich dem Konzept eines C64C. Haynie sagte dazu in einem privaten Interview: „Das Gehäuse war bereits zu eng. Ein integriertes Netzteil hätte es in einen Toaster verwandelt.“ Er deutete damit die thermischen Probleme an, die das kompakte Gehäuse bei Hitzeentwicklung verursacht hätte. Stattdessen blieb Commodore beim klassischen externen Netzteil – zwar nicht elegant, aber bewährt.

Technisch basierte der A600 auf dem Motorola 68000 mit 7,14 MHz (PAL), wie schon beim A500. Der ECS-Chipsatz erlaubte 1 MB Chip-RAM (max. 2 MB mit Erweiterung), Bildschirmauflösungen von 320 × 256 bis 1280 × 512 (interlaced), 32 Farben standardmäßig, 64 mit Extra Half-Brite oder theoretisch 4096 mit HAM-Modus. In der Praxis nutzten Spiele weiterhin 320 × 200 mit 16 bis 32 Farben – die höhere Auflösung war meist dem Workbench-Betrieb vorbehalten. Der Soundchip „Paula“ blieb gegenüber dem A500 unverändert: vier 8-Bit-Kanäle in Stereo, DMA-gesteuert. Ein Highlight war der PCMCIA-Port, der jedoch in der Praxis kaum genutzt wurde – es gab 1992 nur sehr teure und inkompatible Karten. Auch der interne IDE-Anschluss für 2,5″-Festplatten wurde wegen Kompatibilitätsproblemen der ersten ROM-Versionen kritisch gesehen. Haynie fasste es so zusammen: „Sie haben neue Hardwarefunktionen hinzugefügt, aber vergessen, sie im ROM zu unterstützen. Das ist einfach dumm.

Der A600 wurde mit Kickstart 2.05 und Workbench 2.0 ausgeliefert, später auch mit 2.1. Erst spätere ROM-Versionen erlaubten Booten von Festplatte, Locale-Unterstützung und CrossDOS. Für den Amiga 600 bedeutete CrossDOS insbesondere im beruflichen Umfeld eine wichtige Erweiterung: Der kleine Rechner konnte damit erstmals ohne Zusatzsoftware Daten mit PCs austauschen – eine essenzielle Funktion im Übergang zur MS-DOS-dominierten Arbeitswelt der frühen 90er.Das System war moderner als das 1.3er des A500, aber weniger kompatibel zu älteren Spielen. Viele Magazine legten ein Tool wie Relokick bei, um Kickstart 1.3 in den RAM zu laden. Trotz modernerem OS blieb das System für viele Retrospiele-Fans ein Rückschritt.

Der Listenpreis lag bei ca. 800 DM, inflationsbereinigt rund 830 Euro (2025). Die Variante A600HD mit 20 MB-Festplatte kostete rund 1.200 DM, heute etwa 1.250 Euro. Verkaufszahlen weltweit werden auf etwa 190.000–250.000 Einheiten geschätzt, wobei Deutschland zu den stärkeren Märkten gehörte. Ein Bruchteil der über 4 Millionen verkauften Amiga 500 – und damit ein deutliches Zeichen: Dieses Modell konnte nicht an die Erfolge anknüpfen. Das Urteil der Fachpresse fiel durchwachsen aus: CU Amiga lobte 1992 das kompakte Design und die Festplattenoption, kritisierte aber die fehlende Zifferntastatur. Amiga Format nannte den A600 „eine merkwürdige Zwischen-Generation, nach der niemand gefragt hat“. In Deutschland schrieb 64’er trocken: „Wer vom A500 auf den A600 umsteigt, zahlt drauf – an Preis wie an Leistung.“ Im Rückblick wurde der A600 etwa von Ars Technica als „worst Amiga ever“ bezeichnet. Ein wirtschaftlicher Wendepunkt war der A600 nicht. Er markierte eher den Anfang vom Ende. Commodore verlor 1992 zunehmend Marktanteile an PC und Konsolen, der A600 verwirrte die Kundschaft, kostete zu viel und konnte nichts besser als sein Vorgänger. Der einzige nennenswerte Fortschritt: Die Nutzung von Laptop-Technologien wie PCMCIA und 2,5″-Festplatten wurde für spätere Modelle wie den A1200 übernommen.

Trotz all seiner Schwächen hat der A600 heute Kultstatus. Wegen seines platzsparenden Designs und moderner Erweiterungsmöglichkeiten via FPGA oder CF-Karten ist er heute bei Bastlern beliebt. Als Produkt seiner Zeit bleibt er dennoch: ein Kompromiss, geboren aus Unsicherheit, Fehlentscheidungen und zu viel Manager-Einfluss. Oder, wie Haynie es abschließend formulierte:
Wenn Commodore sich auf echte Innovationen anstatt auf interne Ego-Kriege konzentriert hätte, hätte der A600 etwas sein können. Aber was wir bekamen, war die Antwort auf eine Frage, die niemand gestellt hat.

 

CBM 500-Serie

CBM 500-Serie

b500

Image is taken from: https://vintagecomputer.net/cbm_b_prototypes.cfm

Die CBM 500-Serie war Teil der CBM-II-Familie, einer ambitionierten aber letztlich gescheiterten Neuausrichtung des Unternehmens Commodore Anfang der 1980er Jahre. Anders als ihre Namensvettern der 600er- und 700er-Modelle richtete sich die 500er-Linie nicht primär an den professionellen Büromarkt, sondern umfasste sowohl Business- als auch Personal-Modelle. Dabei war die Modellserie nicht ein einzelner Rechner, sondern eine vollständige Plattform mit unterschiedlicher Ausstattung und Zielsetzung. Zu den bekanntesten Modellen gehören der P500, B500, B505, B510 und der mit besonders großzügiger RAM-Bestückung versehene B520. Letzterer war bereits ab Werk mit 256 KB RAM ausgestattet – ein für 8-Bit-Systeme beachtlicher Wert und Ausdruck der Systemarchitektur, die Speicherbank-Umschaltung (Bank Switching) systemseitig unterstützte.

Die Gestaltung der Gehäuse war ein Bruch mit dem bis dahin kantigen Design der PET-Reihe. Verantwortlich für das elegante, flache Profil der 500er-Modelle war Ira Velinsky, ein Industrie-Designer, der sich unter anderem durch den PET-2001-Prototypen sowie den tragbaren Atari Stacy einen Namen gemacht hatte. Das Gehäuse war durchgehend flach, mit integrierter Tastatur und vorbereitetem Slot für externe Erweiterungen und Zubehör. Die CBM 500-Reihe war somit als modern wirkende Plattform für verschiedene Zielgruppen gedacht – ein Plan, der jedoch an Marktfragmentierung und strategischer Unsicherheit scheitern sollte.

Die gesamte Serie basierte auf dem MOS 6509-Prozessor, einer Weiterentwicklung des 6502, der durch einen integrierten Memory Management Controller in der Lage war, bis zu 1 MB RAM zu adressieren. Standardmäßig waren je nach Modell 64 KB (beim B505), 128 KB (u.a. beim P500) oder eben 256 KB (beim B520) verbaut. Der 6509 war mit 1 MHz beim P500 sowie 2 MHz bei den B-Modellen getaktet. Während der höhere Takt bei den Business-Geräten für mehr Rechenleistung sorgte, führte er zugleich zu gravierenden Kompatibilitätsproblemen bei der Verwendung des ebenfalls verbauten SID 6581 Soundchips, der ursprünglich für den C64 bei 1 MHz ausgelegt war. Im P500, dessen CPU mit 1 MHz lief, konnte der SID korrekt angesprochen werden und lieferte dieselben drei Kanäle und Filterfähigkeiten wie im C64. In den B-Modellen jedoch war der SID faktisch funktionslos, da der Bus-Zugriff durch die Taktinkompatibilität gestört wurde – ein Umstand, der in internen Entwicklerberichten offen eingeräumt wurde.

Ein wesentlicher Unterschied der P-Serie war der eingebaute VIC-II-Grafikchip, identisch mit dem des C64. Er ermöglichte eine Auflösung von 320×200 Pixeln bei 16 gleichzeitig darstellbaren Farben, mit den bekannten Sprites und Rasterinterrupt-Fähigkeiten. Die B-Serie hingegen verwendete einen Textmodus-Chip (MOS 6545 oder kompatibler CRTC), der für 80×25 Zeichen in Monochromdarstellung optimiert war – ideal für Tabellenkalkulation, Textverarbeitung oder Terminalemulation, aber ungeeignet für grafisch anspruchsvolle Aufgaben.

Ein oft übersehener technischer Fortschritt war die Integration eines echten RS-232-Ports, etwas, das bis dahin keinem anderen 8-Bit-Commodore-Computer zuteilwurde. Kombiniert mit den IEEE-488-Anschlüssen und dem klassischen User-Port standen dem System zahlreiche Kommunikations- und Erweiterungsmöglichkeiten offen. Der P500 bot zudem zwei Atari-kompatible Joystickports – ebenfalls ein klares Indiz für seine ursprünglich vorgesehene Rolle als gehobener Heimcomputer.

Als Betriebssystem diente Commodore BASIC 4.0, erweitert um Speicherbanking und Systemfunktionen. Neben BASIC stand ein Maschinenmonitor zur Verfügung, über den Speicherbereiche manuell angesprochen und programmiert werden konnten. Trotz der technischen Fähigkeiten mangelte es an kompatibler Software – insbesondere der P500, der nie offiziell in den Handel kam, verfügte lediglich über eine einfache Demo, die auf Messen und im Vertrieb gezeigt wurde. Aufgrund der mangelnden Kompatibilität zu C64-Software, des weitgehend geschlossenen Software-Ökosystems der CBM-II-Reihe und der sehr geringen Verbreitung wurden kaum Anwendungen entwickelt. Dies betraf sowohl die Heimcomputer-orientierten P-Modelle als auch die professionellen B-Modelle.

Preise lagen je nach Ausstattung zwischen rund 900 und 1.400 US-Dollar, was heute inflationsbereinigt rund 2.800 € bis 4.300 € entspricht – ein stolzer Preis für Geräte, die in Sachen Softwareunterstützung und Marktakzeptanz deutlich hinter den Erwartungen blieben. Die wenigen gefertigten Exemplare des P500 wurden nie offiziell verkauft, sondern meist an Entwickler oder internationale Händler gegeben, später teilweise zurückgerufen. Die B-Serie schaffte es hingegen in kleine Stückzahlen in den Vertrieb, insbesondere in Europa. Vom B520, dem Spitzenmodell der Serie, sind heute nur wenige erhaltene Geräte dokumentiert.

Die Entwicklerliste liest sich wie ein „Who’s Who“ der frühen Mikrocomputerzeit: Chuck Peddle, der Architekt des 6502 und des 6509, Bill Seiler, der mitverantwortlich für die Boardarchitektur war, sowie der junge Dave Haynie, der später zum zentralen Hardwarearchitekten der Amiga-Reihe wurde. Velinskys Designarbeit verlieh der Serie optisch ein modernes Gesicht – technisch jedoch blieb sie zwischen den Stühlen.

Verglichen mit dem C64 hatte die CBM 500-Serie zwar nominell mehr RAM, eine leistungsfähigere CPU und bessere Erweiterbarkeit – doch sie war nicht kompatibel zur gigantischen C64-Softwarebibliothek. Die CBM/PET-Reihe wiederum wurde ersetzt, ohne dass das neue System nahtlos anschloss. Gegenüber dem aufkommenden IBM-PC-Standard fehlte CP/M- oder MS-DOS-Kompatibilität. Und so wurde die CBM 500-Serie kein Retter, sondern ein Relikt – zu früh, zu teuer, zu isoliert.

Heute ist sie unter Sammlern ein seltenes Juwel. Funktionstüchtige Geräte – vor allem P500-Prototypen oder voll ausgestattete B520-Systeme – erzielen Höchstpreise und gelten als eine der technisch spannendsten, wenn auch kommerziell tragischsten Episoden der Commodore-Geschichte. Ein perfektes Beispiel dafür, wie ein Unternehmen gleichzeitig zu viele Ideen verfolgt – und dabei seine erfolgreichste Linie, den C64, fast aus den Augen verliert.

Windows 2.0

Windows 2.0

windwos 2 titleIm Dezember 1987 veröffentlichte Microsoft mit Windows 2.0 ein Betriebssystem, das auf den ersten Blick wie eine unspektakuläre Weiterentwicklung wirkte, tatsächlich aber ein entscheidender Meilenstein in der Geschichte grafischer Benutzeroberflächen auf dem PC war. Nach dem mäßigen Erfolg von Windows 1.01, das Ende 1985 erschienen war, erkannte man bei Microsoft schnell, dass man noch einen langen Weg vor sich hatte, um im GUI-Markt Fuß zu fassen. Bill Gates äußerte sich dazu bereits im Frühjahr 1986 in einem internen Memo: „Die grafische Benutzeroberfläche ist die Zukunft. Wir haben es beim ersten Mal nicht richtig gemacht, aber wir können es uns nicht leisten, es nicht noch einmal zu versuchen.“

Die Entwicklung von Windows 2.0 startete kurz nach der Veröffentlichung von Version 1.01. Die Leitung übernahm erneut Tandy Trower, der bereits beim Vorgänger an vorderster Front stand. Unterstützt wurde er u. a. von David Weise und Nathan Myhrvold. Weise schilderte seine Motivation rückblickend: „Windows 1.0 war nicht meine Vorstellung von einer Fensterumgebung. Ich wollte noch einmal von vorn anfangen und es diesmal richtig machen.

Windows 2.0 wurde rund anderthalb Jahre lang entwickelt und existierte intern in mehreren Zwischenversionen, die allerdings nie öffentlich zugänglich waren. OEM-Partner wie Compaq und Zenith erhielten Vorabfassungen, um die Kompatibilität zu testen und Feedback zu liefern. Besonders Compaq spielte eine zentrale Rolle, da sie Microsoft drängten, den neuen Intel 80386-Prozessor voll auszunutzen. So entstand neben der regulären Windows-2.0-Version auch Windows/386, eine technisch deutlich fortgeschrittenere Variante.

windows 2.0Diese Version nutzte erstmals den „Virtual 8086 Mode“ des 386ers, um mehrere gleichzeitige DOS-Sitzungen in voneinander isolierten Speicherbereichen auszuführen – ein Vorläufer heutiger Virtualisierung. Die Entwickler bei Microsoft bezeichneten das Feature intern scherzhaft als „multiboxing“. In einer späteren Pressemitteilung beschrieb Microsoft diese Fähigkeit als „den bedeutendsten Fortschritt im PC-Multitasking seit der Erfindung des Timesharing-Systems.“

Windows/386 unterstützte sowohl den sogenannten Extended Memory als auch den Expanded Memory (EMS nach LIM-Standard), der über spezielle Speicher-Hardware wie Intel Above Board realisiert wurde. Das berühmte 640-KB-Limit von DOS konnte so auf raffinierte Weise umgangen werden. David Weise erklärte das Konzept so: „Wir mussten DOS austricksen, damit es denkt, es wäre allein. Es war, als hätte man mehrere kleine DOS-Maschinen innerhalb einer großen.“

Das Betriebssystem erschien am 9. Dezember 1987 in zwei Hauptvarianten: Windows 2.03 (Standard) und Windows/386 2.01. Weitere Zwischenupdates folgten 1988 (u. a. Version 2.1x), vor allem zur Fehlerbehebung und um neue Hardware wie VGA-Grafikchips zu unterstützen. Microsoft veröffentlichte diese Versionen meist stillschweigend, da sie primär OEMs wie IBM und Compaq zugedacht waren.

Ausgeliefert wurde Windows 2.0 je nach Format auf fünf 5,25-Zoll-Disketten oder drei 3,5-Zoll-Disketten. Der Speicherbedarf auf der Festplatte betrug je nach Konfiguration zwischen 1,2 und 1,5 MB. Die Mindestanforderungen: ein IBM-kompatibler PC mit 8086/88- oder 286-Prozessor, 512 KB RAM, MS-DOS 3.0 oder höher, monochrome oder CGA-, EGA-, Hercules-Grafik, Diskettenlaufwerk – eine Festplatte und Maus wurden empfohlen, waren aber nicht zwingend.

Microsoft lieferte Windows 2.0 mit einer ganzen Reihe von Zusatzprogrammen aus, darunter:

  • Write (einfache Textverarbeitung)

  • Paint (ursprünglich „Paintbrush“ – simples Malprogramm)

  • Notepad

  • Kalender, Uhr, Rechner, Clipboard

  • Control Panel für Systemeinstellungen

  • sowie frühe Versionen von Dynamic Data Exchange (DDE), mit dem Programme erstmals miteinander kommunizieren konnten

windows 2.0So konnte zum Beispiel ein in Write eingefügter Wert aus einer Excel-Tabelle automatisch aktualisiert werden – eine Funktion, die später als OLE (Object Linking and Embedding) weiterentwickelt wurde.

Die Einführung von überlappenden Fenstern – vorher war nur ein Nebeneinander möglich – löste jedoch nicht nur technische Begeisterung, sondern auch rechtlichen Ärger aus. Im April 1988 reichte Apple eine Klage gegen Microsoft und Hewlett-Packard ein. Der Vorwurf: Windows 2.0 habe das Erscheinungsbild („Look & Feel“) des Macintosh unrechtmäßig kopiert, insbesondere Fenster mit Titelleisten, Icons, Menüleisten und überlappende Darstellungen. Microsoft verteidigte sich mit Verweis auf ein Abkommen von 1985, in dem Apple Microsoft die Nutzung bestimmter GUI-Elemente für Windows 1.0 gestattet hatte. Microsoft argumentierte, dass diese Vereinbarung auch für Windows 2.0 gelte – was Apple anders sah.

Ein Apple-Manager schrieb später in einer während des Verfahrens veröffentlichten E-Mail resigniert: „Wir haben ihnen den Stift gegeben – und sie haben den Rest des Bildes damit gezeichnet.“

Nach jahrelangem Rechtsstreit entschied ein US-Bundesgericht 1993 endgültig zugunsten von Microsoft. Die Begründung: Grafische Bedienkonzepte wie Fenster, Icons und Menüs seien funktionale Elemente und daher nicht urheberrechtlich schützbar. Dieses Urteil hatte weitreichende Folgen und prägte die GUI-Rechtslage für Jahrzehnte. Bill Gates kommentierte das Ergebnis später in einem Interview trocken: „Wir haben nichts gestohlen. Wir haben das gemacht, was Xerox schon vorher gemacht hatte, nur besser.

In Sachen Markterfolg war Windows 2.0 ein verhaltener Fortschritt. Microsoft konnte schätzungsweise etwa zwei Millionen Einheiten bis zur Einführung von Windows 3.0 im Jahr 1990 absetzen. Der Einführungspreis lag bei rund 99 US-Dollar, was inflationsbereinigt heute etwa 270 bis 280 Dollar entspräche. Microsoft selbst sah Windows 2.0 weniger als Endprodukt, sondern als strategische Brücke. Bill Gates äußerte damals: „Es geht nicht darum, den Markt sofort zu erobern. Wir legen nur die Puzzlestücke aus.“ Und David Weise ergänzte: „Wir haben nicht einfach ein Betriebssystem gebaut – wir haben eine Brücke zwischen Vergangenheit und Zukunft geschaffen.

Im Vergleich zur Konkurrenz war Windows 2.0 eine Art Chamäleon: Apples System 5.0 auf dem Macintosh war eleganter, schneller und konsistenter – aber nur auf Apple-Hardware nutzbar. Commodores GEOS bot sogar auf dem C64 eine grafische Oberfläche auf zwei Disketten mit 64 KB RAM. IBM OS/2, das mit Microsoft gemeinsam entwickelt wurde, war ambitionierter, aber schwerfälliger – und litt darunter, dass Microsoft mit Windows parallel ein konkurrierendes System aufbaute. Bei IBM nannte man Windows damals intern „eine unkontrollierte Nebenstraße“.

Heute ist Windows 2.0 vor allem ein Stück Technikgeschichte – ein Bindeglied zwischen dem wenig erfolgreichen Windows 1.x und dem großen Durchbruch mit Windows 3.0. Ohne seine Einführung hätte es weder die „3.x“-Reihe noch Windows 95 in dieser Form gegeben. Auch wenn es nie das Rampenlicht erhielt, das spätere Versionen genossen, war es doch ein entscheidender Mosaikstein in Microsofts Plan, den PC-Markt zu dominieren. Wie Gates selbst es einst sagte: „Das hier ist kein Sprint. Es ist ein Marathon. Und Windows 2.0 ist unser erster Schritt mit richtigen Laufschuhen.

Vector 1

Vector 1

vector1Im Jahr 1976, als der Begriff "Personal Computer" noch mit Schraubenzieher und Lötzinn gleichgesetzt wurde, gründeten Lore Harp McGovern, Carole Ely und Robert Harp im sonnigen Kalifornien das Unternehmen Vector Graphic Inc. Die Vision: nicht nur leistungsfähige Computer zu bauen, sondern auch solche, die benutzerfreundlich und optisch ansprechend waren. Während Harp als Ingenieur die technische Leitung übernahm, trieb Harp McGovern als CEO die strategische Entwicklung voran. Ihre Mission war klar: Technik aus dem Bastelkeller in den Büroalltag zu bringen. Mit Mut zur Farbe, strukturiertem Design und klarem Fokus auf Bedienbarkeit stach Vector Graphic schnell aus der damaligen Nerd-Nische heraus.

Ursprünglich konzentrierte sich das Unternehmen auf Erweiterungskarten für den populären S-100-Bus, insbesondere RAM-Module und Grafikkarten. Diese wurden bald für ihre hohe Qualität und gute Dokumentation bekannt, was Vector Graphic rasch einen guten Ruf unter Early-Adopters und Systemintegratoren einbrachte. Erst als der Bedarf an kompletten Systemen stieg – insbesondere solchen, die man nicht erst aus 20 Einzelteilen zusammensetzen musste –, entschied man sich, ein eigenes Komplettsystem zu entwickeln: den Vector 1.

vector1 topless1977 stellte das Unternehmen schließlich diesen Vector 1 vor – einen S-100-Bus-basierten Mikrocomputer, der für professionelle Anwendungen gedacht war und die rohe Bastelästhetik des Altair 8800 oder IMSAI 8080 hinter sich ließ. In einem robusten Metallgehäuse, erhältlich in den Farben Grün oder "Rust", steckte ein Intel 8080A-Prozessor mit 2 MHz, gepaart mit einem Kilobyte RAM. Das klang nach wenig – war aber über den S-100-Bus, dem damals führenden Industriestandard, auf bis zu 64 KB erweiterbar. Der S-100-Bus, ursprünglich von MITS für den Altair entwickelt, war ein Steckplatzsystem mit 100 Kontakten, über die CPU-, Speicher- und Peripheriekarten miteinander kommunizierten. Vector Graphic nutzte dieses System voll aus und stattete den Vector 1 mit bis zu 18 dieser Slots aus – eine Plattform, die mit dem Unternehmen und den Anforderungen der Nutzer wachsen konnte.

Anders als viele seiner Zeitgenossen verzichtete der Vector 1 auf eine batterielose Kippschalter-Programmierung und setzte stattdessen auf eine einfache Benutzeroberfläche mit nur zwei Tasten: Reset und Start. "Two-touch computing" nannte das Lore Harp in Werbematerialien – ein mutiger Marketingansatz in einer Ära, in der das Programmieren von Bootsequenzen per Hand als Männlichkeitsritual galt.

Zum Preis von 849 US-Dollar (bzw. 619 Dollar als Bausatz) bot der Vector 1 ein solides Angebot. Inflationsbereinigt entspricht das heute etwa 3.300 Euro. Geliefert wurde der Rechner mit einem einfachen Monitor-ROM zur Basiskontrolle, doch über ein optionales Tarbell-Kassetteninterface oder spätere Diskettencontroller ließ sich CP/M laden – das populärste Betriebssystem seiner Zeit. Auch firmeneigene Textverarbeitungssysteme wie Flashwriter oder Memorite wurden angeboten und machten den Vector 1 zu einem echten Büroarbeitsplatz.

Im Inneren des Gehäuses steckte eine robuste Metallrahmenstruktur mit einem integrierten Netzteil (mit +8V, +16V, -16V Spannungen), einer Backplane für S-100-Karten und den erwähnten Einsteckkarten – CPU, RAM und serielle Schnittstellen gehörten zur Grundausstattung. Erweiterungskarten für parallele I/O, Floppycontroller oder auch grafische Terminals konnten einfach nachgerüstet werden. Der später erschienene Vector 1+ verfügte sogar über ein integriertes Diskettenlaufwerk – eine Seltenheit im S-100-Segment und ein klarer Hinweis auf den Office-Fokus der Entwickler.

Die Ausgabe erfolgte über externe Terminals wie das ADM-3A – 80 Zeichen auf 24 Zeilen, monochrom in grün oder bernstein. Grafikausgabe im eigentlichen Sinne gab es nicht. Ebenso wenig wie Sound. Der Vector 1 war kein Spielzeug, sondern ein ernstzunehmendes Werkzeug – und das war auch gut so. Wer einen Piepton wollte, konnte sich über S-100-Karten behelfen, doch Multimedia war hier kein Thema.

Vector Graphic schaffte es mit dem Vector 1, mehrere tausend Einheiten abzusetzen – vor allem an Universitäten, kleine Unternehmen und technische Bildungseinrichtungen. Der jährliche Umsatz stieg bis 1982 auf rund 36 Millionen US-Dollar. Man wurde an der NASDAQ gelistet, beschäftigte etwa 400 Mitarbeiterinnen und Mitarbeiter und war kurzzeitig einer der erfolgreichsten unabhängigen Computerhersteller in den USA. Doch der Markt veränderte sich rasant. Der IBM-PC dominierte ab 1981 das Geschäft, und S-100-Systeme gerieten ins Hintertreffen.

Carole Ely and Lore Harp

Carole Ely and Lore Harp - erkennbar ist die Größe des Vector 1

Technisch war der Vector 1 gegenüber Altair und IMSAI überlegen: stabiler Aufbau, integriertes Netzteil, klares Design, bessere Dokumentation. Gegenüber dem IBM PC, Atari ST oder Amiga jedoch fehlten Grafik, Sound und ein integriertes Betriebssystem mit grafischer Oberfläche. Doch der Vector 1 hatte nie den Anspruch, ein Heimcomputer zu sein – er war Bürogerät mit System.

Die Gründer prägten das Unternehmen maßgeblich. Lore Harp McGovern, später Mitbegründerin der McGovern-Stiftung für neurowissenschaftliche Forschung, war eine der wenigen weiblichen CEOs im Silicon Valley der späten 70er. Carole Ely leitete Marketing und Vertrieb. Robert Harp war Chefentwickler und verantwortete unter anderem das Design der frühen RAM-Module.

Der Vector 1 öffnete Vector Graphic den Weg zu größeren Systemen wie dem Vector 3 und Vector 4 – doch mit dem Ende der S-100-Ära und dem Aufstieg des IBM-kompatiblen Standards verlor das Unternehmen an Relevanz. 1987 folgte schließlich die Insolvenz.

Trotzdem bleibt der Vector 1 ein wichtiger Meilenstein: als frühes Beispiel für benutzerfreundliches Hardwaredesign, als Wegbereiter für Bürocomputer und als Zeugnis einer Ära, in der Computer langsam aus der Heimwerkernische ins Licht der Öffentlichkeit traten – geführt von einem Team, das technisches Gespür mit Mut zum Design verband. Und das ganz ohne blinkende Schalterparade.

 

Apple IIgs

Apple IIgs

apple iigs

Von All About Apple museum official web site - http://www.allaboutapple.com

Der Apple IIgs wurde im September 1986 zum zehnjährigen Firmenjubiläum von Apple vorgestellt und gilt als Höhepunkt der Apple-II-Reihe. Er kombinierte die vertraute Apple‑II‐Kompatibilität mit deutlich verbesserten Multimediafähigkeiten – das „gs“ steht für Graphics und Sound. Als Einführungspreis wurden 999 US‑Dollar festgesetzt (ohne Monitor), was heute inflationsbereinigt etwa 2.500 € entsprechen würde. Zum Lieferumfang gehörte ein 3,5″-Diskettenlaufwerk, jedoch kein Monitor. Die ersten rund zehntausend produzierten Geräte waren als „Woz Edition“ bekannt und trugen auf der Front das eingravierte Autogramm von Apple-II-Erfinder Steve Wozniak – ein Hinweis darauf, wie sehr Apple diesen Computer als legitimen Nachfolger des legendären Apple II positionieren wollte. Die Apple-II-Gemeinde reagierte begeistert; so zeigte das Magazin inCider im Oktober 1986 einen strahlenden Wozniak auf dem Cover mit der Schlagzeile „It’s Amazing!“ (übersetzt etwa: „Es ist unglaublich!“).

Die Entwicklung des Apple IIgs begann unter dem Codenamen „Phoenix“ (Phönix), passend zum Motto eines wiederauferstandenen Apple II. Mitte der 1980er war der Umsatz des Apple II trotz des Erfolgs des Macintosh immer noch bedeutend, insbesondere im Bildungsbereich. Ein Team erfahrener Apple‑II-Ingenieure drängte daher auf eine Modernisierung der inzwischen in die Jahre gekommenen Plattform. Den technologischen Anstoß lieferte der neue WDC 65816/65C816–Prozessor der Western Design Center, ein 16-Bit-Nachfolger des klassischen 6502. Dieser Chip konnte im sogenannten Emulationsmodus alle Befehle des 8-Bit-6502 ausführen und zugleich dank 24-Bit-Adressbus bis zu 16 MB Speicher ansprechen. Als Apple-Mitgründer Steve Wozniak 1983 nach längerer Auszeit ins Unternehmen zurückkehrte, begeisterte er sich sofort für die Möglichkeiten dieses Chips. Wozniak, der den Original-Apple‑II konstruiert hatte, setzte sich dafür ein, den neuen Rechner einfach und kompatibel zu halten. So lehnte er etwa einen zweiten Hauptprozessor (wie einen Motorola 68000) ab und schlug vor, den 8-Bit-Bereich des Systems strikt vom neuen 16-Bit-Bereich zu trennen. Dieses Konzept floss maßgeblich in die Architektur des IIgs ein.

Das Entwicklerteam bestand aus erfahrenen Apple-II-Spezialisten. Dan Hillman, zuvor technischer Leiter des gescheiterten Apple‑IIx-Projekts, übernahm das Hardware-Engineering und die Integration des neuen Prozessors. Nancy Stark gilt als eine der frühesten und energischsten Fürsprecherinnen des Projekts innerhalb Apples. Curtis Sasaki fungierte als Produktmanager, Ed Colby als Zuständiger für die CPU-Komponenten, und Harvey Lehtman leitete die Entwicklung der Systemsoftware. Weitere wichtige Beiträge kamen von Rob Moore, der die neuen Grafik- und Soundmodi mitdefinierte, sowie von Gus Andrate, der die Sound-Tools und Firmware für Laufwerke entwickelte. Steve Wozniak selbst stand dem Team beratend zur Seite und sein Einfluss zeigte sich auch in symbolischen Details wie der bereits erwähnten Signatur am Gehäuse. Wozniak wird rückblickend mit den Worten zitiert, der neue 65C816-Chip könne in hohen Taktfrequenzen sogar den Macintosh-Prozessor 68000 „in den meisten Anwendungen schlagen“ – eine optimistische Prognose, die allerdings nicht in vollem Umfang Realität wurde.

Prozessor und Leistung: Das Herzstück des Apple IIgs ist der 65C816 mit 16‑Bit-Registern, der im IIgs standardmäßig mit 2,8 MHz getaktet war. Zum Vergleich: Frühere Apple‑II-Modelle nutzten 8-Bit-Chips mit 1 MHz. Tatsächlich war der im IIgs verbaute 65C816 oft für 4 MHz zertifiziert, doch Apple beließ den Takt aus ungeklärten Gründen bei 2,8 MHz. Viel wurde darüber spekuliert, Apple habe die CPU absichtlich gedrosselt, um den Macintosh nicht in Verlegenheit zu bringen. Ob diese Marketing-Theorie stimmt, ist umstritten – Steve Jobs, der ein entschiedener Förderer des Macintosh war, hatte Apple bereits 1985 verlassen. Wahrscheinlicher ist, dass technische Faktoren wie Timing-Probleme mit langsamerer Peripherie ausschlaggebend waren. Ungeachtet der Taktfrequenz bot der 65C816 einen riesigen Schritt nach vorn: Er beherrschte einen 8-Bit-Kompatibilitätsmodus, so dass der IIgs praktisch einen vollständigen Apple IIe emulieren konnte. Die untersten 128 KB des Speichers wurden als sogenanntes Slow RAM implementiert und verhielten sich exakt wie beim Apple II (inklusive der nichtlinearen Speicherorganisation für Text- und Grafikmodus). In diesem Bereich lief auch alte 8-Bit-Software unverändert und sogar zeitgenau – auf Wunsch konnte der Nutzer per Kontrollfeld die Systemgeschwindigkeit von „Normal“ (ca. 1 MHz) auf „Fast“ (2,8 MHz) umschalten. Alles oberhalb dieses Bereichs nutzte den vollen 16-Bit-Modus. Der Hauptspeicher des IIgs war anfangs 256 KB RAM (später 512 KB und ab 1989 sogar 1 MB) und via Speicherkarte auf 8 MB erweiterbar– eine gewaltige Kapazität im Vergleich zu den 128 KB eines Apple IIe. Auf dem Motherboard befand sich zudem der Mega II–Chip, der nahezu die gesamte Logik eines Apple IIe in einem IC vereinte. Diese Apple‑II-kompatible Hardware und die neue CPU arbeiteten Hand in Hand und machten den IIgs zur schnellsten und leistungsfähigsten Apple-II-Variante.

In puncto Video war der Apple IIgs seinen Vorgängern und auch manchem Konkurrenten voraus. Neben allen alten Modi (Text, Hi-Res und Double Hi-Res) führte er einen Super-High-Resolution–Grafikmodus ein. Die maximale Auflösung betrug zwar weiterhin 640 × 200 Bildpunkte (aus Kompatibilitäts- und Kostengründen verzichtete Apple auf höhere Zeilenzahlen), doch erstmals standen 4096 Farben zur Verfügung. Im praxisnahen 320 × 200 Modus konnten pro Bildschirmzeile 16 beliebige Farben aus dieser 12-Bit-Palette dargestellt werden. Durch geschicktes Palette-Switching ließ sich theoretisch eine Grafik mit bis zu 256 Farben gleichzeitig erzeugen, in Spezialfällen sogar bis zu 3200 verschiedenen Farbtönen über den ganzen Bildschirm verteilt. Im hochauflösenden 640 × 200 Modus waren 4 Farben pro Zeile möglich. Diese Fähigkeiten übertrafen den Macintosh jener Zeit, der 1986 nur Schwarz-Weiß-Grafik bot. Auch gegenüber dem Atari ST und Commodore Amiga schlug sich der IIgs wacker – alle drei Systeme boten eine Farbpalette von 4096 Farben. Apple entschied sich bewusst dafür, die Horizontalauflösung zu erhöhen statt die Vertikale, um teure Spezialmonitore zu vermeiden und die Abwärtskompatibilität zu bewahren. Die Grafikadressierung wurde im IIgs endlich linear organisiert, was Programmierern die Arbeit erleichterte (beim Apple II waren Pixel bekanntlich auf verworrene Speicheradressen verteilt). Ein dedizierter Video-Controller-Chip (VGC) mit 32 KB eigenem Bildspeicher sorgte dafür, dass trotz Speicheraufteilung zwei 16-KB-Blöcke als kontinuierlicher Grafikpuffer erschienen. Insgesamt bedeutete der Apple IIgs einen Quantensprung für Apple‑II-Grafik: Farbfotos und aufwändige GUI-Elemente wurden erstmals möglich. Zeitgenössische Stimmen lobten zwar die Grafikqualität, bemängelten aber zugleich, dass man aus Rücksicht auf alte Apple‑II-Programme auf radikale Innovationen verzichtet habe. Das Magazin BYTE kommentierte im Oktober 1986 etwa, die Leistung der IIgs -Designer sei „bemerkenswert, aber die Last der klassischen Apple‑II-Architektur, nun so ehrwürdig (und veraltet) wie COBOL und Stapelverarbeitung, hat sie vielleicht heruntergezogen und ihnen echte Technologiesprünge verwehrt“.

Noch deutlicher stach der Apple IIgs in der Klangausgabe hervor. Apple verbaute einen Ensoniq 5503 Digital Oscillator Synthesizer-Chip – derselbe 8-Bit-Wavetable-Soundchip, den Ensoniq in professionellen Synthesizern wie dem Mirage und ESQ-1 einsetzte. Der Chip, entworfen von Bob Yannes (dem Schöpfer des SID-Chips im Commodore 64), besitzt 32 Oszillatoren und damit bis zu 32 unabhängige Stimmen. Apple koppelte je zwei Oszillatoren zu einem Kanal, wodurch dem System standardmäßig 15 polyphone Stimmen in Stereo zur Verfügung standen. (Ein Kanal wurde zur Takterzeugung reserviert, daher oft die Angabe „15 Stimmen“.) In der Praxis entsprach dies immer noch einer nie dagewesenen Soundfülle für einen Heimcomputer Mitte der 1980er – Nibble schwärmte vom „Traumcomputer“ und merkte an, dass bis auf die niedrigere Geschwindigkeit „nur der IIgs den Macintosh deutlich unterbietet – bei Grafik und Ton übertrifft er ihn sogar“. Tatsächlich galt der Apple IIgs bis in die frühen 90er Jahre hinein als der leistungsfähigste Heimcomputer für Musikapplikationen. Der Ensoniq-Chip verfügte über 64 KB eigenen Sound-RAM für Wavetables und arbeitete größtenteils autonom: Lief im Hintergrund Musik, konnte sie sogar weiterspielen, wenn das Hauptprogramm abstürzte. Ein kleiner Wermutstropfen war, dass Apple aus Kostengründen nur einen monoauralen 3,5‑mm-Kopfhöreranschluss bereitstellte. Der Chip selbst unterstützt Stereoausgabe und Eingabe (A/D-Wandler integriert); entsprechende Drittanbieter-Karten konnten den bereits vorhandenen Stereo-Sound „freischalten“, ohne zusätzliche Chips einzubauen. Für viele Anwender rechtfertigte allein die hochwertige Soundausgabe den Preis des IIgs: „Die Audiofähigkeiten stehen in einer eigenen Klasse... [sie] rechtfertigen den Preis für viele Musikfans“ schrieb Compute! im November 1986.

Äußerlich orientierte sich der Apple IIgs am Design des Apple IIc (flaches, cremefarbenes Gehäuse), war aber größer dimensioniert, da er wieder die klassischen Erweiterungssteckplätze bot. Insgesamt sieben Slots im Gehäuse erlaubten die Nutzung fast aller Karten für Apple II/II+ und IIe – ein deutlicher Vorteil gegenüber den geschlossenen Macintosh-Modellen und auch gegenüber dem kompakteren Apple IIc. Zusätzlich gab es einen internen Speichererweiterungs-Steckplatz, über den bis zu 8 MB RAM nachgerüstet werden konnten. Der IIgs war damit sehr ausbaufreundlich; viele Drittanbieter brachten Beschleunigerkarten (bis 10 MHz+), SCSI-Controller, Sound- und Netzwerkkarten auf den Markt. An externen Schnittstellen besaß der IIgs zwei Diskettenanschlüsse (für 5,25″-und 3,5″-Laufwerke), zwei serielle RS-422-Ports für Drucker, Modem oder Vernetzung, einen Composite-Video-Ausgang (FBAS) für Fernsehmonitore sowie einen Apple-typischen 15-poligen RGB-Monitoranschluss. Bemerkenswert ist, dass der IIgs als erster Computer von Apple den neuen Apple Desktop Bus (ADB) einführte – eine serielle Bus-Schnittstelle zum Anschließen von Tastatur, Maus und anderen Eingabegeräten. (ADB wurde kurz darauf auch beim Macintosh II übernommen und blieb über ein Jahrzehnt Apple-Standard.) Ein kleiner Lautsprecher war wie bei allen Apple II integriert, hauptsächlich für Systemtöne. Maße und Gewicht des Hauptgeräts lagen bei ca. 11,7 × 28,4 × 34,8 cm (H×B×T) und 3,96 kg. Das Netzteil lieferte 60 Watt. An der Geräterückseite befand sich zudem ein Batteriefach für die Pufferbatterie der Echtzeituhr.

Standardmäßig bootete der Apple IIgs von Diskette. Apple lieferte meist ein 800‑KB-3,5″-Laufwerk (Apple 3.5 Drive) mit und unterstützte natürlich auch die älteren 140‑KB-5,25″-Disketten der Vorgänger. Über eine Steckkarte konnte ein SCSI-Festplattenlaufwerk angeschlossen werden, was viele Nutzer in Anspruch nahmen – Apple bot hierfür eine offizielle „Apple II High-Speed SCSI“-Karte an. Auch CD-ROM-Laufwerke ließen sich in den späten 80ern über SCSI anbinden. Dank der cleveren Systemsoftware konnte der IIgs sogar übers Netzwerk starten (booten): Mit einer AppleTalk-Karte (Workstation Card) verhielt sich ein Apple IIgs im AppleShare-Netz wie ein Netzwerk-Boot-Terminal, lange bevor es vergleichbare Funktionen auf dem Mac gab. Dieses Feature, 1988 eingeführt, erlaubte etwa Schulklassen, Software zentral vom Server zu laden, anstatt Disketten zu verteilen. Im Laufe der Jahre erschien diverses externes Speichermedium für den IIgs, von Streamer-Bandlaufwerken bis ZIP‑Disketten, meist durch Dritthersteller – begünstigt durch die offenen Erweiterungs-Slots.

Ausgeliefert wurde der Apple IIgs mit einer erweiterten Version des Apple-II-Betriebssystems ProDOS 16 und einer an den Macintosh angelehnten grafischen Benutzeroberfläche. Tatsächlich war der IIgs der erste Apple-Computer mit einem farbigen Desktop und Fenstersystem – der farbfähige Macintosh II kam erst ein halbes Jahr später auf den Markt. Die IIgs -Oberfläche, anfangs Apple II Desktop genannt, wurde bald zu GS/OS weiterentwickelt. GS/OS kombinierte die Einfachheit von ProDOS mit einer Maussteuerung, Fenstern, Menüs und Icons, die dem Mac-System nachempfunden waren. Apple integrierte ein Kontrollfeld zum Einstellen von Parametern wie Taktfrequenz, Bildschirmfarben, Sound und Peripherie – all das wurde in einer batteriegepufferten RAM-Zelle gespeichert, so dass Nutzerprofile erhalten blieben. Viele Komponenten der Systemsoftware stammten aus der Macintosh-Welt: So half Mac-Entwickler Bill Atkinson bei der Portierung der Grafikroutinen (QuickDraw II) für den IIgs. Die Apple-II-Abteilung und Macintosh-Abteilung waren 1985 zusammengelegt worden, was den Know-how-Transfer erleichterte. Unter der Haube lief auf dem IIgs weiterhin auch das alte ProDOS 8 für 8-Bit-Programme – Apple sorgte dafür, dass nahezu alle Apple‑IIe- und IIc-Programme auf dem IIgs liefen. Der Kompatibilitätsmodus war so umgesetzt, dass auch Timing-trickreiche Software wie Spiele oder Demos funktionierte, notfalls durch Drosseln auf 1 MHz. Für Neuentwicklungen bot GS/OS hingegen moderne APIs, ein Geräte-Treiber-Modell und Unterstützung für größere Massenspeicher. Apple lieferte Systemdisketten mit einem Finder-ähnlichen Datei-Browser, Desktop-Zubehör und dem Installer aus. Spätere Updates (System 5, System 6) verbesserten den IIgs weiter und fügten Funktionen hinzu, die der Mac erst mit System 7 erhielt (z. B. einen eigenständigen Fonts-Ordner für Schriften). Die Weiterentwicklung der Software hielt bis 1993 an und wurde von der treuen Apple‑II-Community aufmerksam verfolgt. Allerdings zeigten sich Schwierigkeiten: Viele Entwickler zögerten, Software exklusiv für den IIgs zu schreiben. Stattdessen passten etliche Hersteller bestehende Apple‑II-Programme nur oberflächlich an (etwa durch Farbgrafik und Mausbedienung), um kein Risiko einzugehen. 1987 berichtete inCider, dass viele Publisher geplante IIgs -Projekte gestoppt hätten und stattdessen weiter für die alten IIe/IIc veröffentlichten. Das wohl populärste Programm auf dem IIgs war daher anfangs ausgerechnet AppleWorks, die Textverarbeitung/Tabelle/DB-Suite, die eigentlich noch für den Apple IIe entwickelt worden war. Leistungsfähige neue IIgs -Anwendungen kamen nur zögerlich auf den Markt. Dieser Mangel an Software bremste die Verbreitung des Systems erheblich – eine Erkenntnis, die Apple letztlich in seiner zukünftigen Strategie bestärken sollte (für den Macintosh achtete man früh darauf, genügend Entwicklerunterstützung zu sichern).

Trotz der zurückhaltenden offiziellen Unterstützung arbeiteten einige Apple-Ingenieure und Drittentwickler weiter daran, den IIgs auszubauen. Apple selbst stellte 1988 die bereits erwähnte Workstation Card vor, um Apple II im Netzwerk zu betreiben. Anschließend begann eine kleine Gruppe, an einer waschechten Ethernet-Karte für den Apple II zu entwickeln – ein damals ungewöhnliches Unterfangen. Erste Prototypen dieser Ethernetkarte nutzten sogar einen eigenen 65C02- bzw. später 65C816-Prozessor auf der Karte und 128 KB ROM für Netzwerk-Boot-Funktionen. Apple kündigte an, die Ethernetkarte 1992 zusammen mit GS/OS 6.0.1 auszuliefern, doch bevor es dazu kam, wurde das Projekt aus wirtschaftlichen Gründen abgebrochen. Noch ambitionierter war der Plan für einen verbesserten Apple IIgs „ROM 04“, Codename Mark Twain. Apple CEO John Sculley erwähnte im Herbst 1988, man arbeite an einem neuen Apple‑II-Modell in den nächsten 12–18 Monaten. Tatsächlich entstand 1990 ein weiterentwickelter IIgs -Prototyp: Er besaß 2 MB RAM auf der Platine (mit SIMM-Steckplätzen für weitere Module), einen auf 8 MHz getakteten 65C816, eingebautes SuperDrive-Diskettenlaufwerk (3,5″ 1,44 MB, kompatibel auch zu MS-DOS-Disketten) und eine interne 40-MB-SCSI-Festplatte. Der Mark-Twain-Entwurf integrierte also vieles, was beim ursprünglichen IIgs noch optional oder extern war, und schaffte den alten Speicherkarten-Slot zugunsten moderner SIMMs ab. Sogar HyperCard IIgs sollte vorinstalliert sein. Auffällig war allerdings, dass die CPU-Geschwindigkeit nicht signifikant erhöht wurde – offenbar wollte Apple die Kompatibilität und Stabilität nicht riskieren. Der Codename Mark Twain spielte augenzwinkernd auf das berühmte Zitat an: „Die Berichte über meinen Tod sind stark übertrieben“. Doch leider fehlte diesem Projekt ein hochrangiger Fürsprecher im Management. 1991 wurde Mark Twain in letzter Minute zurückgezogen und nie offiziell vorgestellt. Nur wenige Prototypen gerieten später in Sammlerhände. Damit blieb der im August 1989 veröffentlichte Apple IIgs „ROM 03“ (eine Revision mit 1 MB Grundspeicher und einigen Firmware-Verbesserungen) die letzte Ausbaustufe, die in den Handel kam.

Technisch war der Apple IIgs zur Einführung ein außergewöhnlich ausgewogener Heimcomputer. Er verband die millionenfache Software-Basis der Apple‑II-Welt mit einem moderaten Preis und modernen Features. Compute! bezeichnete ihn treffend als „zwei Maschinen in einer – ein Produkt, das die Brücke schlägt zwischen dem Macintosh und dem Apple IIe, und damit eine ernsthafte Konkurrenz für den Commodore Amiga und Atari ST darstellen könnte“. In der Praxis stand der IIgs jedoch genau zwischen diesen Welten und hatte Mühe, sich gegen beide Seiten zu behaupten. Gegenüber den Vorgängern Apple IIe/IIc punktete der IIgs mit seiner 16-Bit-Leistung, Farb-GUI, besserer Grafik und Ton und den Erweiterungsmöglichkeiten – doch er war deutlich teurer als ein einfacher IIe und benötigte für viele Aufgaben weiterhin Disketten oder Zubehör, die in Schulen schon vorhanden waren. Manchen Anwendern erschien der IIgs im Alltag kaum schneller, da viele Apple‑II-Programme keine Optimierung für die 16-Bit-CPU hatten und praktisch im alten 1-MHz-Modus liefen. Gleichzeitig war der IIgs nicht ganz auf Augenhöhe mit den Konkurrenten seiner Zeit: Ein Atari 1040ST oder Amiga 500 (beide um 1987 populär) besaßen vollwertige 16/32-Bit-Motorola-CPUs mit 8 MHz und boten ebenfalls Grafik mit 4096 Farben sowie grafikoptimierte Betriebssysteme – und das zu oft niedrigeren Preisen. BYTE verglich Anfang 1987 ein IIgs -System (mit Farbmonitor, zwei Laufwerken, Drucker für ~2.500 $) mit einem Atari-ST-Paket für ~1.500 $ und stellte nüchtern fest, der IIgs sei „in vielen Bereichen eher trailing-edge als leading-edge“ (also Technik von gestern statt Spitze von morgen). Zwar lobte das Magazin die Entscheidung von Apple, überhaupt noch einen modernen Apple II herauszubringen – allerdings wäre dies „ein paar Jahre früher“ besser gewesen und Apple sei „nicht weit genug gegangen“.

Auf der Habenseite standen beim IIgs die fast nahtlose Abwärtskompatibilität (inklusive offizieller Umrüst-Kits, um aus einem Apple IIe einen IIgs zu machen), die massive Software-Bibliothek an 8-Bit-Programmen und Spielen, sowie die enorme Ausbaufähigkeit durch Steckplätze – etwas, das weder der Amiga 500 noch der Atari ST in vergleichbarer Weise boten. Auch der eingebaute Apple Desktop Bus und die AppleTalk-Netzwerkfähigkeit waren Pluspunkte in professionellen Umgebungen. Für Kreative war die Audioqualität des IIgs ein wichtiges Pro-Argument gegenüber anderen Plattformen (die erst Jahre später mit Sampling-Karten vergleichbares boten). Dennoch blieb der IIgs in Benchmarks oft hinterher: 16-Bit-Software wie GS/OS oder Grafikanwendungen liefen zwar, aber nicht so flüssig wie vergleichbare Anwendungen auf den Motorola-68000-Systemen. Diese relative Langsamkeit wurde zum Dauerthema – 1988 drängte Compute! Apple, den Rechner endlich schneller zu machen, „denn egal wie man es dreht – der IIgs ist langsam“. Doch Apple brachte keine Beschleunigung mehr heraus und überließ diese dem Zubehörmarkt (etwa ZIP-GSX-Beschleuniger bis 7 MHz). Ein weiterer Kritikpunkt war der Preis: Durch Aufrüstungen konnte ein voll ausgestatteter IIgs so teuer werden wie ein deutlich leistungsfähigerer Macintosh oder PC, was viele Käufer abschreckte. Außerdem setzte Apple die Prioritäten im Vertrieb klar auf den Macintosh – Apple-Händler wurden angewiesen, Kunden eher zum Mac als zum IIgs zu lenken, mit dem Argument, die Apple-II-Linie werde ohnehin eingestellt. Diese self-fulfilling prophecy schadete den IIgs -Verkäufen zusätzlich.

Erfolg, Verkaufszahlen und Vermächtnis: Trotz aller Vorschusslorbeeren konnte der Apple IIgs den kommerziellen Erwartungen nicht gerecht werden. Apple nannte zwar nie offizielle Stückzahlen, doch interne Quellen beziffern die gesamt verkauften Einheiten auf deutlich unter eine Million. Zum Vergleich: Vom Apple IIe hatte Apple insgesamt über 5 Millionen Stück abgesetzt, vom C64 sogar rund 12–15 Millionen. Anfangs soll die Nachfrage für den IIgs hoch gewesen sein – die ersten 50.000 Geräte waren Berichten zufolge binnen weniger Wochen bestellt. Allerdings verzögerte sich die breite Auslieferung bis November 1986 wegen Problemen mit neuen Custom-Chips. In dieser Zeit kam bereits neue Konkurrenz auf (IBM PC ATs, VGA-Grafikstandards etc.). 1987 brachte Apple den günstigeren Apple IIc Plus heraus, der dem IIgs kannibalisierend gegenüberstand. Gleichzeitig feilte Apple fieberhaft am Macintosh-II-Lineup. Marketingkampagnen für den IIgs blieben spärlich – ein paar Anzeigen in Apple-II-Magazinen, aber keine große Werbeoffensive. Im Bildungsmarkt blieb der robuste Apple IIe noch lange im Einsatz, so dass viele Schulen den teureren IIgs übersprangen. In der Community wurde Apple vorgeworfen, das Potential des IIgs mutwillig brachliegen zu lassen. 1989, gut drei Jahre nach Einführung, war der IIgs laut inCider nur noch der viertschnellste Apple II – hinter einem getunten IIe mit Beschleunigerchip und sogar hinter dem Apple IIc Plus (der mit 4 MHz Takt lief). Apple selbst stellte die Produktion des IIgs schließlich am 4. Dezember 1992 offiziell ein, während der betagte Apple IIe noch bis 1993 als Auftragsprodukt erhältlich war. Zum Abschied veröffentlichte Apple 1993 ein letztes System-Update (GS/OS 6.0.1) im Internet, doch schon zuvor hatte sich die Apple-II-Abteilung praktisch aufgelöst.

Die Frage, ob der Apple IIgs das Unternehmen Apple in eine „neue Richtung“ führte, muss verneint werden. Eher markiert der IIgs den Schlusspunkt einer Ära. Er stellte das technisch Machbare innerhalb der Apple‑II-Architektur eindrucksvoll unter Beweis, konnte Apple jedoch nicht vom strategischen Schwenk auf den Macintosh-Kurs abbringen. Intern war bereits seit Steve Jobs’ Rückzug 1985 klar, dass die Zukunft bei der Macintosh-Plattform liegen sollte. Der IIgs diente primär dazu, der riesigen Apple-II-Anwenderbasis einen sanften Übergang zu ermöglichen und diese noch einige Jahre zu halten. Apple erfüllte dieses Versprechen insofern, als man bestehende Apple‑II-Investitionen der Kunden achtete – etwa durch den später eingeführten Apple IIe-Karten-Einschub für den Macintosh LC, der einem Mac die vollständige Apple‑IIe-Hardware integrierte. Doch ein echter Neubeginn war der IIgs nicht: Er blieb eine Nischenmaschine für Enthusiasten, Heimanwender und Schulen, während Apple parallel mit dem Macintosh II (1987) und dessen Nachfolgern den Markt der leistungsfähigen 32-Bit-Rechner eroberte. Immerhin floss manches Konzept des IIgs in spätere Produkte ein – etwa der ADB-Anschluss oder die Idee farbiger Benutzeroberflächen. Aus historischer Sicht wird der Apple IIgs heute als einzigartiger Hybrid gesehen: „Arguably the finest assemblage of chips and resistors ever soldered together“, lobte das Nibble-Magazin begeistert – „zweifellos eine der feinsten Ansammlungen von Chips und Widerständen, die je zusammengelötet wurden“. Gleichzeitig war er aber auch ein Computer, der zu spät kam und zu wenig unterstützt wurde. Nichtsdestotrotz genießt der Apple IIgs Kultstatus. Er war der letzte Apple, dessen Design noch die Handschrift von Steve Wozniak trug, und für viele Fans bleibt er Woz’ letzter großer Apple II – ein liebevoll entwickeltes System, das den Übergang von der 8-Bit- in die 16-Bit-Welt verkörperte, auch wenn es den Weg des Unternehmens letztlich nicht mehr ändern konnte.