Oric 1

Oric-1: Der ehrgeizige Heimcomputer aus der zweiten Reihe der 80er Jahre

Source: https://www.computinghistory.org.uk/det/526/Oric-1-48k/

Als der Oric-1 im Jahr 1983 in Großbritannien erschien, traf er in einen Markt, der durch schnelle technische Entwicklungen und wachsenden Preisdruck geprägt war. Tangerine Computer Systems, bis dahin vor allem durch den Microtan 65 in der Bastlerszene bekannt, wollte mit diesem neuen Modell den Schritt vom Baukastenrechner zum vollwertigen Heimcomputer schaffen. Für die Vermarktung wurde Oric Products International Ltd gegründet, denn man plante bewusst ein Gerät, das im Massenmarkt bestehen sollte, mit einem klaren Ziel: eine Alternative zum ZX Spectrum zu bieten, die preislich konkurrenzfähig blieb, aber in mehreren Punkten technisch überzeugender wirken sollte. Die gesamte Entwicklung wird heute dem britischen Tangerine-Team zugeschrieben; einzelne namentliche Hauptentwickler sind in zeitgenössischen Dokumenten nicht gesichert überliefert.

Der Rechner basierte auf dem MOS Technology 6502A mit 1 MHz, einem Prozessor, der sich in zahlreichen erfolgreichen Heimcomputern der Zeit bewährt hatte. Der Oric-1 erschien in zwei RAM-Varianten, 16 KB und 48 KB, wobei die größere Version den Markt dominierte. Das 16-KB-ROM enthielt das Betriebssystem und ein speziell an den Rechner angepasstes BASIC. Die Tastatur bestand aus einzelnen Hartplastiktasten; zeitgenössische Berichte beurteilten sie unterschiedlich, von „funktionell“ bis „gewöhnungsbedürftig“, jedoch war sie klar getrennt beweglich und unterschied sich damit deutlich vom Gummitastatursystem des Spectrum. Für die interne Logik nutzte Oric einen kundenspezifischen Gate-Array-Baustein, der mehrere Funktionen bündelte und für die Kostenoptimierung eine entscheidende Rolle spielte.

Die Grafikmodi boten 240 × 200 Pixel bei acht Farben sowie 40-Zeichen-Textmodi, jeweils mit bestimmten Einschränkungen durch Farbblockbildung, die für Heimcomputer dieser Generation typisch waren. Der AY-3-8912 als dreikanaliger Tonchip stellte eine echte Mehrstimmigkeit bereit und wurde in Testberichten positiv erwähnt, besonders im Vergleich zu einfacheren Tonausgaben anderer preisgünstiger Geräte. Die Kassetten­schnittstelle war offiziell für Datenraten zwischen 300 und 2400 Baud ausgelegt, wobei Testberichte eher von mittleren, zuverlässigeren Werten ausgingen. Diese Angaben entsprechen dem, was aus britischen und französischen Magazinen des Jahres 1983 dokumentiert ist.

Auf dem britischen Markt erhielt der Oric-1 zunächst beachtliche Aufmerksamkeit, doch das Softwareangebot wuchs langsamer als bei seinen direkten Konkurrenten. Die Spectrum-Plattform hatte bereits einen deutlichen Vorsprung, und auch der Preisvorteil im unteren Marktsegment spielte Sinclair weiterhin in die Hände. Auffällig erfolgreich entwickelte sich dagegen der französische Markt, wo Oric durch lokale Vertriebsstrukturen deutlich präsenter war und eine engagierte Anwenderszene entstand. Der Rechner blieb dennoch im Schatten des Spectrum und des Commodore 64, deren Marktanteile schneller stiegen und deren Softwarebibliotheken durch größere Verlage und etablierte Entwicklerstudios erweitert wurden.

Preislich positionierte sich der Oric-1 aggressiv. Zeitgenössische Anzeigen führen für die Markteinführung rund £99.95 für die 16-KB-Version und £169.95 für die 48-KB-Variante auf. Inflationsbereinigt entspricht dies heute ungefähr 370 Euro beziehungsweise etwa 630 Euro. Dieser Preisrahmen zeigt klar, wie Oric seine Rolle sah: preislich näher beim Spectrum, technisch näher an Geräten wie dem VC-20 oder dem Atari 400, aber ohne deren teils höheren Endverbraucherpreise. Die frühen Produktionsreihen des Oric-1 sind in einigen Testberichten durch Hinweise auf bestimmte ROM-Revisionen und vereinzelt Tape-Handling-Probleme dokumentiert, doch darüber hinausgehende Aussagen zu systematischen Fertigungsfehlern lassen sich nicht belegen.

Bereits 1984 wurde der Oric-1 durch den Oric Atmos abgelöst, der ein überarbeitetes ROM und eine verbesserte Tastatur erhielt. Rückblickend bleibt der Oric-1 ein Beispiel für die Vielfalt der britischen Heimcomputerentwicklung zu Beginn der achtziger Jahre: technisch solide, klar strukturiert und mit einem Leistungsspektrum, das ihn theoretisch gut zwischen seinen Wettbewerbern hätte positionieren können. Dass er letztlich nicht die gleiche Marktdurchdringung erreichte, lag weniger an seiner technischen Basis als an der Dynamik eines Marktes, in dem Sinclair, Commodore und zunehmend auch internationale Hersteller bereits dominierende Rollen einnahmen. Dennoch markiert der Oric-1 einen wichtigen Moment dieser Ära, in der mehrere britische Firmen versuchten, eigene Architekturen zu etablieren und damit ihre Unabhängigkeit gegenüber der wachsenden Konkurrenz zu bewahren.

Amiga 3000 – Die Maschine, die für Profis gedacht war, aber Fans gewann

Amiga 3000 – Die Maschine, die für Profis gedacht war, aber Fans gewann

Als Commodore im Frühjahr 1990 den Amiga 3000 präsentierte, schien der große Sprung in die professionelle Computerwelt vollzogen. Der Rechner, entwickelt von den Teams in West Chester (Pennsylvania) und Braunschweig, war keine Revolution, sondern die verfeinerte Vollendung des Amiga 2000 – präziser, stabiler, aufgeräumter. In ihm zeigte sich, wie weit Commodores Ingenieure den ursprünglichen Amiga-Gedanken treiben konnten, wenn sie freie Hand bekamen. Für unsere Generation war er geradezu ein Traum und preislich unendlich fern. Jedoch nicht für alle. Kurz nach Einführung besaß ein alter Klassenkamerad dieses Stück Hardware. Dass er sich das leisten konnte, lag möglicherweise an seinen Mailboxen und der Beteiligung an namhaften Cracker-Truppen und ihrem erträglichen Handwerk – aber das ist eine andere Geschichte und soll ein anderes Mal erzählt werden …

Im Inneren des Amiga 3000 arbeitete ein Motorola 68030 mit 16 oder 25 MHz, optional ergänzt durch eine 68882-FPU. Damit zog der Amiga erstmals vollständig in die 32-Bit-Welt ein, ohne externe Beschleunigerkarten wie beim Amiga 2500 zu benötigen. Ab Werk war der Rechner mit 1 MB Chip-RAM und 1 MB Fast-RAM ausgestattet, erweiterbar auf 2 MB Chip- und bis zu 16 MB Fast-RAM. Händler boten häufig aufgerüstete Versionen mit 4 MB Fast-RAM an, um ihn für DTP- und Grafikaufgaben attraktiver zu machen.

In der Anfangsphase zeigte sich Commodores Hang zur Improvisation: Kickstart 2.0, das neue ROM-Betriebssystem, war zum Serienstart noch nicht fertig. Daher wurden die ersten Amiga 3000 mit sogenannten Boot-ROMs ausgeliefert, ähnlich wie einst der Amiga 1000. Zur Einordnung: Kickstart war das Grundsystem des Amiga, gewissermaßen das Betriebssystem im ROM. Es enthielt den Kernel, die grafischen Routinen, den Speicher- und Geräte-Manager – das Rückgrat, auf dem Workbench und alle Programme aufbauten. Ohne Kickstart startete kein Amiga. Während es bei Modellen wie dem A500 oder A2000 fest im ROM lag, musste es bei frühen A3000-Serien noch von Diskette oder Festplatte nachgeladen werden.

Im ROM befand sich ein rudimentäres System, Kickstart 1.4 Beta, das beim Einschalten ein vollständiges Kickstart-Image von Diskette oder Festplatte lud. Dafür war mindestens 1 MB Fast-RAM (DIP oder ZIP) erforderlich, da das Image dort abgelegt wurde. Diese frühen ROMs funktionierten nur mit der MMU des 68030 – wer später eine 68040- oder 68060-Karte einsetzte, erlebte böse Überraschungen: Das System bootete schlicht nicht. Durch Drücken beider Maustasten ließ sich beim Einschalten ein Bootmenü aufrufen, in dem man zwischen Kick 1.3 und Kick 2.x wählen konnte. Das jeweils benötigte Kickstart-File erwartete der Rechner unter „Wb_2.x:devs/kickstart“ oder „Wb_1.3:devs/kickstart“. Klickte man im Menü mit der Maus in die linke obere Ecke, startete das rudimentäre Kickstart 1.4 direkt aus dem ROM – eine versteckte Notfunktion, die Commodore-Techniker liebevoll eingebaut hatten.

Ein Nachteil dieser Lösung: Da das Kickstart-Image im oberen Bereich des Fast-RAM lag, standen rund 512 KB weniger Speicher zur Verfügung. Erst spätere Revisionen mit echten ROM-Bausteinen – zunächst in einem ROM-Tower, später fest gesockelt – enthielten ein vollwertiges Kickstart 2.0, wodurch dieser Speicher wieder frei wurde und der Bootvorgang erheblich schneller verlief.

Das Amiga-Grafiksystem war weiterhin ein Musterbeispiel für elegantes Hardware-Design. Der Blitter erlaubte schnelle Blockverschiebungen, während der programmierbare Bildgenerator und der Sprite-Controller flüssige Animationen ermöglichten. Die Bildwiederholfrequenz betrug 50 oder 60 Hertz. Die Auflösungen reichten von 320 × 256 bis 1280 × 512 Pixel. Im Overscan-Modus ließ sich der sichtbare Bereich erweitern, wodurch bei Video- und Titelanwendungen die Bildränder verschwanden. In der höchsten Auflösung konnten vier Farben gleichzeitig dargestellt werden, in niedrigeren Modi bis zu 32 oder 4096 Farben – Letzteres mit Einschränkungen, aber für 1990 beeindruckend.

Zur Wahrung der Kompatibilität bot der A3000 sämtliche Standard-Amiga-Grafikmodi über die bekannte 23-polige RGB-Buchse bei 15 kHz Zeilenfrequenz. Besitzer von Multisync-Monitoren, die 31 kHz verarbeiten konnten, kamen dank des neuen „Amber“-Chips erstmals in den Genuss flimmerfreier VGA-Darstellung – ein Quantensprung für professionelle Nutzer.

Eine weitere Besonderheit des A3000 war das aufgesetzte Daughterboard, das beim A3000 die Erweiterungssteckplätze bereitstellte – also den Grafikkarten-Slot, die Zorro-III- und die ISA-Steckplätze. Bei einigen frühen Revisionen waren die ISA-Ports allerdings falsch bestromt, und generell sind deren Datenleitungen nicht direkt mit dem Amiga-Bus verbunden. Um sie nutzen zu können, benötigte man eine Bridgeboard-Karte mit eigener x86-CPU, die die ISA-Steckplätze aktivierte. Unter Kickstart 1.3 ließ sich das Daughterboard zu Testzwecken sogar weglassen; ab Kickstart 2.0 führte dessen Fehlen jedoch zu einem gelben Bildschirm – ein klares Signal für fehlende Bus-Initialisierung.

Auf dem Daughterboard saß auch der Super Buster, Commodores zentraler Buscontroller. Er vermittelte zwischen CPU, Speicher und den Amiga-Erweiterungsbussen und diente als Bindeglied zwischen Zorro II und dem neuen Zorro III. In der Praxis blieb seine Entwicklung jedoch unvollendet: Es existierten mehrere Revisionen mit teils deutlichen Unterschieden. Die frühen A3000-Varianten (Revisionen bis 7) boten nur eine grundlegende Unterstützung von Zorro III und verzichteten auf echtes DMA; Zorro-III-Karten liefen hier lediglich im kompatiblen Zorro-II-Modus, was die Leistung deutlich einschränkte. Spätere Überarbeitungen, beginnend mit Revision 9 (bekannt aus dem A4000), führten DMA ein und verbesserten die Performance geringfügig, enthielten jedoch einen Fehler im Busmanagement, der unter bestimmten Umständen zu Systemhängern führen konnte. Erst Revision 11, wie sie im A4000T serienmäßig und für den A3000 als Nachrüst-Upgrade erhältlich war, bot eine stabile DMA-Unterstützung für einen Busmaster – genug für professionelle Anwendungen, aber noch nicht das ursprünglich geplante Zorro-III-Ideal.

Um diese Revision überhaupt einsetzen zu können, musste der A3000 mit der 25-MHz-Variante des Boards ausgestattet sein; die 16-MHz-Version war damit nicht kompatibel. Der Super Buster blieb damit ein Beispiel für Commodores typischen Spagat zwischen Vision und Umsetzbarkeit – ein konzeptionell ambitioniertes Bauteil, das sein volles Potenzial nie ganz entfalten konnte.

Mit dem Zorro III-Bus führte Commodore die erste vollständig 32-Bit-fähige Amiga-Architektur ein. Theoretisch lag die Bandbreite bei 150 MB/s, realistisch erreichten Systeme 6 bis 15 MB/s, abhängig von DMA-Controller und Peripherie. Entscheidend war weniger der Wert als das Konzept: abwärtskompatibel, DMA-fähig und zukunftssicher.

Ebenfalls neu war der integrierte SCSI-Controller, der Zusatzkarten überflüssig machte und echten DMA-Zugriff erlaubte. Zusammen mit Workbench 2.0, dem Fast File System und der neuen GUI wurde der A3000 zum stabilsten und zuverlässigsten Amiga, den Commodore je gebaut hatte.

Das Gehäuse war flach, hellgrau und sachlich – „Kein Spielzeug mehr“, schrieb die c’t 1990, „sondern ein echter Arbeitscomputer mit Unix-Ambitionen.“ Eine Variante mit Amiga Unix SVR4 (A3000UX) fand ihren Platz in Universitäten und technischen Instituten. Dave Haynie resümierte später: „The 3000 was the machine we always wanted to build if management had just let us.“ (Der 3000 war die Maschine, die wir immer bauen wollten, wenn uns das Management nur gelassen hätte.)

Der Einführungspreis lag bei 3499 US-Dollar (heute etwa 8400 Euro). In Deutschland kostete die 100-MB-SCSI-Variante rund 6 000 DM, also 10 200 Euro inflationsbereinigt. Damit stand der A3000 in direkter Konkurrenz zu Workstations wie der NeXTstation oder dem Atari TT030 – aber mit unverkennbar eigenem Charakter.

Zeitgenössische Magazine zogen ein klares Fazit. Amiga Format schrieb: „The A3000 is the Amiga grown up – fast, serious and stylish.“ (Der A3000 ist der erwachsen gewordene Amiga – schnell, ernsthaft und elegant.) Das Amiga Magazin befand: „Ein Traum für alle, die ernsthaft arbeiten wollen und trotzdem den Spaß am Amiga behalten möchten.

Der Amiga 3000 blieb ein Computer für Kenner – zu teuer für Heimanwender, zu speziell für den Büromarkt, aber technisch makellos. Ein Rechner, der aus Leidenschaft und Ingenieursgeist entstand, nicht aus Marketing.

(mein besonderer Dank geht an "Frank H Aus L", der mit seinem Fachwissen und seiner Expertise diesen Artikel erst ermöglicht hat).

NCR Decision Mate V

Zwei Prozessoren, eine Mission: Der erstaunliche NCR Decision Mate V

Der Rechner basierte in der Grundversion auf einem Zilog Z80A, konnte jedoch durch ein optionales Intel-8088-Modul zu einem echten Dualprozessor-System erweitert werden. Einige Konfigurationen wurden bereits ab Werk mit dieser Erweiterung ausgeliefert, ein Umstand, den die Werbung ausdrücklich hervorhob und mit Formulierungen wie „You shouldn’t have to choose between 8-bit and 16-bit operating systems.“ sowie „With our dual processing system you can have the benefits of both.“ unterstrich. Diese modulare Architektur stützte sich auf eine proprietäre Backplane mit sieben Steckplätzen, wie es auch Prospekte und technische Unterlagen zeigen, und war typisch für die modulare NCR-Philosophie jener Zeit.

Zum Standardumfang gehörten zwei 5,25-Zoll-DS/DD-Diskettenlaufwerke, die optional durch eine 10-MB-Winchesterfestplatte ergänzt werden konnten. Die kompakte Bauweise mit integriertem 12-Zoll-Monitor verlieh dem Gerät eine professionelle Erscheinung, die sich bewusst von den damals üblichen, eher kastenförmigen IBM-PC-Konfigurationen unterschied. In Anzeigen wurde dieser Ansatz emotionalisiert: „The personal computer with a heart.“ und „We designed it with a heart.“ waren Slogans, die den Anspruch unterstreichen sollten, ein durchdachtes, langlebiges System zu liefern.

Eine der stärksten Eigenschaften des Systems lag im Grafikbereich. Der verbaute NEC µPD7220 gehörte zu den fortschrittlichsten Grafikprozessoren seiner Zeit und war auch in deutlich teureren Maschinen wie dem NEC APC III oder frühen CAD-Workstations zu finden. Zeitgenössische Tests wie Creative Computing oder InfoWorld betonten regelmäßig, dass die Grafikleistung dem IBM PC klar überlegen war. Die Architektur des Systems erklärt die auffällig flexible Speicheraufteilung: Im Monochrommodus genügten 32 KB, während im Farbmodus drei planare Ebenen – Rot, Grün und Blau – parallel arbeiteten und damit 96 KB belegten (32 KB pro Ebene). Die Werbung stellte dies als selbstverständlich dar und betonte: „Graphics are built into every machine.“

Eher zwiespältig fiel die Rückmeldung zur Tastatur aus. Zwar bewarb NCR sie als „detachable low-profile keyboard“ und mit „advanced ergonomic design“, doch einige Tester der Zeit empfanden den Anschlag als weicher und weniger präzise als bei den mechanischen Tastaturen von IBM oder Cherry. Die Tastenform unterschied sich sichtbar vom Industrie­standard, und die zwanzig programmierbaren Funktionstasten, mit denen „boring repetitive tasks“ vermieden werden sollten, konnten für anspruchsvolle Vielschreiber nicht alle Kritikpunkte ausgleichen. Gleichwohl blieb die Tastatur voll funktionsfähig und entsprach in ihrer Verarbeitung den übrigen Qualitätsmerkmalen des Systems – sie war schlicht kein besonderes Highlight.

Die Softwareunterstützung war für ein nicht-IBM-kompatibles System ungewöhnlich breit: CP/M-80, CP/M-86 und – bei installiertem 8088-Modul – auch MS-DOS 2.11 standen zur Verfügung. Vollständige PC-Kompatibilität bestand zwar nicht, doch viele textorientierte Programme liefen problemlos, sofern sie BIOS-konform arbeiteten. Creative Computing nannte die damaligen gängigen Preise: Das 16-Bit-Upgrade kostete rund 500 Dollar, MS-DOS etwa 50 Dollar, CP/M-86 rund 60 Dollar und WordStar 495 Dollar. Eine typische, gut ausgestattete Konfiguration lag damit bei etwa 5.040 Dollar – inflationsbereinigt ungefähr 15.500 Dollar –, womit klar war, dass der Decision Mate V primär für professionelle Anwender gedacht war.

Auch in Deutschland bestätigte sich dieses Bild. Die Basisversion wurde zu etwa 7.350 DM angeboten, ein Wert, der in mehreren Anzeigen dieser Zeit genannt wird. Voll ausgebaute Systeme mit Festplatte, Farboption und erweitertem Speicher lagen deutlich höher; zeitgenössische Berichte sprechen von Preisen im Bereich gut ausgestatteter Bürorechner zwischen 18.000 und über 20.000 DM, je nach Händler und Konfiguration. NCR selbst hob in europäischen Anzeigen seine lange Unternehmensgeschichte hervor und unterstrich seinen Anspruch mit Slogans wie: „NCR has been making computers for as long as there have been computers.“ und „We’ve been doing business in Europe since 1885.“ Die Betonung auf Erfahrung, Technologie und Service zielte klar auf Unternehmen und Behörden, die eher Wert auf Zuverlässigkeit als auf die sich erst langsam etablierende IBM-PC-Kompatibilität legten.

Dass sich der Decision Mate V dennoch nicht dauerhaft behaupten konnte, lag weniger an seinen technischen Eigenschaften als an der rasanten Marktentwicklung ab 1983/84. Die IBM-PC-Kompatibilität setzte sich unaufhaltsam durch, und Hersteller mit proprietären Lösungen verloren zunehmend an Boden. NCR selbst stellte bald auf voll kompatible Systeme um. Der Decision Mate V bleibt jedoch ein beeindruckendes Beispiel jener Übergangszeit – ein Rechner, der, wie die Werbung vollmundig versprach, „A relationship you won’t outgrow.“ sein sollte und heute gerade wegen seiner Eigenständigkeit und konstruktiven Sorgfalt fasziniert.

 

Philips NMS 801

Philips NMS 801 – Der MSX, der keiner war

Philips NMS 801Als der Philips NMS 801 im Jahr 1989 auf dem italienischen Markt erschien, war die große MSX-Ära bereits Geschichte. Die Heimcomputerlandschaft befand sich im Wandel, und Philips versuchte, mit einem ungewöhnlichen Hybridgerät zwischen Konsole und Computer noch einmal Fuß zu fassen. Der NMS 801 war auf den ersten Blick ein vertrautes Mitglied der NMS-Familie – graues Kunststoffgehäuse, MSX-typische Formensprache – doch hinter der Fassade verbarg sich ein System, das nur vorgab, ein MSX zu sein.

Auf der Verpackung prangte stolz der Hinweis „MSX compatibile“, nicht das offizielle Logo. Ein feiner, aber bedeutender Unterschied: Der Rechner erfüllte die technischen Grundvoraussetzungen eines MSX1, ohne wirklich vollständig kompatibel zu sein. Sein Inneres zeigte einen Zilog Z80A-Prozessor (SGS Z8400AB1) mit 3,58 MHz, 64 Kilobyte RAM und 16 Kilobyte VRAM, verwaltet vom Texas Instruments TMS9129NL. Dazu kam ein klassischer dreistimmiger PSG-Soundchip, der das typische Zwitschern und Brummen jener Epoche lieferte. Auf dem Bildschirm erschienen 256 × 192 Pixel bei 16 Farben – solide, aber Standard. Doch entscheidende Merkmale eines echten MSX fehlten: kein Cartridge-Slot, kein Druckerport, keine Disketten-Schnittstelle. Der seitliche „Slot“ war nur ein Formelement im Gehäuse, die Platine darunter schlicht leer.

Der Rechner startete in MSX BASIC Version 3.0 – eine Überraschung, denn diese Firmware war eigentlich MSX2- und MSX2+-Systemen vorbehalten. Das führte zu einer merkwürdigen Situation: Der NMS 801 verstand Befehle, die er gar nicht ausführen konnte. Grafik- und Farbkommandos, die höhere Modi voraussetzten, wurden ignoriert, während das System sich weiterhin als „MSX BASIC 3.0“ meldete. Das war ebenso charmant wie widersprüchlich und machte den Computer zu einem kleinen Kuriosum: ein Gerät mit dem Selbstbewusstsein eines MSX2, aber den Fähigkeiten eines MSX1.

Noch widersprüchlicher war der Hinweis auf der Verpackung, der vollmundig „Compatible MSX-DOS“ versprach. Tatsächlich besaß der Rechner keinerlei Möglichkeit, ein Diskettenlaufwerk anzuschließen. Kein Bus, kein Port, keine Erweiterungsbuchse. Die einzige Datenschnittstelle war der Tape-Port auf der Rückseite, gedacht für den beigelegten Philips-Datenrekorder. Neben ihm fanden sich zwei Joystick-Ports, ein fest installiertes SCART-Kabel für Videoausgabe und ein HF-Ausgang für ältere Fernseher. Mehr brauchte es laut Philips auch nicht – schließlich sollte der NMS 801 kein Arbeitsgerät sein, sondern ein Unterhaltungsapparat für Wohnzimmer und Kinderzimmer.

Im Inneren verriet der Aufbau alles über diese Philosophie. Die Hauptplatine trug den Aufdruck CELINT Ltd. 1989 – Made in Italy. CPU, Videochip und Sound-PSG lagen dicht beieinander, gespeist von einer kleinen Tochterplatine für die Spannungsversorgung. Viele Boards trugen noch die ursprüngliche Kennzeichnung NMS 800, der Name 801 war nur ein nachträglicher Aufkleber. Auch im Handbuch wurde die Typnummer einfach überklebt – ein Sinnbild für die Pragmatik, mit der Philips das Modell aus bestehenden Teilen zusammenstellte.

Verkauft wurde der NMS 801 als Komplettpaket: Im Karton lagen ein Joystick, der Datenrekorder-Anschluss, das Handbuch und sechs Kassetten mit insgesamt 50 Spielen, die unter der Bezeichnung “Philips Game Pack” erschienen. Sie stammten von der britischen Firma Mr. Micro und vereinten Public-Domain- und BASIC-Programme, die bekannte Klassiker leicht verfremdet nachahmten. Auf einer Kassette fand sich Galactic Invaders, ein simpler Space Invaders-Klon mit Einzelschuss-Mechanik, auf einer anderen Frog River, unverkennbar eine Variation von Frogger. Brick Buster versuchte sich an Breakout, Labyrinth Run an Pac-Man, Tennis Match erinnerte an Pong, und Submarine Attack kopierte das Prinzip von Sea Wolf. Dazu gesellten sich Denkspiele, Reaktionsübungen und simple Abenteuer – meist in BASIC programmiert, langsam, aber charmant.

Diese Pseudoadaptionen besaßen zwar nicht den Glanz echter Konami- oder Compile-Titel, erfüllten aber ihren Zweck: Sie vermittelten Anfängern das Gefühl, sofort losspielen zu können. Ein italienisches Werbeblatt pries sie an mit den Worten:

„50 videogiochi pronti per divertirsi – come nei grandi computer!“
(„50 Videospiele, sofort spielbereit – wie auf den großen Computern!“)

Charmant übertrieben, gewiss, doch der Gedanke war ehrlich: ein Computer, der aus der Schachtel heraus Spaß machte, ohne Zusatzkäufe oder technische Kenntnisse. Damit zielte Philips auf eine Käuferschicht, die sich weder mit Erweiterungsslots noch mit Diskettenformaten befassen wollte.

Der Einführungspreis lag bei etwa 340 000 Lire, inflationsbereinigt rund 370 Euro oder 320 Pfund. Für ein Gerät ohne Erweiterbarkeit war das zu viel, um den Massenmarkt zu gewinnen, aber zu wenig, um ernsthafte Computerfans anzusprechen. Entsprechend leise verschwand der NMS 801 wieder vom Markt. In der Fachpresse fand er kaum Beachtung – nur in kleinen Händleranzeigen wurde er erwähnt, meist als „MSX-ähnlicher Lern- und Spielecomputer“.

Heute hat der NMS 801 seinen Platz als Sammlerstück und Kuriosität gefunden. Er ist das Sinnbild einer Übergangszeit: die späten Atemzüge der 8-Bit-Ära, in der große Hersteller ihre letzten Restbestände zu konsolenartigen Hybriden zusammenfügten. Sein BASIC 3.0 läuft noch immer, seine Kassetten quietschen nostalgisch – und wer Frog River spielt, lächelt wissend, denn er erkennt die Frösche aus dem Original. Der NMS 801 ist damit kein großer Computer, aber ein liebenswerter kleiner Schwindler: ein „MSX, der keiner war“.

 

Cromemco C-10

Cromemco C-10

Wenn man in der frühen PC-Geschichte nach jenen Maschinen sucht, die nicht wegen bunter Grafik oder Arcade-Ambitionen glänzten, sondern wegen ihrer Zuverlässigkeit, dann taucht der Cromemco C-10 schnell als ein Vertreter dieser stillen Klasse auf. Ein Rechner, der 1982 den persönlichen Computer als professionelles Werkzeug definierte – in einer Zeit, als viele andere Systeme noch zwischen Heimcomputer-Spaß und ernsthaften Anwendungen schwankten.

Die Geschichte beginnt an der Stanford University: In Crothers Memorial Hall lernten sich zwei junge Forscher kennen – Dr. Harry Garland und Dr. Roger Melen. Sie gründeten eine Partnerschaft, die sie schlicht nach ihrem Wohnheim benannten: Cromemco. Anders als viele Konkurrenten setzten sie nicht auf Investorengelder oder spekulatives Wachstum. Garland und Melen blieben über die gesamte Firmenlaufzeit alleinige Anteilseigner und finanzierten jede Weiterentwicklung aus eigenen Mitteln. Das Ergebnis war eine Firma, die lieber solide baute, als großspurig zu versprechen.

Bevor Cromemco Personalcomputer entwickelte, machte sich das Unternehmen mit zwei heute fast legendären Erweiterungen für frühe Mikrocomputer einen Namen: der Cyclops-Digitalkamera und der Dazzler-Grafikkarte. Damit richtete sich Cromemco zuerst an wissenschaftliche und industrielle Anwender – anspruchsvoll, zahlungskräftig, und weit entfernt von Heimcomputerspielen. Diese DNA blieb erhalten, als man 1982 einen neuen Weg einschlug und den C-10 vorstellte.

Im Inneren arbeitete ein Zilog Z-80A mit 4 MHz, ein echter Leistungsstandard des professionellen CP/M-Sektors. Dazu kamen 64 KB RAM und 24 KB ROM, letzteres mit Systemroutinen und Selbsttests gefüllt. Der 12-Zoll-Monochrom-Monitor war direkt ins Gehäuse integriert und bot ein klares 80×25-Textbild – perfekt für Tabellen, Texte und geschäftliche Software. Ein einfaches akustisches Signalgerät („Beeper“) übernahm die Tonwiedergabe, denn Klangspielereien waren hier überflüssig. Das Dateisystem wurde über ein externes 5,25-Zoll-Diskettenlaufwerk mit 390 KB Kapazität gespeist, ein zweites ließ sich optional anschließen. Die 61-Tasten-Tastatur war auf stundenlange Nutzung ausgelegt: Vollhub statt Gummimembran, Produktivität statt Spielerei.

Als Betriebssystem stand CDOS bereit – eine CP/M-kompatible Umgebung, die zahlreiche etablierte Anwendungen unterstützte. Textverarbeitung, Datenbanken, Kalkulationsprogramme: Wer 1982 in einem Büro ernsthaft arbeiten wollte, bekam hier alles Nötige. Dass der C-10 keinen Grafikmodus bot, war kein Versehen. Es war ein Statement. Dieses System sollte rechnen, verwalten, steuern – und das mit höchster Verlässlichkeit.

Eine zeitgenössische Produktunterlage versprach: „The C-10’s high-quality construction, continual self-testing and proven design assure that it will perform faithfully year after year.“ („Die hochwertige Konstruktion, fortlaufende Selbsttests und bewährte Architektur stellen sicher, dass er Jahr für Jahr zuverlässig arbeiten wird.“)

Diese Worte waren keine Übertreibung. Cromemco-Systeme wurden als erste kommerzielle Mikrocomputer von der US-Navy für Schiffe und für U-Boote der Ohio-Klasse zertifiziert. Wo Bedingungen extrem, Überwachungssituationen kritisch und Platz begrenzt waren, vertraute man Cromemco. Es ist bemerkenswert, dass ausgerechnet ein vermeintlich unscheinbarer PC-Hersteller den Sprung in solche Sicherheitsbereiche schaffte.

Auch amerikanische TV-Studios wurden zum wichtigen Nutzungsfeld – allerdings nicht wegen bunter Computerbilder. Der C-10 agierte dort als zentrale Steuer- und Datenverarbeitungseinheit für spezialisierte Grafiksysteme. Cromemco konnte auf seine Dazzler-Historie bauen, und in einem Verbund aus Software und Zusatzhardware entstanden Wetter- und Nachrichtengrafiken, die täglich auf Sendung gingen. Nicht der C-10 selbst zeichnete die Symbole, aber ohne ihn wäre die Grafik nicht dort erschienen, wo sie hinsollte.

Der Preis des Systems lag bei 1.785 US-Dollar. Inflationsbereinigt entspricht das rund 6.000 US-Dollar – ein klares Signal: Der C-10 war kein Heimcomputer, sondern ein professionelles Arbeitsgerät für anspruchsvolle Kunden. Wer ihn kaufte, wusste, dass Stabilität wichtiger war als Spielspaß.

Cromemco wuchs in dieser Phase rasant, ohne die Firmenphilosophie zu verraten. 1986 nutzten bereits über 80 % der großen US-Fernsehstationen Cromemco-Technik im Produktionsalltag. Ein stiller Erfolg über viele Jahre – mit dem Höhepunkt 1987, als das Unternehmen an Dynatech verkauft wurde. Die Marke verschwand später vom Massenmarkt, doch ihr technologisches Erbe findet sich noch lange in spezialisierten Systemen wieder.

Heute ist der C-10 ein interessantes Sammlerstück, nicht wegen einer besonderen Kultwirkung, sondern wegen seiner Rolle in der Evolution des Personalcomputers. Er steht für die Phase, in der PCs erstmals ernsthaft als Arbeitswerkzeuge wahrgenommen wurden. Keine Ikone der Popkultur – aber eine Ikone der Professionalisierung.

Und manchmal sind es genau diese Systeme, die im Nachhinein zeigen, wohin die Reise wirklich ging.

Oric Telstar

Oric Telestrat – Der letzte Franzose der 8-Bit-Ära

Par DefenceForce, CC BY-SA 4.0

Während Amiga und Atari ST schon um die Gunst der Zukunft buhlten, meldete sich 1986 mit dem Oric Telestrat ein Spätstarter der 8-Bit-Ära zu Wort – eigenwillig, kommunikativ und erstaunlich visionär. In einer Zeit, in der die Computerwelt von glänzenden 16-Bit-Maschinen beherrscht wurde, wagte sich der einst britische Hersteller Oric mit französischer Unterstützung an ein Konzept, das Heimcomputer und Telematik miteinander verbinden sollte.

Die Geschichte dieses ungewöhnlichen Rechners beginnt einige Jahre zuvor bei der britischen Firma Tangerine Computer Systems, die 1982 mit dem Oric 1 den Sprung in den jungen Heimcomputermarkt wagte. Der Nachfolger Oric Atmos von 1984 brachte ein überarbeitetes ROM und eine verbesserte Tastatur, konnte sich jedoch gegen den mächtigen Commodore 64 und den Sinclair Spectrum nicht durchsetzen. Nach dem finanziellen Kollaps von Oric Products International übernahm die französische Firma Eureka Informatique die Rechte und beschloss, den Geist des Atmos in eine neue, zeitgemäße Maschine zu überführen – den Oric Telestrat, eine Mischung aus klassischem 8-Bit-Heimcomputer und Kommunikationszentrale.

Im Inneren arbeitete der bewährte MOS 6502A-Prozessor mit 1 MHz Taktfrequenz, flankiert von 64 KB RAM, womit der Telestrat die Speichergrenzen seines Vorgängers sprengte. Standardmäßig besaß er einen Diskettencontroller für das hauseigene 3-Zoll-Laufwerk sowie zwei RS-232-Schnittstellen, über die sich Modems, Drucker und das französische Minitel-Netz anschließen ließen. Gerade Letzteres war der Clou des Geräts – Frankreich war Mitte der Achtziger das Land der Telematik, und der Telestrat war einer der ersten Heimcomputer, der wirklich „online“ gehen konnte, Jahre bevor der Begriff „Internet“ im Mainstream ankam.

Für die Benutzeroberfläche sorgte das Hyper-BASIC, eine erweiterte Fassung des bekannten Oric-BASIC, die auf die neuen Kommunikations- und Diskettenfunktionen abgestimmt war. Die Grafik blieb unverändert bei den Atmos-Modi – Textdarstellung mit 40 Zeichen pro Zeile und blockige, aber charmante Farbmodi mit acht Farben. Klanglich vertraute man ebenfalls auf Bewährtes: Der AY-3-8912-Soundchip lieferte den typischen, dreistimmigen 8-Bit-Klang, den man von Maschinen jener Zeit kannte.

Doch der Telestrat war mehr als ein Oric Atmos mit Floppy. Seine Architektur erlaubte es, per Cartridge zwischen verschiedenen ROM-Bänken zu wechseln – etwa um in den Atmos-Kompatibilitätsmodus zu gelangen, was die Nutzung der älteren Softwarebibliothek ermöglichte. Für viele Oric-Besitzer war das ein wichtiges Argument: Man bekam eine neue Maschine, ohne die alten Programme aufzugeben.

Allerdings hatte Innovation ihren Preis. Der Oric Telestrat kostete bei Markteinführung rund 3 990 französische Francs, inflationsbereinigt etwa 1 250 Euro – und lag damit preislich zwischen einem Commodore 64 samt Diskettenlaufwerk und einem Atari ST 520. Ein schwieriger Mittelweg, wie sich zeigen sollte. Zeitgenössische Magazine wie SVM Micro lobten die Kommunikationsfähigkeiten, monierten aber den hohen Preis und die geringe Softwareauswahl. Rückblickend brachte es ein französischer Sammler treffend auf den Punkt: „Le Telestrat était une machine formidable, mais sans un public pour l’écouter.“ – „Der Telestrat war eine großartige Maschine, nur hatte er kein Publikum, das ihm zuhörte.“

Tatsächlich blieb der Absatz gering. Schätzungen zufolge wurden nur etwa 6 000 Exemplare produziert, fast ausschließlich für den französischen Markt. In Großbritannien oder Deutschland tauchte das Gerät kaum auf, und selbst eingefleischte Oric-Anhänger erfuhren oft erst Jahre später von seiner Existenz. Damit teilte der Telestrat das Schicksal vieler ambitionierter, aber nischiger 8-Bit-Rechner der Spätzeit: technisch solide, konzeptionell spannend, doch vom Markt überholt.

Dabei war die Idee hinter dem Telestrat bemerkenswert. Während Commodore und Atari sich zunehmend auf Spiele konzentrierten, zielte Oric auf Produktivität, Kommunikation und Vernetzung. Der Rechner war konzipiert für Datenübertragung, Textkommunikation und Datei-Austausch – alles Dinge, die erst ein Jahrzehnt später im PC-Alltag selbstverständlich werden sollten. Das Quantum-Bits-Archiv schrieb rückblickend: „Telecommunications-oriented machine … a bridge between hobby computing and business systems.“ Eine treffende Charakterisierung, denn genau da wollte der Telestrat stehen – als Bindeglied zwischen Freizeit und professionellem Einsatz.

Heute ist der Oric Telestrat ein begehrtes Sammlerstück, besonders unter französischen Retro-Fans, die seine Hybrid-Natur zu schätzen wissen. Das kantige graue Gehäuse, die farbenfrohe Tastatur und das vertraute Piepen beim Einschalten versetzen einen unmittelbar zurück in eine Ära, in der Computer noch neugierig machten, statt selbstverständlich zu sein. Die wenigen erhaltenen Geräte gelten als technische Kuriositäten – und als Zeugnisse einer Zeit, in der der Traum vom vernetzten Heim bereits Form annahm, lange bevor ISDN oder Internet diesen Traum wahr machten.

Er war kein Bestseller, aber ein mutiges Experiment. Der Oric Telestrat bewies, dass selbst am Ende der 8-Bit-Ära noch Platz für Ideen war – und dass man mit einem Modem, ein wenig französischem Charme und viel Enthusiasmus durchaus Geschichte schreiben konnte.

Coleco Telstar Gemini – Der letzte große Pong

Coleco Telstar Gemini – Der letzte große Pong

Im Sommer 1978 stand in vielen amerikanischen Wohnzimmern noch das Echo des Pong-Booms in der Luft. Doch während Atari und Fairchild längst programmierbare Module auf den Markt brachten, hielt Coleco an seiner erfolgreichen Telstar-Linie fest. Der Telstar Gemini war dabei so etwas wie das finale Kapitel einer Ära – ein letzter Versuch, aus der betagten Pong-Technik ein Stück Designkultur zu formen.

Coleco hatte seit 1976 eine wahre Pong-Flut produziert: Telstar Alpha, Ranger, Combat, Colortron – jedes Modell mit leicht anderer Variante des beliebten Ball-und-Schläger-Spiels. Der Gemini unterschied sich jedoch in einem entscheidenden Detail: Er besaß abnehmbare Controller, die wie futuristische Fernbedienungen wirkten und das Kabelchaos früherer Modelle beseitigten. Für ein Gerät, das 1978 noch in Wohnzimmern mit Holzpaneelen stand, war das bemerkenswert fortschrittlich. Popular Electronics lobte damals: „Der Telstar Gemini ist vielleicht Colecos ausgefeilteste Umsetzung der Pong-Formel – abnehmbare Steuerungen und ein elegantes Design zeigen Gespür für die Ästhetik moderner Wohnzimmer.“

Im Inneren arbeitete kein Prozessor im heutigen Sinn, sondern der bewährte General Instrument AY-3-8500-1, jener legendäre Pong-Chip, der unzählige Konsolen dieser Zeit antrieb. Er erzeugte sechs Spielvarianten – Tennis, Squash, Handball, Hockey, Practice und Jai-Alai – allesamt Variationen eines einzigen Prinzips. Keine ROM-Module, keine Speichererweiterung, kein Mikroprozessor – nur reine Schaltungskunst. Der Bildschirm blieb monochrom, die Ballgeschwindigkeit analog geregelt. Doch gerade diese Einfachheit machte den Reiz aus.

Das Gehäuse des Gemini wirkte modern, fast luxuriös. Schwarzer Kunststoff, eine silberne Frontplatte und die typische Coleco-Holzoptik am Rand – eine Mischung aus Raumfahrt und Wohnzimmermöbel. An der Rückseite fand sich der Anschluss für eine optionale Lightgun, die auf dasselbe Prinzip wie beim Telstar Marksman setzte: ein lichtempfindlicher Sensor im Lauf, der den Punkt des CRT-Bildschirms erfasste. Damit zielte Coleco buchstäblich auf ein Publikum, das schon das Ende der Pong-Ära herannahen sah.

Zum Verkaufsstart kostete der Gemini rund 80 US-Dollar, was heute etwa 340 Euro entspräche – kein Schnäppchen für eine Konsole ohne austauschbare Spiele. Dennoch verkaufte Coleco rund 200 000 Einheiten, bevor der Markt 1979 vollständig zusammenbrach. Video Review Magazine schrieb damals treffend: „Coleco presst die letzten Tropfen Spaß aus der Pong-Hardware – der Gemini sieht großartig aus, kommt aber zu spät.“

Im Rückblick wirkt der Gemini wie das liebevoll geschnitzte Totem eines aussterbenden Stammes. Electronic Fun with Computers & Games bezeichnete ihn später poetisch: „Es war die Dämmerung des analogen Spielens, und der Gemini stand wie ein stolzer Dinosaurier vor dem Aussterben.“ Und tatsächlich: Kurz nach dem Produktionsende konzentrierte sich Coleco auf programmierbare Systeme und Spielzeug – ein Kurs, der schließlich 1982 im ColecoVision gipfelte.

Heute ist der Telstar Gemini ein seltenes Sammlerstück. Er steht symbolisch für die Zeit, als Elektronik noch aus wenigen Transistoren und viel Optimismus bestand. Seine abnehmbaren Controller waren ein Blick in die Zukunft, sein monochromes Pong-Bild ein Blick in die Vergangenheit. Und so gleitet der Gemini in die Geschichte ein – als der Moment, in dem Coleco zum letzten Mal den Ball schlug, bevor die digitale Revolution endgültig begann.

Commodore 116

Commodore 116

Picture from: https://retrorepairsandrefurbs.com/2021/07/11/commodore-c116-repair-restoration/

Als Commodore 1984 den C116 vorstellte, schien die Idee zunächst bestechend einfach: ein günstiger, kompakter Heimcomputer für Schüler, Familien und Einsteiger. Doch der kleine Rechner, äußerlich anmutig und technisch durchaus elegant, geriet zu einem jener Maschinen, die in der Rückschau eher wie ein Echo der Vergangenheit wirken – das letzte Aufbäumen einer Produktlinie, die schon von ihrem eigenen Erfolg überholt worden war. Der C116 war Teil der sogenannten TED-Reihe, benannt nach dem Chip, der Grafik, Sound und Ein-/Ausgabe in sich vereinte. Gemeinsam mit dem C16 und dem Plus/4 sollte er Commodores Mittelklasse neu definieren. Tatsächlich erinnerte er aber stärker an einen abgespeckten Bruder des legendären C64 – oder, wie Happy Computer 1985 spöttelte: „Der C116 ist der MAX Machine der 1980er Mitte – ein Versuch, den Heimcomputer noch einmal auf Diät zu setzen.“

Die Entwicklung des C116 begann zeitgleich mit der 264-Serie unter der Leitung von Bil Herd, einem jungen, energiegeladenen Ingenieur, der zuvor schon am C128 beteiligt war. Herd arbeitete eng mit Fred Bowen (ROM- und BASIC-Programmierung), Ira Velinsky (Gehäusedesign) und Dave Haynie (Hardware-Support) zusammen. Ziel war eine neue Architektur, die durch den TED-Chip (MOS 7360) alles Wesentliche – Grafik, Ton, Tastatur- und Speichersteuerung – auf einem einzigen Silizium vereinen sollte. Der Gedanke war bestechend: ein sparsamer, günstiger All-in-One-Chip, der Commodores dominierenden C64 künftig in ein zweites Marktsegment flankieren konnte.

Im Herzen des C116 arbeitet ein MOS 8501-Prozessor, der funktional identisch zum älteren MOS 7501 ist. Beide basieren auf dem bewährten 6502-Design, das Commodore seit dem PET einsetzte. Der Unterschied zwischen den beiden liegt, wie Bil Herd später erklärte, nicht in der Architektur, sondern in der Fertigung. In einem Interview 2015 sagte er: „The 8501 was basically the 7501 built in a more stable process. We didn’t change the core — we just tried to make it survive the heat.“ („Der 8501 war im Grunde der 7501, gefertigt in einem stabileren Prozess. Wir änderten nichts am Kern – wir versuchten nur, dass er die Hitze überlebt.“) Tatsächlich litt die gesamte TED-Reihe unter thermischen Problemen, da CPU und TED auf engstem Raum saßen und ungekühlt betrieben wurden.

Technisch bot der C116 beachtliche Werte für ein Gerät seiner Preisklasse. Der 8501-Prozessor läuft mit 1,02 MHz, das BASIC V3.5 war gegenüber dem C64-BASIC deutlich erweitert – mit Befehlen wie SOUND, VOL, GRAPHIC und DRAW, die direkte Kontrolle über die Hardware erlaubten. Der Arbeitsspeicher betrug 16 KB, wovon etwa 12 KB frei programmierbar waren, das ROM umfasste 32 KB mit integriertem Kernal. Der TED-Chip ermöglichte eine Auflösung von 320 × 200 Pixeln und eine erstaunlich reiche Palette von 121 Farben (15 Grundfarben in acht Helligkeitsstufen plus Schwarz), was für 1984 beachtlich war. Allerdings fehlten dem C116 Hardware-Sprites, was ihn in Spielen benachteiligte. Der Ton stammte aus zwei Kanälen mit einfachem Rauschgenerator – weit entfernt vom warmen, analogen Klang des legendären SID-Chips des C64.

Das Gehäuse entwarf der amerikanische Designer Ira Velinsky, der zuvor am Amiga- und später am CPC-Design mitgewirkt hatte. Mit seiner flachen Form, den grauen Tasten und dem minimalistischen Aufbau unterschied sich der C116 stark von Commodores sonstigen Geräten. Auffällig war die Mini-DIN-Joystickbuchse, die inkompatibel zu den gängigen C64-Joysticks war – eine Entscheidung, die selbst Commodore-Mitarbeiter später bedauerten.

Als Betriebssystem diente eine ROM-Version des BASIC V3.5 mit der bekannten Startmeldung „**** COMMODORE C116 BASIC V3.5 ****“. Beim Einschalten erschien die typische hellblaue Eingabeaufforderung, die in jenen Tagen fast eine Einladung war, eine Welt aus Zahlen, Grafik und Syntax zu betreten. Für den Massenspeicher stand der Datasette-Port zur Verfügung; Floppy-Laufwerke ließen sich nur über Zusatzhardware anschließen. Der Rechner verfügte über Video-DIN-Ausgang, Audio-Out, User-Port und RS-232-kompatible Schnittstelle.

Im europäischen Handel erschien der C116 ab Spätsommer 1984 zunächst in Deutschland zu einem Preis von DM 199, was inflationsbereinigt etwa 210 Euro (2025) entspricht. Commodore plante ursprünglich eine weltweite Einführung, beschränkte sich jedoch bald auf den deutschsprachigen und osteuropäischen Raum. In Großbritannien etwa fürchtete man, dass der günstige C116 den Erfolg des C64 kannibalisieren könnte. So erlebte der kleine Rechner seine größten Erfolge in Osteuropa, wo er in Lizenz unter anderem bei Videoton in Ungarn gefertigt wurde und über staatliche Tauschprogramme auch in die DDR gelangte. Die Produktionszahlen lagen insgesamt bei rund 400 000 Einheiten, davon etwa 200 000 in Westeuropa und ähnlich viele in Osteuropa.

In der Presse traf der C116 auf gemischte Reaktionen. Die 64’er urteilte 1985: „Der C116 ist klein, hübsch und preiswert – doch wer den C64 kennt, wird seine SID-Musik und Sprites schnell vermissen.“ Happy Computer formulierte es noch schärfer: „Das neue BASIC 3.5 zeigt, was Commodore könnte – schade nur, dass niemand es mehr will.“ Und das britische Your Computer schrieb resigniert: „The C116 would have made sense in 1982. In 1985, it feels like a machine out of time.“ – übersetzt: „Der C116 hätte 1982 Sinn gemacht. 1985 wirkt er wie ein Rechner aus der Zeit gefallen.“

Doch der C116 war mehr als nur ein Marketing-Missgriff. In vielerlei Hinsicht war er die späte Wiederkehr einer Idee, die Commodore schon mit der MAX Machine 1982 erprobt hatte – einer abgespeckten Low-Cost-Variante des C64. Wie schon die MAX sollte auch der C116 eine „kleine Schwester“ für den Massenmarkt sein: günstiger, stromsparender, weniger komplex. Beide teilten die Philosophie der Kostenreduktion durch Integration. Die MAX scheiterte, weil der C64 schneller erfolgreicher wurde, und der C116 scheiterte aus demselben Grund – diesmal an der eigenen Firmenstrategie. Oder, wie Bil Herd es in einem Interview 2013 lakonisch formulierte: „We were told to build a cheaper computer — not a better one.“ („Man sagte uns, wir sollen einen billigeren Computer bauen – nicht einen besseren.“)

Gegenüber der Konkurrenz hatte der C116 ein zwiespältiges Standing. Gegen den Commodore 64 verlor er in jeder Hinsicht an Attraktivität, da dieser bei fallenden Preisen immer erschwinglicher wurde. Gegenüber dem Sinclair Spectrum + bot er ein moderneres BASIC und mehr Farben, war aber in der Spieleauswahl klar unterlegen. Der Amstrad CPC 464 wiederum übertraf ihn in Grafik und Ausstattung, kostete jedoch deutlich mehr. So blieb dem C116 der Platz des ewigen Underdogs – technisch interessant, wirtschaftlich überflüssig.

Heute gilt der C116 als eines jener Geräte, die Commodore zwar nicht retteten, aber die Innovationsfreude der Ingenieure belegen. Besonders der TED-Chip markierte einen frühen Versuch, ein integriertes Multimedia-System auf einem Chip zu schaffen – eine Philosophie, die später im Amiga oder Atari ST zur Reife gelangte. Der C116 war also weniger ein Irrtum als ein vergessener Vorbote.

Rückblickend ist der kleine Rechner ein stiller Zeuge des Jahres 1984: einer Zeit, in der sich die Heimcomputerwelt rasend schnell wandelte und selbst Marktführer nicht wussten, wohin der Trend führen würde. Commodore wollte mit der TED-Reihe ein zweites Standbein schaffen, doch stattdessen zersplitterte sie ihr Portfolio. Trotzdem bleibt der C116 eine faszinierende Maschine – so reduziert wie seine Tastatur, so ambitioniert wie seine Entwickler. Und wenn man ihn heute einschaltet, blinkt das hellblaue Startbild wie ein Relikt aus jener Ära, in der selbst die einfachsten Computer große Träume hatten.

Sinclair ZX Spectrum 128

128 Kilobyte Hoffnung – Wie Sinclair mit dem Spectrum 128 sein Erbe retten wollte

ZX-Spectrum128K

Picture by: http://www.retro8bitcomputers.co.uk/Sinclair/ZXSpectrum128

Als der 128-Kilobyte-Spectrum in Barcelona zum ersten Mal unter den Scheinwerfern stand, wirkte es ein wenig so, als würde Sinclair Research noch einmal mit Nachdruck verkünden wollen, dass die Ingenieure in Cambridge nicht bereit waren, die Bühne zu räumen. Spanien war ein seltsamer Ort für dieses Comeback, doch ausgerechnet dort entschied die Finanzpolitik über Sinclairs Zukunft: Eine Steuergrenze, die Computer mit weniger als 64 KB als Luxus behandelte, zwang die Briten dazu, kurzfristig ein Modell mit doppeltem Speicher zu entwickeln. Und so wurde Investrónica, der mächtige Vertriebspartner von Sinclair auf der Iberischen Halbinsel, plötzlich zum Mitgestalter eines der ungewöhnlichsten 8-Bit-Rechner seiner Zeit.

Im Kern schlug nach wie vor der vertraute Takt des Z80A, jenes unverwüstlichen 8-Bit-Prozessors, der seit 1982 eine ganze Generation an Software getragen hatte. Doch jetzt durfte er auf 128 KB zugreifen, und das neu gestaltete ROM brachte nicht nur zusätzliche BASIC-Befehle mit, sondern auch das Gefühl, der Spectrum könne plötzlich Dinge sagen und tun, zu denen er vorher schlicht nicht in der Lage war. Der AY-3-8912-Soundchip verwandelte das Gerät von einem piepsenden Minimalisten in ein kleines elektronisches Orchester. Es war ein Moment, der für viele Benutzer wie ein Befreiungsschlag wirkte – als hätte der Spectrum gelernt, musikalisch zu atmen.

Äußerlich blieb vieles beim Alten, bis man auf die rechte Seite blickte. Dort ragte der Aluminiumkühlkörper hervor, groß, kantig, ein bisschen übertrieben – und doch so ikonisch, dass ihm der Spitzname „Toast Rack“ bis heute anhaftet. Guillermo Capdevila, der für das spanische Design verantwortlich war, respektierte zwar die Linien des Spectrum+, gab dem 128er aber eine Art technisches Seitenprofil, das man nicht übersehen konnte. In Spanien präsentierte Investrónica sogar einen externen Ziffernblock, ein Accessoire, das den Spectrum 128 ein Stück weit in Richtung Bürocomputer rückte.

ZX128Ad

Doch seine eigentliche Transformation fand unter der Haube statt. Die neue Speicherorganisation, die erweiterten BASIC-Puffer und die Rasterung der Bank-Switching-Logik verliehen dem Rechner eine Flexibilität, die man dem Spectrum früher nie zugetraut hätte. Und mit den neuen Anschlüssen – RGB, RS-232 und der integrierten MIDI-Schnittstelle – betrat Sinclair technisches Terrain, das bis dahin kaum ein Heimcomputer beschritten hatte. Spanische Magazine zeigten einprägsame Bilder: ein Spectrum 128, der über MIDI mit einem Keyboard kommunizierte. Ein 8-Bit-Heimcomputer, der sich mit der Gelassenheit eines Synthesizers verhielt – das blieb haften, gerade bei der jüngeren Generation.

Die Elektronik des 128ers war das Werk von Martin Brennan, John Mathieson und Ben Cheese, drei Ingenieuren, die später Flare Technology gründeten. Ihre Konzepte beeinflussten Jahre danach die Architektur des Atari Jaguar – eine dieser leisen, aber faszinierenden Querverbindungen in der Computergeschichte. Dass dieselben Köpfe zuvor an diesem Spectrum saßen, ist einer jener Momente, in denen die Chronologie der Technik ihren ganz eigenen Rhythmus zeigt.

Der Preis war ehrlich, wenn auch nicht spektakulär: £ 179 in Großbritannien, ein Wert, der den 128er klar als Weiterentwicklung, nicht aber als Neubelebung des Marktes positionierte. In Spanien hingegen wurde er ein Massenphänomen. Über 100 000 Geräte wanderten über die Ladentheken des riesigen Vertriebsnetzes von El Corte Inglés, und Magazine wie MicroHobby berichteten Monat für Monat über neue Spiele, neue Tricks, neue Anwendungen – oft spezifisch für den 128K-Modus.

Natürlich war der neue Spectrum nur bedingt ein Rettungsanker. Sinclair Research hatte sich bereits mit dem QL und dem C5 in eine schwierige Lage gebracht, und der 128er kam vielleicht ein Jahr später, als man es sich hätte wünschen sollen. Doch seine Bedeutung misst sich nicht allein an Geschäftsberichten. Er war der Beweis, dass ein vertrauter 8-Bit-Computer erwachsen werden konnte, ohne seine Herkunft zu verraten. Ein Gerät, das zugleich Tradition und Ambition verkörperte.

Und wenn man ihn heute einschaltet, hört man zuerst das leise Klicken des Relais, sieht die vertrauten Farben aufleuchten und spürt diesen feinen Übergang zwischen zwei Epochen. Der ZX Spectrum 128 war nie nur ein technisches Artefakt. Er war der letzte große Funke aus Cambridge, bevor der Staffelstab an Amstrad überging – ein Rechner, der zeigte, wie weit man mit einer guten Idee, einem alten Prozessor und 128 KB Hoffnung kommen konnte.

 

Atari 800XL

Atari 800XL

atari 800xl

By Evan-Amos - Own work

Als Atari Anfang der achtziger Jahre noch als Synonym für Videospiele galt, schien die Welt des Unternehmens in Ordnung. Das Atari VCS 2600 füllte die Wohnzimmer, Space Invaders und Pac-Man wurden zu kulturellen Ikonen, und die Heimcomputer Atari 400 und 800 fanden ihr Publikum. Doch das Paradies währte nicht ewig. Commodore, Texas Instruments und Sinclair traten auf den Plan und stürzten die Branche in einen gnadenlosen Preiskrieg. Commodore hatte mit dem VIC-20 bereits 1981 ein günstiges Einsteigermodell etabliert und bereitete 1982 mit dem Commodore 64 den entscheidenden Schlag vor. Ataris Marktanteil fiel in nur zwei Jahren von etwa 25 % auf unter 10 %, während Commodore auf über 40 % emporschnellte. In Europa dominierte der ZX Spectrum, Texas Instruments subventionierte den TI-99/4A bis in die Verlustzone. Atari hingegen war schwerfällig geworden – gebremst vom Mutterkonzern Warner Communications, der kurzfristige Gewinne über technische Weitsicht stellte.

In den Laboren in Sunnyvale gärte derweil Unmut. Die Ingenieure fühlten sich ausgebremst, während Commodore-Chef Jack Tramiel mit ruinösen Preissenkungen den Markt aufmischte. Atari hatte hohe Produktionskosten und ein Management, das die eigene Technik kaum verstand. 1983 folgte der große Einbruch: Der Videospiel-Crash ließ die Gewinne kollabieren, E.T. und Pac-Man auf dem VCS 2600 wurden zu Symbolen des Überangebots, und das Unternehmen verlor über 500 Millionen Dollar.

Inmitten dieser Krise entstand ein Projekt mit dem internen Codenamen „Surely Plus“. Es sollte den teuren, fehlerbehafteten Atari 1200XL ersetzen und eine neue Generation erschwinglicher Heimcomputer einleiten. Ziel war ein 64-Kilobyte-Rechner, der die bewährte Atari-Architektur beibehielt, aber günstiger zu fertigen und weltweit kompatibel war. Das Team bestand aus erfahrenen Ingenieuren: George McLeod leitete das Hardware-Design und sorgte für die kompakte Ein-Platin-Lösung, Doug Neubauer, Schöpfer des POKEY-Chips und von Star Raiders, beriet bei der Integration der Spezialchips, Regan Cheng entwarf das elegante Gehäuse, und Paul Laughton, Autor des Atari DOS, betreute den Übergang des Betriebssystems in das neue ROM. Die Grundlagen der Architektur stammten noch von Jay Miner und Joe Decuir (der später den USB Port mitentwickelte), die zwar längst zu Amiga-bzw. Tandem-Computers weitergezogen waren, deren Chip-Designs – ANTIC, GTIA und POKEY – aber weiterhin Herz und Seele des Systems bildeten.

Der Atari 800XL wurde am 5. Juni 1983 auf der Summer CES in Chicago vorgestellt. Die Produktion lief im Sommer an, doch Lieferprobleme verzögerten den Start. Eine aufwändige Werbekampagne mit Alan Alda aus M*A*S*H sorgte für Aufmerksamkeit, doch zum Weihnachtsgeschäft fehlten Geräte in den Regalen. Erst Anfang 1984 normalisierte sich die Lage – da steckte Atari bereits tief in Umstrukturierungen.

Als der 800XL endlich regulär erschien, kostete er 299 US-Dollar (heute rund 860 Euro). In Westdeutschland kam er im Frühjahr 1984 für 798 DM (etwa 770 Euro) auf den Markt. Das von Regan Cheng entworfene Gehäuse war kompakter und funktionaler: der Cartridge-Slot wieder oben, die Joystick-Ports an der Seite, die Platine aufgeräumt und servicefreundlich.

Herzstück war die MOS 6502-Variante Sally mit rund 1,79 MHz Taktfrequenz, unterstützt von drei Custom-Chips: ANTIC, der Grafik-Coprocessor, der den Bildschirm zeilenweise aus dem RAM aufbaute; GTIA, zuständig für Farbverwaltung, Sprites und Kollisionen; und POKEY, der vier Soundkanäle, Tastatur und serielle Kommunikation steuerte. Das Resultat war für 1983 beeindruckend: eine Auflösung bis 320 × 192 Pixel, 256 Farbtöne mit bis zu 16 gleichzeitig auf dem Bildschirm – und ein Klang, der zwar nicht ganz an den legendären SID des C64 heranreichte, dafür aber vier Stimmen gleichzeitig erlaubte.

Das Betriebssystem lag fest im ROM (24 KB) und enthielt bereits Atari BASIC, das beim Einschalten automatisch startete. Über das Parallel Bus Interface (PBI) konnten theoretisch Erweiterungen wie die nie erschienene 1090XL Expansion Box angeschlossen werden, und die bewährte SIO-Schnittstelle verband Diskettenlaufwerke, Drucker und Modems per Daisy-Chain – ein frühes Plug-and-Play-System.

Standard-Massenspeicher war das Atari 1050-Diskettenlaufwerk, flankiert vom Kassettengerät XC12. Das Zubehörangebot war gewaltig: Drucker, Grafiktabletts, Akustikkoppler, sogar Sprachmodule. Die Happy Computer schrieb 1984 anerkennend: „Das Zubehörangebot ist fast unerschöpflich – der 800XL wirkt wie ein professionelles System im Heimcomputer-Format.“

Im direkten Vergleich mit Commodores VIC-II zeigt sich, dass beide Systeme technisch unterschiedlich gedacht waren. Der VIC-II beherrschte Hardware-Sprites, Feinscrolling in beide Richtungen und Raster-Interrupts – also all jene Mittel, mit denen sich Bildbereiche mischen oder per Pixel verschieben ließen. Der Unterschied lag nicht in der Fähigkeit, sondern in der Architektur: Der VIC-II erforderte bei komplexen Layouts eine aktive Rolle der CPU, während ANTIC dieselben Aufgaben weitgehend autonom erledigte. Seine Display-List war gewissermaßen ein programmierbares Drehbuch für den Bildschirmaufbau: Sie definierte Grafikmodi, Scroll-Zonen und Fenstergrenzen ohne jede CPU-Last. Wo der C64 über gezielte Interrupt-Logik arbeitete, delegierte der Atari diese Steuerung an eine eigene DMA-Einheit – ein Konzept, das für Entwickler weniger Timing-Finesse, dafür aber mehr Stabilität und Effizienz bedeutete. Der VIC-II konnte mit geschicktem Einsatz seiner Raster-Interrupts und präziser Taktarbeit manches sogar weiter treiben – etwa großflächiges Scrolling ohne Speicherbewegung oder bewusstes Austesten der DMA-Grenzen – doch der ANTIC tat vieles davon von Haus aus, planbar, reproduzierbar und ohne Risiko, den Bus zu überlasten. Diese Philosophie, Aufgaben von der CPU zu entkoppeln, verlieh dem Atari-System seine charakteristische technische Eleganz – eine Ingenieursästhetik, die schon Jay Miner vorgeschwebt hatte, als er den Chip entwarf.

Trotz der wirtschaftlich schwierigen Zeit erwies sich der Atari 800XL als ausgesprochen leistungsfähige Spielmaschine. Seine fortschrittliche Architektur mit den drei Spezialchips ANTIC, GTIA und POKEY machte ihn zu einem Traum für Entwickler, die nicht nur Text oder simple Sprites, sondern komplexe, farbintensive Szenen erschaffen wollten. Titel wie Star Raiders demonstrierten bereits eindrucksvoll die 3D-Fähigkeiten der Plattform, während Rescue on Fractalus! und Koronis Rift von Lucasfilm Games zeigten, wie Fraktalgrafik und dynamische Perspektiven auf einem 8-Bit-Rechner aussehen konnten. Ballblazer setzte Maßstäbe durch seine algorithmisch erzeugte Musik und Splitscreen-3D-Darstellung, Dropzone von Archer MacLean bewies, dass butterweiches Scrolling und Reflex-Action selbst ohne Hardware-Sprites möglich waren. Klassiker wie M.U.L.E., Boulder Dash und Seven Cities of Gold nutzten die Systemreserven intelligent aus und prägten ganze Spielegattungen – von Wirtschaftssimulationen bis zu Explorationstiteln. Auch die POKEY-Soundfähigkeiten ermöglichten eindrucksvolle Klanglandschaften, etwa in Necromancer oder Blue Max. Im Vergleich zum Commodore 64 fehlten dem Atari zwar die Filtereffekte des SID-Chips, doch seine Grafikengine war flexibler, seine Farbvielfalt größer, und viele Entwickler lobten die klare Bildqualität über den Monitor-Ausgang. In Fachmagazinen jener Zeit galt der 800XL als „Maschine für Kenner“ – weniger Massenprodukt als Kultinstrument für Spieler, die technische Raffinesse zu schätzen wussten. Bis weit in die späten Achtziger hinein entstanden auf ihm in Deutschland, den Niederlanden und Polen noch Demos und Spiele, die zeigten, dass der elegante XL auch als reine Spieleplattform zu den besten 8-Bit-Computern seiner Ära zählte.

1984 verkaufte Atari rund 700 000 Heimcomputer, während Commodore über zwei Millionen C64 absetzte. Als Jack Tramiel im Juli 1984 Atari Corp. übernahm, senkte er die Preise drastisch; der 800XL wurde rasch zum günstigsten 64-KB-Computer seiner Klasse. In Europa blieb er populär, besonders in Deutschland, wo bis 1988 rund 500 000 Geräte verkauft wurden.

Ein unerwartetes Nachspiel folgte in Osteuropa: Mit der Öffnung der Märkte ab 1988 nahm Atari die Produktion wieder auf – in der leicht überarbeiteten XLF-Version mit dem neuen FREDDIE-Chip. In Polen, der Tschechoslowakei und der DDR wurde der 800XL zum ersten offiziell importierten West-Heimcomputer. Bis 1991 liefen Neuauflagen vom Band, meist im Bundle mit dem XC12-Laufwerk.

Rückblickend gilt der Atari 800XL als das ausgewogenste Modell der 8-Bit-Familie. Er verband Leistung, Eleganz und Benutzerfreundlichkeit zu einem System, das trotz widriger Marktbedingungen Maßstäbe setzte. Seine Architektur war ein Vermächtnis von Jay Miner, weitergeführt von McLeod und Neubauer, veredelt von Cheng und Laughton – ein echtes Gemeinschaftswerk der alten Atari-Schule.

Ein Entwickler sagte später rückblickend: „Surely Plus war unser Rettungsboot – klein, wendig, aber gebaut mit dem Herzblut von Leuten, die Atari noch glaubten.“ Und genau das war er: ein Computer, geboren aus der Krise, geschaffen mit Stolz, und bis heute ein Symbol für die goldene Ära der Heimcomputer.