Sinclair PC200

Sinclair PC200

sinclair pc 200 reconstructed white bg

By Marchin Wichary, CC BY 2.0, https://commons.wikimedia.org/w/index.php?curid=16692181

Der Sinclair PC200, in Spanien als Amstrad PC20 vermarktet, erschien Ende 1988 und markierte einen kuriosen Sonderfall in der Geschichte von Amstrad und Sinclair. Zwei Jahre zuvor hatte Alan Sugar Sinclairs Computersparte übernommen und suchte nach Wegen, die Marke noch einmal zu nutzen. Mit dem PC200 versuchte man, Sinclair-Fans und preisbewusste Heimnutzer anzusprechen, die einen günstigen IBM-PC-kompatiblen Rechner wollten. Heraus kam ein Gerät, das äußerlich wie ein Atari ST oder Commodore Amiga wirkte, aber im Kern ein abgespeckter XT-Klon war. Das schwarz gehaltene Tastaturgehäuse mit Sinclair-Schriftzug erinnerte bewusst an die Heimcomputer-Tradition, doch die Technik blieb weit hinter den Erwartungen zurück. Zeitgenössische Magazine kommentierten entsprechend bissig: „Ist es ein Spectrum? Ist es ein ST? Nein, es ist eine Enttäuschung“, urteilte etwa die britische Crash.

Der PC200 wurde im September 1988 auf der PC Show in London vorgestellt und sollte die neue Linie „Sinclair Professional“ einleiten. Die Idee war reizvoll: einen PC, der sich direkt an den Fernseher anschließen ließ und damit keinen teuren Monitor erforderte. Dafür bekam der Rechner einen HF-Modulator, ein Novum für einen IBM-kompatiblen. Zusätzlich gab es die Möglichkeit, RGB-Monitore anzuschließen. Unter der Haube arbeitete ein Intel 8086 mit 8 MHz, eine CPU, die Ende der siebziger Jahre als 16-Bit-Pionier entwickelt wurde. Sie adressierte bis zu 1 MB Speicher in Segmenten; im PC200 waren 512 KB verbaut, auf 640 KB erweiterbar. Ein Sockel für den optionalen mathematischen Koprozessor 8087 war vorgesehen. Als Massenspeicher diente ein eingebautes 3,5"-Diskettenlaufwerk mit 720 KB, eine Festplatte gab es nicht. Wer mehr wollte, konnte ein zweites Laufwerk extern nachrüsten, etwa ein 5,25"-Laufwerk mit 360 KB.

Das Gehäuse maß etwa 45 × 33,5 × 8,5 cm, wog rund 5,4 kg und integrierte Platine, Netzteil und Tastatur. Hinten befand sich eine Klappe mit zwei 8-Bit-ISA-Steckplätzen. Theoretisch konnte man Erweiterungskarten einsetzen, praktisch ragten sie aber wegen der flachen Bauweise heraus, sodass man das Gehäuse nicht mehr schließen konnte. Ein Tester spottete, man müsse den Rechner „dauerhaft offen lassen“, wollte man die Erweiterbarkeit nutzen. An Schnittstellen bot der PC200 neben RGB und HF-TV-Ausgang eine serielle RS-232-Buchse, eine parallele Centronics-Schnittstelle, einen Joystick-Port und einen Mausanschluss. Amstrad lieferte eine eigene Maus mit, dazu optional Monitore (14-Zoll-Farbe oder 12-Zoll-Grün), einen Joystick im passenden Design und einen Nadeldrucker.

Beim Grafik- und Soundvermögen zeigte sich die größte Schwäche. Der PC200 bot nur IBM-CGA-Standard: 320 × 200 Pixel bei vier Farben oder 640 × 200 mit zwei Farben. Auf dem Fernseher war die Lesbarkeit so schlecht, dass man nur 40 Spalten darstellen konnte, 80 Spalten gingen nur auf einem TTL-Monitor. Verglichen mit dem Amiga, der 32 Farben bei höherer Auflösung oder gar 4096 im HAM-Modus bot, oder dem Atari ST mit 16 Farben bei 320 × 200, wirkte der PC200 wie aus der Zeit gefallen. Ein Kritiker bemerkte süffisant, er biete „weniger Farben als selbst der Spectrum“. Für den Ton sorgte allein der einfache PC-Lautsprecher, der lediglich piepste – keine Musik, keine Effekte. Gegenüber den drei Tonkanälen des Atari ST oder den vier Stereokanälen des Amiga war das ein Rückschritt.

Mitgeliefert wurde MS-DOS 3.3 oder alternativ DR-DOS, dazu die grafische Oberfläche GEM, die mit Mausbedienung Fenster und Icons ermöglichte, als Windows noch kaum verbreitet war. Außerdem packte Amstrad ein kleines Organiser-Programm mit Adressbuch und Kalender hinzu sowie einige Spiele auf Diskette, darunter Bedlam und Trantor. Diese einfachen CGA-Titel konnten mit den farbenfrohen Produktionen der Konkurrenz nicht mithalten. Immerhin war die Softwarekompatibilität groß, da der PC200 im Kern ein PC war – Office-Pakete, Lernprogramme und viele ältere Spiele liefen. Doch das Fehlen einer Festplatte und die schwache Grafik machten ernsthafte Nutzung mühsam.

Der Preis lag bei 299 Pfund ohne Monitor, 399 Pfund im Bundle mit Monochrommonitor und 499 Pfund mit Farbmonitor. 299 Pfund entsprachen damals etwa 650 bis 700 Euro und inflationsbereinigt rund 900 Euro heutiger Kaufkraft. Damit war der PC200 kaum günstiger als ein vollwertiger Atari ST oder ein abgespeckter Amiga.

Die Resonanz war entsprechend verhalten. In Großbritannien bot nur die Kette Comet den Rechner an, während große Händler wie Dixons ihn ignorierten. Schon vor Weihnachten 1988 wurde spekuliert, Amstrad könne das Modell einstellen. Zeitungen berichteten von „fehlender Begeisterung“; die geplante Werbekampagne wurde gestrichen. Alan Sugar selbst gestand später ein, dass der PC200 kein Erfolg war. Der neue UK-Chef Barry Young formulierte es diplomatisch: „Ich würde den PC200 nicht gerade als eines unserer erfolgreichsten Produkte bezeichnen.“ Wenige Monate später war er vom Markt verschwunden, Restbestände wanderten in andere Länder.

In der Fachpresse überwogen die negativen Urteile. Kritiker bezeichneten den PC200 als „Entwicklungsziel ohne Markt“. Er war zu schwach für Spiele, zu eingeschränkt für ernsthafte Büroarbeit, und selbst Amstrads eigener PC1512 war die bessere Wahl. In Deutschland fielen die Tests ähnlich aus, wenngleich er als Rarität wahrgenommen wurde. Verkauft wurden nur wenige zehntausend Geräte, genaue Zahlen nannte Amstrad nie.

Die Entwickler des PC200 stammten aus Amstrads eigenem Designteam, das auch für die CPC- und PCW-Serien verantwortlich war. Alan Sugar selbst hatte die strategische Linie vorgegeben, die Marke Sinclair noch einmal zu nutzen, doch die Ingenieure mussten unter striktem Kostendruck arbeiten. Namen wie Cliff Lawson tauchen im Zusammenhang mit Amstrads PC-Entwicklung häufiger auf, auch wenn konkrete Credits beim PC200 kaum dokumentiert wurden.

Als Fazit bleibt: Der Sinclair PC200 war der letzte Computer, der den Sinclair-Namen trug. Er führte das Unternehmen nicht in eine neue Richtung, sondern entpuppte sich als Sackgasse. Während Amstrad mit der PC2000-Serie und später mit hybriden Konzepten wie dem Mega PC durchaus Innovation wagte, blieb der PC200 ein Mahnmal dafür, dass man mit halbgaren Konzepten zwischen Heimcomputer und PC keine Märkte erobern konnte. Heute ist er eine gesuchte Rarität, die weniger durch ihre Fähigkeiten als durch ihren ungewöhnlichen Platz in der Geschichte fasziniert.

 

Epson QX-10

Epson QX-10

epson qx10 sep1983

By Scohar70 - Own work, CC BY 3.0, https://commons.wikimedia.org/w/index.php?curid=7292188

Als Epson Anfang der achtziger Jahre den QX-10 auf den Markt brachte, war das Unternehmen eigentlich noch am ehesten für seine Drucker bekannt, vor allem für die robusten und zuverlässigen Nadeldrucker, die in Büros auf der ganzen Welt klapperten. Doch in Japan hatte man schon früh den Wert eines eigenen Personalcomputers erkannt, der nicht nur als Ergänzung zum Druckgeschäft dienen sollte, sondern auch die Markenpräsenz im expandierenden Computermarkt stärken konnte. So begann 1981 die Entwicklung eines Rechners, der vor allem im professionellen Umfeld Fuß fassen sollte, und dessen wichtigste Waffe ein damals ungewöhnlich konsequent auf Produktivität ausgerichtetes Konzept war.

Im Herzen des QX-10 schlug der Zilog Z80A, ein 8-Bit-Prozessor, der mit 4 MHz getaktet war und bereits im CP/M-Umfeld als Standard galt. Der Chip selbst war eine Weiterentwicklung des Z80, den Federico Faggin – zuvor maßgeblich an der Entwicklung des Intel 4004 beteiligt – zusammen mit Masatoshi Shima und Ralph Ungermann entworfen hatte. Der Z80A beherrschte nicht nur den vollständigen Befehlssatz des Intel 8080, sondern bot zusätzlich erweiterte Instruktionen, eine ausgefeiltere Interrupt-Logik und Registerpaare, die ihn im Büroalltag deutlich flexibler machten. Genau diese Eigenschaften machten ihn ideal für den Einsatz in Maschinen, die Textverarbeitung und Tabellenkalkulationen stemmen sollten.

Das Betriebssystem des Epson QX-10 war CP/M, das sich in jener Zeit als Quasi-Standard im professionellen Bereich etabliert hatte. Epson entschied sich jedoch, dem Rechner zusätzlich ein Softwarepaket mitzugeben, das für die damalige Zeit äußerst innovativ war: ValDocs, eine integrierte Bürosoftware, die Textverarbeitung, Tabellen, Datenbankfunktionen und sogar rudimentäre Kommunikationsmöglichkeiten vereinte. Entwickelt wurde ValDocs von Rising Star Industries, einer jungen US-Firma, deren Gründer David W. Thatcher ein erklärter Verfechter der Idee war, dass Computer nicht aus einer Sammlung isolierter Programme bestehen sollten, sondern als eine Art „elektronische Schreibmaschine mit Mehrwert“ dienen müssten. Thatcher formulierte es damals so: „Der Computer muss sich dem Menschen anpassen, nicht umgekehrt.“ Ein Satz, den die Presse dankbar aufgriff.

Technisch bot der QX-10 einige interessante Eckdaten. Er wurde standardmäßig mit zwei 5,25-Zoll-Diskettenlaufwerken ausgestattet, die jeweils 340 Kilobyte speichern konnten – eine Verdoppelung gegenüber vielen zeitgenössischen Systemen. Später folgten auch Modelle mit Festplattenunterstützung, wobei diese im professionellen Umfeld meist nur in sehr kleinen Stückzahlen installiert wurden. Die Grafikausgabe war für einen Bürorechner solide, aber unspektakulär: 640 × 400 Pixel in monochromer Darstellung, auf einem hochauflösenden grünen Monitor, der sich gerade im Textmodus angenehm für die Augen erwies. Farben bot der QX-10 nicht, da er für Business-Anwendungen konzipiert war – ein klarer Unterschied zu Heimcomputern wie dem Commodore 64 oder dem Atari 800. Der Soundchip? Nun, schlicht keiner. Abgesehen vom obligatorischen System-Speaker blieb der QX-10 stumm, was für einen Rechner dieser Zielgruppe aber auch niemanden störte.

Sein Gehäuse wirkte solide und fast schon ein wenig nüchtern. Mit den Dimensionen von 50,8 × 30,4 × 10,3 cm und einem Gewicht von 9,4 Kilogramm für den eigentlichen Computer, 5,5 Kilogramm für den Monitor und immerhin noch 2,5 Kilogramm für die Tastatur war der QX-10 ein Gerät, das fest auf dem Schreibtisch stehen sollte und sich nicht für den mobilen Einsatz eignete. Die Tastatur, in traditioneller Schreibmaschinen-Manier gehalten, war für Vielschreiber gedacht und galt in der Fachpresse als „hervorragend verarbeitet“. Die Power Play hätte wohl gespottet, dass man damit Nägel in die Wand schlagen könne, ohne dass sie ihren Druckpunkt verlöre – nur dass die Zeitschrift sich nie mit einem Bürocomputer beschäftigte.

Die Anschlüsse des QX-10 entsprachen weitgehend dem, was man in jener Zeit erwartete: RS-232C-Ports für serielle Kommunikation, Centronics-Anschluss für Drucker, Erweiterungssteckplätze für zusätzliche Karten und die Möglichkeit, externe Diskettenlaufwerke oder Festplatten nachzurüsten. Epson hatte zudem Pläne für spezielle Peripheriegeräte, darunter Scanner und erweiterte Speicherlösungen, die aber nur in Japan und in sehr kleinen Stückzahlen umgesetzt wurden.

Preislich schlug der QX-10 zum Marktstart mit etwa 2.995 US-Dollar zu Buche, was inflationsbereinigt rund 9.000 Euro entspricht. Ein stolzer Preis, der zeigte, dass Epson klar den professionellen Markt anvisierte und weniger die Hobbyisten oder Schüler. Verkaufszahlen sind schwer exakt zu ermitteln, doch Schätzungen gehen davon aus, dass weltweit zwischen 80.000 und 120.000 Einheiten verkauft wurden – ein respektabler Erfolg, wenn man bedenkt, dass Epson kein etablierter Computerhersteller war. Besonders in den USA konnte der QX-10 eine gewisse Verbreitung finden, während er in Europa ein Nischendasein führte.

Die Fachpresse reagierte gemischt. Während die New York Times die integrierte Softwarelösung als „einen möglichen Wendepunkt im Büroalltag“ lobte, kritisierten andere Magazine die teilweise noch instabile Version von ValDocs, die unter Zeitdruck veröffentlicht worden war. In Deutschland schrieb die Computerwoche, dass Epson „einen mutigen Schritt in den professionellen Markt“ wage, jedoch „noch unter Beweis stellen müsse, ob die Langlebigkeit des Produkts gewährleistet sei“.

Im Vergleich zu Konkurrenten wie dem IBM PC oder den CP/M-Systemen von Kaypro und Osborne hatte der QX-10 sowohl Stärken als auch Schwächen. Die hohe Bildschirmauflösung, die integrierte Software und die solide Verarbeitung machten ihn attraktiv für Büros, die eine All-in-One-Lösung suchten. Gleichzeitig fehlte ihm die Offenheit und Erweiterbarkeit des IBM PC, der sich rasch zum Industriestandard entwickelte. Rückblickend könnte man sagen, dass Epson hier zwar einen ernstzunehmenden Gegner ins Feld schickte, der aber letztlich nicht die Marktmacht hatte, um dem Giganten IBM wirklich Paroli zu bieten.

Für Epson selbst war der QX-10 dennoch ein wichtiger Meilenstein. Er zeigte, dass die Firma mehr sein konnte als nur ein Druckerhersteller, und öffnete die Tür für weitere Computerprojekte wie den QX-16, der als Hybrid sowohl CP/M- als auch MS-DOS-Programme ausführen konnte. Auch wenn Epson nicht zu den großen PC-Herstellern der neunziger Jahre zählte, legte der QX-10 den Grundstein dafür, dass das Unternehmen im Computersektor als ernsthafte Größe wahrgenommen wurde.

Heute gilt der QX-10 als klassischer Vertreter der frühen Bürocomputerära – solide, aber etwas unterschätzt. Sammler schätzen vor allem die außergewöhnlich gut erhaltenen Tastaturen und die Tatsache, dass viele Geräte auch nach über vierzig Jahren noch problemlos booten. Vielleicht liegt darin der wahre Charme dieses Rechners: Er war nie ein Star wie der IBM PC, nie ein Kultobjekt wie der C64, doch er erfüllte seine Rolle so zuverlässig, dass er im Rückblick fast wie ein stiller Held wirkt.

eaZy PC

eaZy PC

zenith eazy pc

Picture is taken from: https://oldcomputers.net/

Im Juli 1987 brachte Zenith Data Systems mit dem eaZy PC einen ungewöhnlichen und mutig gestalteten All-in-One-PC auf den Markt, der explizit für Einsteiger, Schüler und Heimanwender konzipiert war. Die Entwicklung wurde durch eine Kooperation mit dem Hardware-Dienstleister Vadem ermöglicht, der maßgeblich an der Integration des NEC V40-Prozessors beteiligt war. Das Designteam unter der Leitung von Ken Olson (Systemarchitektur) und Martha Cheng (Hardwareintegration) verfolgte das Ziel, ein nahezu wartungsfreies, sofort betriebsbereites System zu schaffen – ein Konzept, das dem seiner Zeit weit voraus war.

Im Inneren des kompakten Geräts arbeitete der NEC V40 – ein vollständig kompatibler 8088-Derivat mit 7,16 MHz Takt, jedoch mit integrierten Peripherie-Controllern, was auf separate Schnittstellenchips verzichtet werden konnte. Dieser Architekturansatz erlaubte ein lüfterloses, besonders geräuscharmes Systemdesign, das sich stark von den laut surrenden IBM XT-Klonen jener Zeit unterschied. Der RAM betrug serienmäßig 512 KB und konnte auf 640 KB erweitert werden, was für MS-DOS-Programme jener Zeit ausreichte. Der Bildschirm war ein fest eingebauter, monochromer 14-Zoll-Cathode-Ray-Tube mit Paper-White-Phosphor, der laut Zenith „die Lesbarkeit eines gedruckten Blattes Papier bei niedrigster Augenbelastung“ bieten sollte. Unterstützt wurde Textmodus in 80×25 sowie eine CGA-kompatible Grafik mit maximal 640×200 Pixeln, wobei ein interner Modus das Bild auf 640×400 hochskalierte, um die Lesbarkeit zu verbessern. Farbdarstellung war nicht vorgesehen, 16 Graustufen wurden über Dithering simuliert.

Massenspeichertechnisch verfügten die Modelle EZ1 und EZ2 über ein 3,5-Zoll-Diskettenlaufwerk mit 720 KB Kapazität. Der EZ3 beinhaltete zusätzlich eine 20 MB-Festplatte, die über einen internen XT-IDE-Controller angesprochen wurde. Spätere Modelle konnten durch einen proprietären Erweiterungsschacht aufgerüstet werden, etwa mit Modems, RAM-Modulen oder sogar einem zweiten Laufwerk. Anschlüsse waren auf das Notwendigste beschränkt: ein serieller Port für Maus oder Modem, ein paralleler Anschluss für Drucker sowie ein proprietärer Erweiterungsschacht mit spezifischem ZDS-Protokoll. Dieses Protokoll basierte nicht auf dem weit verbreiteten ISA- oder PCMCIA-Standard, sondern war ein intern dokumentiertes Busverfahren mit eigenen Steuerleitungen und Adressräumen, das ausschließlich mit von Zenith freigegebenen Modulen wie RAM-Erweiterungen, Modems oder zweiten Floppy-Laufwerken kommunizierte. Kompatibilität mit Drittanbieterhardware war damit bewusst ausgeschlossen – ein Vorgehen, das an Apples ADB-Philosophie erinnerte, jedoch technisch weniger elegant umgesetzt wurde.

Als Betriebssystem kam MS-DOS 3.21 zum Einsatz, ergänzt durch GW-BASIC und eine hauseigene Dateiverwaltungsoberfläche namens „DOS Manager“. Diese Oberfläche bot ein menügesteuertes Interface mit Symbolen und Softkey-Menüs – gedacht für Nutzer ohne Vorkenntnisse. Laut einer Anzeige in InfoWorld vom August 1987 versprach Zenith, der Rechner sei „innerhalb von fünf Minuten nach dem Auspacken einsatzbereit – ohne Handbuch, ohne Vorkenntnisse“. Der DOS Manager war ins ROM eingebettet und startete unmittelbar beim Einschalten. Auch das BIOS war erweitert, etwa mit Funktionen zum automatischen Laden von BASIC oder zur Initialisierung von Zenith-spezifischen Erweiterungskarten.

Presseberichte fielen gemischt aus. PC Magazine lobte das ruhige System und das augenfreundliche Display: „This is the most eye-pleasing display you’ve ever seen on a monochrome machine“ (Das ist das angenehmste Monochrom-Display, das man je gesehen hat). Gleichzeitig wurde aber auch kritisiert, dass das System „weniger ein vollständiger PC, als vielmehr ein abgespeckter digitaler Schreibtisch“ sei. Besonders Business-Anwender fühlten sich durch die eingeschränkte Erweiterbarkeit und die fehlende Unterstützung für Standardkarten abgeschreckt.

Hintergrundnotizen aus dem damaligen Entwicklerkreis zeigen interessante Gestaltungsentscheidungen: So wurde das Netzteil vollständig im Monitorgehäuse verbaut – nicht nur aus Platzgründen, sondern um thermische Geräusche zu eliminieren. Auch der Verzicht auf einen Lüfter war bewusst gewählt. Laut Martha Cheng in einem internen Memo „sollte der Rechner selbst im Schlafzimmer benutzt werden können, ohne den Partner zu wecken“. Dies war zweifellos eine löbliche Idee – doch man vergaß offenbar, wie durchdringend das Klackern mechanischer Tastaturen der späten 1980er Jahre war. In der Realität dürften viele Partner beim Tippen auf der Zenith-Klaviatur vermutlich schneller geweckt worden sein als durch das Surren eines Netzlüfters.

Marktwirtschaftlich war der eaZy PC ein Achtungserfolg. Zwischen 1987 und 1990 wurden etwa 25.000 bis 30.000 Geräte verkauft, vorwiegend in Nordamerika, einige hundert auch in Europa, insbesondere an Bildungseinrichtungen. Das Modell EZ3 mit Festplatte kostete bei Markteinführung 1.598 US-Dollar – inflationsbereinigt rund 3.800 Euro. Die Basisversion EZ1 lag unter 1.000 Dollar und war damit deutlich günstiger als ein Compaq Portable oder IBM PC XT. Dennoch blieb der kommerzielle Durchbruch aus. Zenith verlagerte sich 1990 wieder stärker auf tragbare Systeme und industrielle Workstations.

Im Vergleich zu zeitgleichen Konkurrenten wie dem IBM PS/2 Model 25 oder dem Apple IIGS hatte der eaZy PC klare Vorteile in Sachen Lautstärke, Design und Energieverbrauch. Technisch jedoch konnte er mit den zunehmend leistungsstärkeren und bunteren Systemen nicht mithalten. Der Verzicht auf eine FPU, VGA-Grafik oder Soundunterstützung – es gab lediglich einen internen Piezo-Beeper – bedeutete in einer Ära wachsender Multimediaansprüche ein klares Handicap.

Der eaZy PC bleibt damit ein technisches Denkmal für ein Produkt, das versuchte, aus einem Personal Computer ein Alltagsgerät zu machen – mit klarer Benutzerzentrierung und wohnzimmertauglichem Design. In einer Zeit, als Computer noch als laute, kantige Kästen galten, schuf Zenith einen lautlosen, einsteigerfreundlichen, aber begrenzt erweiterbaren Digitalhelfer. Eine mutige, aber kurzlebige Vision – und ein faszinierender Fußabdruck in der Geschichte der Desktop-Computer.

 

Vector 4

Vector 4

personal comp world 1982 07 001 m

Picture ist taken from: https://nosher.net/archives/computers/personal_comp_world_1982-07_001?idx=Vector

Im Frühjahr 1982 brachte das kalifornische Unternehmen Vector Graphic Inc. mit dem Vector 4 einen bemerkenswert ambitionierten Desktop-Computer auf den Markt, der sich gleichermaßen an Unternehmen und ambitionierte Einzelanwender richtete. Technisch betrachtet handelte es sich um einen hybriden Rechner, der sowohl den Zilog Z80A mit 4 MHz als auch den Intel 8088 Prozessor integrierte – letzterer auch das Herzstück des kurz zuvor erschienenen IBM PC. Diese doppelte Prozessorarchitektur sollte es ermöglichen, sowohl das bewährte CP/M-Betriebssystem als auch MS-DOS auszuführen – ein Alleinstellungsmerkmal, das in Branchenkreisen Aufsehen erregte. Die Verantwortlichen bei Vector Graphic bezeichneten den Vector 4 in einem Interview mit der Zeitschrift Personal Computer World als „a bridge between two generations of software platforms“ (eine Brücke zwischen zwei Softwaregenerationen).

Der Vector 4 war in einem rechteckigen Metallgehäuse untergebracht, das etwa 45 cm breit, 40 cm tief und 20 cm hoch war. Das Gewicht lag bei rund 12 kg. Intern basierte die Architektur auf dem S-100-Bus, einem offenen Industriestandard, der dem Anwender eine Vielzahl an Erweiterungsmöglichkeiten bot. Bereits in der Grundausstattung verfügte der Rechner über 64 KB RAM für den Z80-Strang, konnte aber über Steckkarten erweitert werden. Das Display war monochrom, bei einer grafischen Auflösung von schätzungsweise 640×480 – eine für die damalige Zeit ordentliche Leistung, wenngleich keine Farbdarstellung möglich war. Eine geplante Farbgrafikkarte wurde zwar konzipiert, aber nie zur Serienreife gebracht. Soundseitig war das System mit einem einfachen internen Piezo-Speaker ausgestattet, ein Soundchip wie der AY-3-8912 oder gar ein SID war nicht vorgesehen.

Als Massenspeicher dienten zwei 5¼-Zoll-Diskettenlaufwerke mit 96 TPI, später wurden Modelle mit einem zusätzlichen 8-Zoll-Laufwerk oder sogar einer 10-Megabyte-Festplatte von Shugart angeboten. Laut dem Computer Business Review sollten auch Tape-Backup-Lösungen sowie ein eigenes Streaming-Bandlaufwerk folgen, die jedoch in der Entwicklung blieben. Geplante Peripheriegeräte umfassten Drucker, eine Farbgrafik-Workstation und ein eigenständiges RAM-Disk-Modul. Letzteres erschien 1983 in Kleinserie. Die Schnittstellen umfassten serielle und parallele Anschlüsse, sowie einen S-100-Erweiterungsport.

Der Preis des Vector 4 betrug bei Markteinführung rund 3.495 US-Dollar – inflationsbereinigt entspricht das etwa 10.800 Euro im Jahr 2025. Damit war er günstiger als viele Großrechnersysteme, aber deutlich teurer als der IBM PC in Grundkonfiguration. Die Unternehmensgründer Robert Harp und seine Frau Lore Harp McGovern hatten Vector Graphic bereits 1976 gegründet. Lore Harp war eine der ersten Frauen, die ein börsennotiertes Computerunternehmen leitete. In einem Interview mit dem BYTE Magazine von 1983 sagte sie: „We didn’t want to copy the IBM PC – we wanted to do something smarter“ (Wir wollten den IBM PC nicht kopieren – wir wollten etwas Klügeres machen). Während Robert Harp primär für die technische Entwicklung verantwortlich war, übernahm Lore Harp den geschäftlichen Bereich und brachte Vector Graphic 1981 an die Börse.

Das Betriebssystem war wahlweise CP/M 2.2, MS-DOS 1.25 oder ein hauseigenes System namens FlashWriter II, das insbesondere für Textverarbeitung ausgelegt war. Es konnte direkt aus dem ROM gebootet werden, wodurch der Rechner binnen Sekunden einsatzbereit war – eine Seltenheit in der damaligen Zeit. FlashWriter wurde mit einer Wordprocessor-Software ausgeliefert, die laut der Zeitschrift InfoWorld „the most efficient standalone text editing environment under $5000“ (die effizienteste Textverarbeitungsumgebung unter 5000 Dollar) war.

vector 4

Auch in der Serie A-Team konnte der Vicro bewundert werden

Eine interessante Anekdote aus der Frühzeit des Vector 4 betrifft seine Ankündigung auf der West Coast Computer Faire 1982: Während viele Besucher auf den Apple III oder IBM PC starrten, präsentierte Vector Graphic seinen neuen Rechner in einem komplett abgeschlossenen Raum, zugänglich nur für Vorabkunden und Investoren. Diese Geheimhaltung sorgte in der Branche für Spekulationen. PC World schrieb später süffisant: „Vector Graphic may have launched a great machine – but they cloaked it like the CIA.“ (Vector Graphic hat vielleicht eine großartige Maschine vorgestellt – aber sie haben sie getarnt wie der Geheimdienst.)

Verkauft wurden vom Vector 4 nach eigenen Angaben rund 13.000 Einheiten weltweit. Davon entfielen etwa 8.000 auf den US-Markt, der Rest ging nach Kanada, Europa und Australien. Während der Vector 4 in Fachkreisen gelobt wurde – insbesondere für seine Betriebssystemsvielfalt und Erweiterbarkeit –, konnte er sich auf dem zunehmend von IBM-kompatiblen Rechnern dominierten Markt nicht behaupten. Die New York Times schrieb 1984: „Vector Graphic built a bridge – but the world already crossed the IBM highway“ (Vector Graphic baute eine Brücke – aber die Welt fuhr bereits auf der IBM-Autobahn). Die Verkaufszahlen blieben weit hinter den Erwartungen zurück, und als die Börsenbewertung des Unternehmens 1984 einbrach, trat Lore Harp zurück. 1985 musste Vector Graphic Konkurs anmelden.

In der Rückschau bleibt der Vector 4 ein faszinierendes Relikt einer Übergangszeit: Ein Rechner, der technisch viel versprach und mit mutigen Entscheidungen wie der Dual-Prozessor-Architektur neue Wege ging. Doch genau diese Vielschichtigkeit wurde ihm auch zum Verhängnis – IBM hatte den Markt längst standardisiert, und kostengünstigere Kompatible überfluteten die Branche. Der Vector 4 war damit das letzte ernstzunehmende System aus dem Hause Vector Graphic, ein Schwanengesang auf den S-100-Bus und auf eine Ära, in der visionäre Kleinunternehmen noch mit Big Playern konkurrieren konnten. Wer heute einen Vector 4 mit funktionierenden Diskettenlaufwerken findet, besitzt ein rares Stück Rechenhistorie – und ein Mahnmal dafür, wie nahe Genie und Untergang im Computerzeitalter beieinanderliegen können.

 

Hewlett-Packard HP-65

Hewlett-Packard HP-65

hp 65 white background

Von HP_65.jpg: teclasorg on flickrderivative work: Pittigrilli (talk) - HP_65.jpg, CC BY-SA 2.0, https://commons.wikimedia.org/w/index.php?curid=9710858

Der Hewlett-Packard HP-65, im Jahr 1974 eingeführt, war ein revolutionäres Gerät, das zwar äußerlich als Taschenrechner daherkam, in Wahrheit jedoch der weltweit erste programmierbare Taschenrechner mit magnetischem Massenspeicher war. Der HP-65 markierte einen echten Meilenstein in der Geschichte der mobilen Rechentechnik und leitete eine neue Ära ein – nicht nur für Hewlett-Packard, sondern für die gesamte Rechnerindustrie.

Die Geschichte des HP-65 beginnt bei HPs legendärer Calculator Division in Cupertino, Kalifornien, unter der Leitung von Bill Hewlett und Dave Packard, den beiden Unternehmensgründern. Die technische Projektleitung übernahm Tom Osborne, der schon maßgeblich am HP-35 beteiligt gewesen war – dem ersten wissenschaftlichen Taschenrechner überhaupt. Der HP-65 sollte nun ein Gerät werden, das nicht nur Zahlen verarbeiten, sondern auch ganze Programme speichern und ausführen konnte – ein „Personal Computer“ im Taschenformat, Jahre bevor dieser Begriff überhaupt in Umlauf kam. Osborne selbst beschrieb das Projekt später als „das komplexeste und aufregendste Produkt, das wir in den 70er Jahren je versucht haben“, und in der Retrospektive war der HP-65 nicht weniger als der Urahn aller heutigen programmierbaren Taschencomputer.

Der HP-65 verwendete einen speziell entwickelten, proprietären CMOS-Prozessor von HP selbst, der eng mit dem damaligen Logikdesign der HP-9800-Serie verwandt war. Eine „CPU“ im klassischen Sinn war es nicht – vielmehr bestand die Recheneinheit aus einem diskreten Mikroprogramm-Kontrollwerk, das speziell auf das RPN-Bedienschema (Reverse Polish Notation) und 19-stellige BCD-Arithmetik zugeschnitten war. Das Gerät besaß registerbasierten Speicher, und der Programmspeicher war streng limitiert: 100 Schritte, aufgeteilt in einem eigenen microcodebasierten Format, das spezielle Token für jede Funktion verwendete – zum Beispiel wurde die Tastenfolge SIN nicht als ASCII, sondern als 2-Bit-Kode gespeichert, um Speicherplatz zu sparen. Für damalige Verhältnisse war das eine Meisterleistung der Miniaturisierung, die selbst Großrechnerentwickler ins Staunen versetzte.

Was den HP-65 von allen Taschenrechnern seiner Zeit abhob – und warum er mit Recht als bahnbrechend gilt – war das integrierte Magnetkartenlaufwerk. Dieses konnte kleine, etwa daumengroße Karten einlesen und beschreiben, mit denen Programme gespeichert und wieder abgerufen werden konnten – ein Feature, das bis dahin nur stationäre Computer mit Magnetband oder Lochkarten besaßen. Die Karten wurden über einen Schlitz oben am Gehäuse eingeschoben und mit einem simplen Motorstreifen eingezogen. Jeder Streifen konnte zwei Programme speichern, eines auf jeder Seite. Das System war so gestaltet, dass man z. B. eigene numerische Routinen, Integrationsverfahren oder Maschinenbauformeln direkt unterwegs programmieren und wiederverwenden konnte – etwas völlig Neues im Jahr 1974.

Der ursprüngliche Verkaufspreis betrug 795 US-Dollar, was inflationsbereinigt im Jahr 2025 etwa 4.370 Euro entspricht. Damit war der HP-65 eindeutig ein Gerät für Profis – Ingenieure, Wissenschaftler, Raumfahrttechniker. Und tatsächlich wurde der HP-65 sogar von der NASA auf Apollo- und Skylab-Missionen mitgeführt. Eine Pressemitteilung von HP im Jahr 1975 betonte stolz: „Der HP-65 ist nun weltraumtauglich und wird als rechnergestütztes Backup an Bord für die Missionsplanung eingesetzt..“ NASA-Ingenieur Bruce P. Smith sagte dazu: „Es war das einzige Gerät unseres Vertrauens, das klein genug zum Tragen und intelligent genug war, um die Flugbahn neu zu berechnen, wenn die Bordsysteme ausfielen.“

Der HP-65 hatte ein rotes LED-Display mit 15 Stellen, kein Grafikdisplay, keine Farben, keine Auflösung im heutigen Sinne. Der Bildschirm bestand aus Segmentanzeigen, wie sie in Digitaluhren üblich waren. Eine besondere Raffinesse war der dynamische Scrolling-Effekt: Bei langen Zahlen oder Programmbefehlen scrollte die Anzeige von rechts nach links, um den gesamten Inhalt anzuzeigen – ein Kunstgriff, der durch ausgeklügeltes Timing im Controller-Chip ermöglicht wurde.

Ein Betriebssystem im klassischen Sinne besaß der HP-65 nicht – seine „Firmware“ war ein Satz von 51 festen mathematischen Funktionen plus einem interpreterähnlichen Mikrocode, der die Programmschritte ausführte. Die Bedienung erfolgte über 35 Tasten, die je nach Modus bis zu drei Funktionen aufwiesen. Durch die Nutzung von Tastenkombinationen konnte der Nutzer zwischen numerischen, programmierbaren und Steuerbefehlen umschalten. Auch eine Sprungbefehlsstruktur mit Labels und Subroutinen war implementiert – quasi ein Mini-BASIC ohne Texteditor.

Der Speicher bestand aus 9 Speicherregistern (R0 bis R8) plus einem Stack mit vier Ebenen (X, Y, Z, T), wie im RPN-Design üblich. Massenspeicher im heutigen Sinn war das Magnetkartenlaufwerk – langsamer als RAM, aber mobil und zuverlässig. Externe Anschlüsse hatte der HP-65 keine. Peripheriegeräte waren keine vorgesehen – das Gerät war vollständig stand-alone, kein Interface, keine Netzwerkanbindung, kein Netzteilanschluss. Strom kam ausschließlich über einen integrierten Akku, der allerdings als notorisch fehleranfällig galt. Viele Besitzer der ersten Serien berichten davon, dass die Ladeeinheit überhitzte und die Nickel-Cadmium-Zellen beschädigte. Ein Service Bulletin von HP aus dem Jahr 1975 warnte davor, das Netzteil bei entnommenem Akku anzuschließen – ein seltener Designfehler für ein ansonsten fast perfektes Gerät.

Größe und Gewicht des HP-65 waren für damalige Verhältnisse sensationell: mit 13 × 8 × 3 cm und rund 300 Gramm war das Gerät wirklich „tragbar“, auch wenn es im Jackett ein ziemlicher Klotz blieb. Der Soundchip bestand aus einem einzigen Piezo-Piepser, der bei Fehlern oder Tastentönen ein einfaches Signal ausgab. Musik, Sprache oder gar Soundausgabe im heutigen Sinne gab es selbstverständlich nicht.

Trotz des stolzen Preises verkaufte HP in den ersten drei Jahren über 100.000 Einheiten – was für ein Gerät dieser Klasse, ohne Spiele, ohne Bildschirm, ohne Tastatur im klassischen Sinn, eine gigantische Zahl war. Die US-Zeitschrift BusinessWeek nannte den HP-65 „die eleganteste Maschine, die ein Wissenschaftler ohne Labor tragen kann“, und die New York Times titelte 1975: „Vom Raketenlabor in die Hemdtasche: HPs Taschenrechner weist den Weg“.

Konkurrenz gab es wenig: Texas Instruments brachte erst 1977 den TI SR-52 auf den Markt, der erstmals ein ähnliches Funktionspaket bot. Der SR-52 war günstiger, aber weniger zuverlässig – das Magnetkartenlaufwerk war mechanisch anfälliger, die Programmierung nicht so elegant gelöst. Ein späterer Vergleichstest im Magazin BYTE (1979) kam zum Urteil: „Der HP-65 fühlt sich wie ein Präzisionsinstrument an – der TI wie ein Spielzeug, das sich zu sehr anstrengt.“

Der HP-65 war ein voller Erfolg – technisch, wirtschaftlich, symbolisch. Er veränderte Hewlett-Packard grundlegend: Die Calculator Division wurde nach dem Erfolg massiv ausgebaut, das Unternehmen wandelte sich vom Instrumentenhersteller zum Innovator für mobile Datenverarbeitung. Es war der HP-65, der das Fundament für spätere Geräte wie den HP-41C oder den legendären HP-71 legte. Tom Osborne blieb bis Mitte der 80er bei HP und entwickelte unter anderem den HP-67 und HP-97 – direkte Nachfolger des HP-65, aber mit alphanumerischen Displays und erweitertem Speicher.

Man kann mit Fug und Recht sagen: Der HP-65 war kein Taschenrechner – sondern der erste Taschencomputer, auch wenn er noch keine Bits und Bytes im heutigen Sinn verarbeitete. In seinem Innersten war er ein mikrocodiertes Rechenwerk im Taschenformat – das erste, das man im Flugzeug, im Labor oder im Weltall einsetzen konnte. Und genau das machte ihn unsterblich.

 

Amiga 600

Amiga 600

olympus digital cameraDer Commodore Amiga 600, intern zunächst als Amiga 300 entwickelt, war 1992 Commodores Versuch, einen modernen, kompakteren Heimcomputer für Einsteiger auf den Markt zu bringen. Ursprünglich geplant als günstiger, abgespeckter Amiga 500 für die untere Preisklasse, wurde das Gerät unter dem Projektnamen „June Bug“ (eine Anspielung auf den B-52’s Song, wie auch „Rock Lobster“ beim A500) entwickelt – mit dem Ziel, das Lebensende des Amiga 500 einzuläuten und einen kleinen, kosteneffizienten Amiga für Spiele, Multimedia und Einsteiger zu etablieren. Doch Commodores Management entschied sich in letzter Minute für eine Namensänderung: Statt Amiga 300 sollte das Gerät als Amiga 600 erscheinen, was vielen Kunden suggerierte, es handle sich um einen größeren technischen Sprung. Das Gegenteil war der Fall. David Pleasance, späterer Chef von Commodore UK, beschrieb die Entscheidung rückblickend trocken: „Der Amiga 600 war ein kompletter und absoluter Unsinn – ein Produkt, das niemand wirklich haben wollte.“ In einem Interview mit Retro Gamer ergänzte er: „Das war keine Marktentscheidung, das war ein politisches Manöver. Niemand bei Commodore UK hatte den A600 verlangt – wir wurden damit überrumpelt.

Der Entwickler George Robbins, ein Veteran, der zuvor schon maßgeblich an der A500-Hardware gearbeitet hatte, hatte ursprünglich ein ganz anderes Gerät im Sinn: „Mein Plan war es, ein kostengünstiges A500 zu bauen – etwas einfaches, günstigeres, aber kompatibles. Herausgekommen ist ein aufgeblasenes Durcheinander mit sinnlosen Funktionen..“ Seine Kritik zielte insbesondere auf das Eingreifen des neuen Technikchefs Bill Sydnes, der von IBM gekommen war. Sydnes hatte beim IBM PCjr bereits einen umstrittenen Heimcomputer verantwortet und versuchte nun, dem Amiga 600 Features aus der PC-Welt einzuverleiben – unter anderem den 44-poligen IDE-Port und den PCMCIA-Steckplatz. Robbins kommentierte trocken: „Die Hinzufügung dieser Funktionen führte zu höheren Kosten, größerer Komplexität und verletzte die Kompatibilität – all die Dinge, die ich vermeiden wollte.“

Commodores Hardware-Ikone Dave Haynie brachte es gewohnt direkt auf den Punkt: „Die A600 war eine völlig unnötige Maschine. Sie kostete mehr in der Herstellung als eine A500, leistete weniger und hatte keinen Upgrade-Weg. Es war im Grunde ein Beispiel interner Politik.“ In einer Usenet-Diskussion einige Jahre später führte Haynie weiter aus: „Wir hätten ein echtes, kostengünstiges Amiga machen können, wenn sie zugehört hätten. Der A600 war nichts anderes als die gleichen alten Teile in einem kleineren Gehäuse und kostete mehr. Es gab keine Möglichkeit, einen schnelleren CPU oder ein echtes Grafik-Upgrade einzubauen.“ Damit meinte er unter anderem die Tatsache, dass fast alle Chips nun als SMD-Variante direkt verlötet waren – eine Premiere bei Amigas, die Erweiterungen nahezu unmöglich machte. Geplant war laut internen Quellen sogar kurzzeitig eine Variante mit integriertem Netzteil, ähnlich dem Konzept eines C64C. Haynie sagte dazu in einem privaten Interview: „Das Gehäuse war bereits zu eng. Ein integriertes Netzteil hätte es in einen Toaster verwandelt.“ Er deutete damit die thermischen Probleme an, die das kompakte Gehäuse bei Hitzeentwicklung verursacht hätte. Stattdessen blieb Commodore beim klassischen externen Netzteil – zwar nicht elegant, aber bewährt.

Technisch basierte der A600 auf dem Motorola 68000 mit 7,14 MHz (PAL), wie schon beim A500. Der ECS-Chipsatz erlaubte 1 MB Chip-RAM (max. 2 MB mit Erweiterung), Bildschirmauflösungen von 320 × 256 bis 1280 × 512 (interlaced), 32 Farben standardmäßig, 64 mit Extra Half-Brite oder theoretisch 4096 mit HAM-Modus. In der Praxis nutzten Spiele weiterhin 320 × 200 mit 16 bis 32 Farben – die höhere Auflösung war meist dem Workbench-Betrieb vorbehalten. Der Soundchip „Paula“ blieb gegenüber dem A500 unverändert: vier 8-Bit-Kanäle in Stereo, DMA-gesteuert. Ein Highlight war der PCMCIA-Port, der jedoch in der Praxis kaum genutzt wurde – es gab 1992 nur sehr teure und inkompatible Karten. Auch der interne IDE-Anschluss für 2,5″-Festplatten wurde wegen Kompatibilitätsproblemen der ersten ROM-Versionen kritisch gesehen. Haynie fasste es so zusammen: „Sie haben neue Hardwarefunktionen hinzugefügt, aber vergessen, sie im ROM zu unterstützen. Das ist einfach dumm.

Der A600 wurde mit Kickstart 2.05 und Workbench 2.0 ausgeliefert, später auch mit 2.1. Erst spätere ROM-Versionen erlaubten Booten von Festplatte, Locale-Unterstützung und CrossDOS. Für den Amiga 600 bedeutete CrossDOS insbesondere im beruflichen Umfeld eine wichtige Erweiterung: Der kleine Rechner konnte damit erstmals ohne Zusatzsoftware Daten mit PCs austauschen – eine essenzielle Funktion im Übergang zur MS-DOS-dominierten Arbeitswelt der frühen 90er.Das System war moderner als das 1.3er des A500, aber weniger kompatibel zu älteren Spielen. Viele Magazine legten ein Tool wie Relokick bei, um Kickstart 1.3 in den RAM zu laden. Trotz modernerem OS blieb das System für viele Retrospiele-Fans ein Rückschritt.

Der Listenpreis lag bei ca. 800 DM, inflationsbereinigt rund 830 Euro (2025). Die Variante A600HD mit 20 MB-Festplatte kostete rund 1.200 DM, heute etwa 1.250 Euro. Verkaufszahlen weltweit werden auf etwa 190.000–250.000 Einheiten geschätzt, wobei Deutschland zu den stärkeren Märkten gehörte. Ein Bruchteil der über 4 Millionen verkauften Amiga 500 – und damit ein deutliches Zeichen: Dieses Modell konnte nicht an die Erfolge anknüpfen. Das Urteil der Fachpresse fiel durchwachsen aus: CU Amiga lobte 1992 das kompakte Design und die Festplattenoption, kritisierte aber die fehlende Zifferntastatur. Amiga Format nannte den A600 „eine merkwürdige Zwischen-Generation, nach der niemand gefragt hat“. In Deutschland schrieb 64’er trocken: „Wer vom A500 auf den A600 umsteigt, zahlt drauf – an Preis wie an Leistung.“ Im Rückblick wurde der A600 etwa von Ars Technica als „worst Amiga ever“ bezeichnet. Ein wirtschaftlicher Wendepunkt war der A600 nicht. Er markierte eher den Anfang vom Ende. Commodore verlor 1992 zunehmend Marktanteile an PC und Konsolen, der A600 verwirrte die Kundschaft, kostete zu viel und konnte nichts besser als sein Vorgänger. Der einzige nennenswerte Fortschritt: Die Nutzung von Laptop-Technologien wie PCMCIA und 2,5″-Festplatten wurde für spätere Modelle wie den A1200 übernommen.

Trotz all seiner Schwächen hat der A600 heute Kultstatus. Wegen seines platzsparenden Designs und moderner Erweiterungsmöglichkeiten via FPGA oder CF-Karten ist er heute bei Bastlern beliebt. Als Produkt seiner Zeit bleibt er dennoch: ein Kompromiss, geboren aus Unsicherheit, Fehlentscheidungen und zu viel Manager-Einfluss. Oder, wie Haynie es abschließend formulierte:
Wenn Commodore sich auf echte Innovationen anstatt auf interne Ego-Kriege konzentriert hätte, hätte der A600 etwas sein können. Aber was wir bekamen, war die Antwort auf eine Frage, die niemand gestellt hat.

 

Vector 1

Vector 1

vector1Im Jahr 1976, als der Begriff "Personal Computer" noch mit Schraubenzieher und Lötzinn gleichgesetzt wurde, gründeten Lore Harp McGovern, Carole Ely und Robert Harp im sonnigen Kalifornien das Unternehmen Vector Graphic Inc. Die Vision: nicht nur leistungsfähige Computer zu bauen, sondern auch solche, die benutzerfreundlich und optisch ansprechend waren. Während Harp als Ingenieur die technische Leitung übernahm, trieb Harp McGovern als CEO die strategische Entwicklung voran. Ihre Mission war klar: Technik aus dem Bastelkeller in den Büroalltag zu bringen. Mit Mut zur Farbe, strukturiertem Design und klarem Fokus auf Bedienbarkeit stach Vector Graphic schnell aus der damaligen Nerd-Nische heraus.

Ursprünglich konzentrierte sich das Unternehmen auf Erweiterungskarten für den populären S-100-Bus, insbesondere RAM-Module und Grafikkarten. Diese wurden bald für ihre hohe Qualität und gute Dokumentation bekannt, was Vector Graphic rasch einen guten Ruf unter Early-Adopters und Systemintegratoren einbrachte. Erst als der Bedarf an kompletten Systemen stieg – insbesondere solchen, die man nicht erst aus 20 Einzelteilen zusammensetzen musste –, entschied man sich, ein eigenes Komplettsystem zu entwickeln: den Vector 1.

vector1 topless1977 stellte das Unternehmen schließlich diesen Vector 1 vor – einen S-100-Bus-basierten Mikrocomputer, der für professionelle Anwendungen gedacht war und die rohe Bastelästhetik des Altair 8800 oder IMSAI 8080 hinter sich ließ. In einem robusten Metallgehäuse, erhältlich in den Farben Grün oder "Rust", steckte ein Intel 8080A-Prozessor mit 2 MHz, gepaart mit einem Kilobyte RAM. Das klang nach wenig – war aber über den S-100-Bus, dem damals führenden Industriestandard, auf bis zu 64 KB erweiterbar. Der S-100-Bus, ursprünglich von MITS für den Altair entwickelt, war ein Steckplatzsystem mit 100 Kontakten, über die CPU-, Speicher- und Peripheriekarten miteinander kommunizierten. Vector Graphic nutzte dieses System voll aus und stattete den Vector 1 mit bis zu 18 dieser Slots aus – eine Plattform, die mit dem Unternehmen und den Anforderungen der Nutzer wachsen konnte.

Anders als viele seiner Zeitgenossen verzichtete der Vector 1 auf eine batterielose Kippschalter-Programmierung und setzte stattdessen auf eine einfache Benutzeroberfläche mit nur zwei Tasten: Reset und Start. "Two-touch computing" nannte das Lore Harp in Werbematerialien – ein mutiger Marketingansatz in einer Ära, in der das Programmieren von Bootsequenzen per Hand als Männlichkeitsritual galt.

Zum Preis von 849 US-Dollar (bzw. 619 Dollar als Bausatz) bot der Vector 1 ein solides Angebot. Inflationsbereinigt entspricht das heute etwa 3.300 Euro. Geliefert wurde der Rechner mit einem einfachen Monitor-ROM zur Basiskontrolle, doch über ein optionales Tarbell-Kassetteninterface oder spätere Diskettencontroller ließ sich CP/M laden – das populärste Betriebssystem seiner Zeit. Auch firmeneigene Textverarbeitungssysteme wie Flashwriter oder Memorite wurden angeboten und machten den Vector 1 zu einem echten Büroarbeitsplatz.

Im Inneren des Gehäuses steckte eine robuste Metallrahmenstruktur mit einem integrierten Netzteil (mit +8V, +16V, -16V Spannungen), einer Backplane für S-100-Karten und den erwähnten Einsteckkarten – CPU, RAM und serielle Schnittstellen gehörten zur Grundausstattung. Erweiterungskarten für parallele I/O, Floppycontroller oder auch grafische Terminals konnten einfach nachgerüstet werden. Der später erschienene Vector 1+ verfügte sogar über ein integriertes Diskettenlaufwerk – eine Seltenheit im S-100-Segment und ein klarer Hinweis auf den Office-Fokus der Entwickler.

Die Ausgabe erfolgte über externe Terminals wie das ADM-3A – 80 Zeichen auf 24 Zeilen, monochrom in grün oder bernstein. Grafikausgabe im eigentlichen Sinne gab es nicht. Ebenso wenig wie Sound. Der Vector 1 war kein Spielzeug, sondern ein ernstzunehmendes Werkzeug – und das war auch gut so. Wer einen Piepton wollte, konnte sich über S-100-Karten behelfen, doch Multimedia war hier kein Thema.

Vector Graphic schaffte es mit dem Vector 1, mehrere tausend Einheiten abzusetzen – vor allem an Universitäten, kleine Unternehmen und technische Bildungseinrichtungen. Der jährliche Umsatz stieg bis 1982 auf rund 36 Millionen US-Dollar. Man wurde an der NASDAQ gelistet, beschäftigte etwa 400 Mitarbeiterinnen und Mitarbeiter und war kurzzeitig einer der erfolgreichsten unabhängigen Computerhersteller in den USA. Doch der Markt veränderte sich rasant. Der IBM-PC dominierte ab 1981 das Geschäft, und S-100-Systeme gerieten ins Hintertreffen.

Carole Ely and Lore Harp

Carole Ely and Lore Harp - erkennbar ist die Größe des Vector 1

Technisch war der Vector 1 gegenüber Altair und IMSAI überlegen: stabiler Aufbau, integriertes Netzteil, klares Design, bessere Dokumentation. Gegenüber dem IBM PC, Atari ST oder Amiga jedoch fehlten Grafik, Sound und ein integriertes Betriebssystem mit grafischer Oberfläche. Doch der Vector 1 hatte nie den Anspruch, ein Heimcomputer zu sein – er war Bürogerät mit System.

Die Gründer prägten das Unternehmen maßgeblich. Lore Harp McGovern, später Mitbegründerin der McGovern-Stiftung für neurowissenschaftliche Forschung, war eine der wenigen weiblichen CEOs im Silicon Valley der späten 70er. Carole Ely leitete Marketing und Vertrieb. Robert Harp war Chefentwickler und verantwortete unter anderem das Design der frühen RAM-Module.

Der Vector 1 öffnete Vector Graphic den Weg zu größeren Systemen wie dem Vector 3 und Vector 4 – doch mit dem Ende der S-100-Ära und dem Aufstieg des IBM-kompatiblen Standards verlor das Unternehmen an Relevanz. 1987 folgte schließlich die Insolvenz.

Trotzdem bleibt der Vector 1 ein wichtiger Meilenstein: als frühes Beispiel für benutzerfreundliches Hardwaredesign, als Wegbereiter für Bürocomputer und als Zeugnis einer Ära, in der Computer langsam aus der Heimwerkernische ins Licht der Öffentlichkeit traten – geführt von einem Team, das technisches Gespür mit Mut zum Design verband. Und das ganz ohne blinkende Schalterparade.

 

Apple IIgs

Apple IIgs

apple iigs

Von All About Apple museum official web site - http://www.allaboutapple.com

Der Apple IIgs wurde im September 1986 zum zehnjährigen Firmenjubiläum von Apple vorgestellt und gilt als Höhepunkt der Apple-II-Reihe. Er kombinierte die vertraute Apple‑II‐Kompatibilität mit deutlich verbesserten Multimediafähigkeiten – das „gs“ steht für Graphics und Sound. Als Einführungspreis wurden 999 US‑Dollar festgesetzt (ohne Monitor), was heute inflationsbereinigt etwa 2.500 € entsprechen würde. Zum Lieferumfang gehörte ein 3,5″-Diskettenlaufwerk, jedoch kein Monitor. Die ersten rund zehntausend produzierten Geräte waren als „Woz Edition“ bekannt und trugen auf der Front das eingravierte Autogramm von Apple-II-Erfinder Steve Wozniak – ein Hinweis darauf, wie sehr Apple diesen Computer als legitimen Nachfolger des legendären Apple II positionieren wollte. Die Apple-II-Gemeinde reagierte begeistert; so zeigte das Magazin inCider im Oktober 1986 einen strahlenden Wozniak auf dem Cover mit der Schlagzeile „It’s Amazing!“ (übersetzt etwa: „Es ist unglaublich!“).

Die Entwicklung des Apple IIgs begann unter dem Codenamen „Phoenix“ (Phönix), passend zum Motto eines wiederauferstandenen Apple II. Mitte der 1980er war der Umsatz des Apple II trotz des Erfolgs des Macintosh immer noch bedeutend, insbesondere im Bildungsbereich. Ein Team erfahrener Apple‑II-Ingenieure drängte daher auf eine Modernisierung der inzwischen in die Jahre gekommenen Plattform. Den technologischen Anstoß lieferte der neue WDC 65816/65C816–Prozessor der Western Design Center, ein 16-Bit-Nachfolger des klassischen 6502. Dieser Chip konnte im sogenannten Emulationsmodus alle Befehle des 8-Bit-6502 ausführen und zugleich dank 24-Bit-Adressbus bis zu 16 MB Speicher ansprechen. Als Apple-Mitgründer Steve Wozniak 1983 nach längerer Auszeit ins Unternehmen zurückkehrte, begeisterte er sich sofort für die Möglichkeiten dieses Chips. Wozniak, der den Original-Apple‑II konstruiert hatte, setzte sich dafür ein, den neuen Rechner einfach und kompatibel zu halten. So lehnte er etwa einen zweiten Hauptprozessor (wie einen Motorola 68000) ab und schlug vor, den 8-Bit-Bereich des Systems strikt vom neuen 16-Bit-Bereich zu trennen. Dieses Konzept floss maßgeblich in die Architektur des IIgs ein.

Das Entwicklerteam bestand aus erfahrenen Apple-II-Spezialisten. Dan Hillman, zuvor technischer Leiter des gescheiterten Apple‑IIx-Projekts, übernahm das Hardware-Engineering und die Integration des neuen Prozessors. Nancy Stark gilt als eine der frühesten und energischsten Fürsprecherinnen des Projekts innerhalb Apples. Curtis Sasaki fungierte als Produktmanager, Ed Colby als Zuständiger für die CPU-Komponenten, und Harvey Lehtman leitete die Entwicklung der Systemsoftware. Weitere wichtige Beiträge kamen von Rob Moore, der die neuen Grafik- und Soundmodi mitdefinierte, sowie von Gus Andrate, der die Sound-Tools und Firmware für Laufwerke entwickelte. Steve Wozniak selbst stand dem Team beratend zur Seite und sein Einfluss zeigte sich auch in symbolischen Details wie der bereits erwähnten Signatur am Gehäuse. Wozniak wird rückblickend mit den Worten zitiert, der neue 65C816-Chip könne in hohen Taktfrequenzen sogar den Macintosh-Prozessor 68000 „in den meisten Anwendungen schlagen“ – eine optimistische Prognose, die allerdings nicht in vollem Umfang Realität wurde.

Prozessor und Leistung: Das Herzstück des Apple IIgs ist der 65C816 mit 16‑Bit-Registern, der im IIgs standardmäßig mit 2,8 MHz getaktet war. Zum Vergleich: Frühere Apple‑II-Modelle nutzten 8-Bit-Chips mit 1 MHz. Tatsächlich war der im IIgs verbaute 65C816 oft für 4 MHz zertifiziert, doch Apple beließ den Takt aus ungeklärten Gründen bei 2,8 MHz. Viel wurde darüber spekuliert, Apple habe die CPU absichtlich gedrosselt, um den Macintosh nicht in Verlegenheit zu bringen. Ob diese Marketing-Theorie stimmt, ist umstritten – Steve Jobs, der ein entschiedener Förderer des Macintosh war, hatte Apple bereits 1985 verlassen. Wahrscheinlicher ist, dass technische Faktoren wie Timing-Probleme mit langsamerer Peripherie ausschlaggebend waren. Ungeachtet der Taktfrequenz bot der 65C816 einen riesigen Schritt nach vorn: Er beherrschte einen 8-Bit-Kompatibilitätsmodus, so dass der IIgs praktisch einen vollständigen Apple IIe emulieren konnte. Die untersten 128 KB des Speichers wurden als sogenanntes Slow RAM implementiert und verhielten sich exakt wie beim Apple II (inklusive der nichtlinearen Speicherorganisation für Text- und Grafikmodus). In diesem Bereich lief auch alte 8-Bit-Software unverändert und sogar zeitgenau – auf Wunsch konnte der Nutzer per Kontrollfeld die Systemgeschwindigkeit von „Normal“ (ca. 1 MHz) auf „Fast“ (2,8 MHz) umschalten. Alles oberhalb dieses Bereichs nutzte den vollen 16-Bit-Modus. Der Hauptspeicher des IIgs war anfangs 256 KB RAM (später 512 KB und ab 1989 sogar 1 MB) und via Speicherkarte auf 8 MB erweiterbar– eine gewaltige Kapazität im Vergleich zu den 128 KB eines Apple IIe. Auf dem Motherboard befand sich zudem der Mega II–Chip, der nahezu die gesamte Logik eines Apple IIe in einem IC vereinte. Diese Apple‑II-kompatible Hardware und die neue CPU arbeiteten Hand in Hand und machten den IIgs zur schnellsten und leistungsfähigsten Apple-II-Variante.

In puncto Video war der Apple IIgs seinen Vorgängern und auch manchem Konkurrenten voraus. Neben allen alten Modi (Text, Hi-Res und Double Hi-Res) führte er einen Super-High-Resolution–Grafikmodus ein. Die maximale Auflösung betrug zwar weiterhin 640 × 200 Bildpunkte (aus Kompatibilitäts- und Kostengründen verzichtete Apple auf höhere Zeilenzahlen), doch erstmals standen 4096 Farben zur Verfügung. Im praxisnahen 320 × 200 Modus konnten pro Bildschirmzeile 16 beliebige Farben aus dieser 12-Bit-Palette dargestellt werden. Durch geschicktes Palette-Switching ließ sich theoretisch eine Grafik mit bis zu 256 Farben gleichzeitig erzeugen, in Spezialfällen sogar bis zu 3200 verschiedenen Farbtönen über den ganzen Bildschirm verteilt. Im hochauflösenden 640 × 200 Modus waren 4 Farben pro Zeile möglich. Diese Fähigkeiten übertrafen den Macintosh jener Zeit, der 1986 nur Schwarz-Weiß-Grafik bot. Auch gegenüber dem Atari ST und Commodore Amiga schlug sich der IIgs wacker – alle drei Systeme boten eine Farbpalette von 4096 Farben. Apple entschied sich bewusst dafür, die Horizontalauflösung zu erhöhen statt die Vertikale, um teure Spezialmonitore zu vermeiden und die Abwärtskompatibilität zu bewahren. Die Grafikadressierung wurde im IIgs endlich linear organisiert, was Programmierern die Arbeit erleichterte (beim Apple II waren Pixel bekanntlich auf verworrene Speicheradressen verteilt). Ein dedizierter Video-Controller-Chip (VGC) mit 32 KB eigenem Bildspeicher sorgte dafür, dass trotz Speicheraufteilung zwei 16-KB-Blöcke als kontinuierlicher Grafikpuffer erschienen. Insgesamt bedeutete der Apple IIgs einen Quantensprung für Apple‑II-Grafik: Farbfotos und aufwändige GUI-Elemente wurden erstmals möglich. Zeitgenössische Stimmen lobten zwar die Grafikqualität, bemängelten aber zugleich, dass man aus Rücksicht auf alte Apple‑II-Programme auf radikale Innovationen verzichtet habe. Das Magazin BYTE kommentierte im Oktober 1986 etwa, die Leistung der IIgs -Designer sei „bemerkenswert, aber die Last der klassischen Apple‑II-Architektur, nun so ehrwürdig (und veraltet) wie COBOL und Stapelverarbeitung, hat sie vielleicht heruntergezogen und ihnen echte Technologiesprünge verwehrt“.

Noch deutlicher stach der Apple IIgs in der Klangausgabe hervor. Apple verbaute einen Ensoniq 5503 Digital Oscillator Synthesizer-Chip – derselbe 8-Bit-Wavetable-Soundchip, den Ensoniq in professionellen Synthesizern wie dem Mirage und ESQ-1 einsetzte. Der Chip, entworfen von Bob Yannes (dem Schöpfer des SID-Chips im Commodore 64), besitzt 32 Oszillatoren und damit bis zu 32 unabhängige Stimmen. Apple koppelte je zwei Oszillatoren zu einem Kanal, wodurch dem System standardmäßig 15 polyphone Stimmen in Stereo zur Verfügung standen. (Ein Kanal wurde zur Takterzeugung reserviert, daher oft die Angabe „15 Stimmen“.) In der Praxis entsprach dies immer noch einer nie dagewesenen Soundfülle für einen Heimcomputer Mitte der 1980er – Nibble schwärmte vom „Traumcomputer“ und merkte an, dass bis auf die niedrigere Geschwindigkeit „nur der IIgs den Macintosh deutlich unterbietet – bei Grafik und Ton übertrifft er ihn sogar“. Tatsächlich galt der Apple IIgs bis in die frühen 90er Jahre hinein als der leistungsfähigste Heimcomputer für Musikapplikationen. Der Ensoniq-Chip verfügte über 64 KB eigenen Sound-RAM für Wavetables und arbeitete größtenteils autonom: Lief im Hintergrund Musik, konnte sie sogar weiterspielen, wenn das Hauptprogramm abstürzte. Ein kleiner Wermutstropfen war, dass Apple aus Kostengründen nur einen monoauralen 3,5‑mm-Kopfhöreranschluss bereitstellte. Der Chip selbst unterstützt Stereoausgabe und Eingabe (A/D-Wandler integriert); entsprechende Drittanbieter-Karten konnten den bereits vorhandenen Stereo-Sound „freischalten“, ohne zusätzliche Chips einzubauen. Für viele Anwender rechtfertigte allein die hochwertige Soundausgabe den Preis des IIgs: „Die Audiofähigkeiten stehen in einer eigenen Klasse... [sie] rechtfertigen den Preis für viele Musikfans“ schrieb Compute! im November 1986.

Äußerlich orientierte sich der Apple IIgs am Design des Apple IIc (flaches, cremefarbenes Gehäuse), war aber größer dimensioniert, da er wieder die klassischen Erweiterungssteckplätze bot. Insgesamt sieben Slots im Gehäuse erlaubten die Nutzung fast aller Karten für Apple II/II+ und IIe – ein deutlicher Vorteil gegenüber den geschlossenen Macintosh-Modellen und auch gegenüber dem kompakteren Apple IIc. Zusätzlich gab es einen internen Speichererweiterungs-Steckplatz, über den bis zu 8 MB RAM nachgerüstet werden konnten. Der IIgs war damit sehr ausbaufreundlich; viele Drittanbieter brachten Beschleunigerkarten (bis 10 MHz+), SCSI-Controller, Sound- und Netzwerkkarten auf den Markt. An externen Schnittstellen besaß der IIgs zwei Diskettenanschlüsse (für 5,25″-und 3,5″-Laufwerke), zwei serielle RS-422-Ports für Drucker, Modem oder Vernetzung, einen Composite-Video-Ausgang (FBAS) für Fernsehmonitore sowie einen Apple-typischen 15-poligen RGB-Monitoranschluss. Bemerkenswert ist, dass der IIgs als erster Computer von Apple den neuen Apple Desktop Bus (ADB) einführte – eine serielle Bus-Schnittstelle zum Anschließen von Tastatur, Maus und anderen Eingabegeräten. (ADB wurde kurz darauf auch beim Macintosh II übernommen und blieb über ein Jahrzehnt Apple-Standard.) Ein kleiner Lautsprecher war wie bei allen Apple II integriert, hauptsächlich für Systemtöne. Maße und Gewicht des Hauptgeräts lagen bei ca. 11,7 × 28,4 × 34,8 cm (H×B×T) und 3,96 kg. Das Netzteil lieferte 60 Watt. An der Geräterückseite befand sich zudem ein Batteriefach für die Pufferbatterie der Echtzeituhr.

Standardmäßig bootete der Apple IIgs von Diskette. Apple lieferte meist ein 800‑KB-3,5″-Laufwerk (Apple 3.5 Drive) mit und unterstützte natürlich auch die älteren 140‑KB-5,25″-Disketten der Vorgänger. Über eine Steckkarte konnte ein SCSI-Festplattenlaufwerk angeschlossen werden, was viele Nutzer in Anspruch nahmen – Apple bot hierfür eine offizielle „Apple II High-Speed SCSI“-Karte an. Auch CD-ROM-Laufwerke ließen sich in den späten 80ern über SCSI anbinden. Dank der cleveren Systemsoftware konnte der IIgs sogar übers Netzwerk starten (booten): Mit einer AppleTalk-Karte (Workstation Card) verhielt sich ein Apple IIgs im AppleShare-Netz wie ein Netzwerk-Boot-Terminal, lange bevor es vergleichbare Funktionen auf dem Mac gab. Dieses Feature, 1988 eingeführt, erlaubte etwa Schulklassen, Software zentral vom Server zu laden, anstatt Disketten zu verteilen. Im Laufe der Jahre erschien diverses externes Speichermedium für den IIgs, von Streamer-Bandlaufwerken bis ZIP‑Disketten, meist durch Dritthersteller – begünstigt durch die offenen Erweiterungs-Slots.

Ausgeliefert wurde der Apple IIgs mit einer erweiterten Version des Apple-II-Betriebssystems ProDOS 16 und einer an den Macintosh angelehnten grafischen Benutzeroberfläche. Tatsächlich war der IIgs der erste Apple-Computer mit einem farbigen Desktop und Fenstersystem – der farbfähige Macintosh II kam erst ein halbes Jahr später auf den Markt. Die IIgs -Oberfläche, anfangs Apple II Desktop genannt, wurde bald zu GS/OS weiterentwickelt. GS/OS kombinierte die Einfachheit von ProDOS mit einer Maussteuerung, Fenstern, Menüs und Icons, die dem Mac-System nachempfunden waren. Apple integrierte ein Kontrollfeld zum Einstellen von Parametern wie Taktfrequenz, Bildschirmfarben, Sound und Peripherie – all das wurde in einer batteriegepufferten RAM-Zelle gespeichert, so dass Nutzerprofile erhalten blieben. Viele Komponenten der Systemsoftware stammten aus der Macintosh-Welt: So half Mac-Entwickler Bill Atkinson bei der Portierung der Grafikroutinen (QuickDraw II) für den IIgs. Die Apple-II-Abteilung und Macintosh-Abteilung waren 1985 zusammengelegt worden, was den Know-how-Transfer erleichterte. Unter der Haube lief auf dem IIgs weiterhin auch das alte ProDOS 8 für 8-Bit-Programme – Apple sorgte dafür, dass nahezu alle Apple‑IIe- und IIc-Programme auf dem IIgs liefen. Der Kompatibilitätsmodus war so umgesetzt, dass auch Timing-trickreiche Software wie Spiele oder Demos funktionierte, notfalls durch Drosseln auf 1 MHz. Für Neuentwicklungen bot GS/OS hingegen moderne APIs, ein Geräte-Treiber-Modell und Unterstützung für größere Massenspeicher. Apple lieferte Systemdisketten mit einem Finder-ähnlichen Datei-Browser, Desktop-Zubehör und dem Installer aus. Spätere Updates (System 5, System 6) verbesserten den IIgs weiter und fügten Funktionen hinzu, die der Mac erst mit System 7 erhielt (z. B. einen eigenständigen Fonts-Ordner für Schriften). Die Weiterentwicklung der Software hielt bis 1993 an und wurde von der treuen Apple‑II-Community aufmerksam verfolgt. Allerdings zeigten sich Schwierigkeiten: Viele Entwickler zögerten, Software exklusiv für den IIgs zu schreiben. Stattdessen passten etliche Hersteller bestehende Apple‑II-Programme nur oberflächlich an (etwa durch Farbgrafik und Mausbedienung), um kein Risiko einzugehen. 1987 berichtete inCider, dass viele Publisher geplante IIgs -Projekte gestoppt hätten und stattdessen weiter für die alten IIe/IIc veröffentlichten. Das wohl populärste Programm auf dem IIgs war daher anfangs ausgerechnet AppleWorks, die Textverarbeitung/Tabelle/DB-Suite, die eigentlich noch für den Apple IIe entwickelt worden war. Leistungsfähige neue IIgs -Anwendungen kamen nur zögerlich auf den Markt. Dieser Mangel an Software bremste die Verbreitung des Systems erheblich – eine Erkenntnis, die Apple letztlich in seiner zukünftigen Strategie bestärken sollte (für den Macintosh achtete man früh darauf, genügend Entwicklerunterstützung zu sichern).

Trotz der zurückhaltenden offiziellen Unterstützung arbeiteten einige Apple-Ingenieure und Drittentwickler weiter daran, den IIgs auszubauen. Apple selbst stellte 1988 die bereits erwähnte Workstation Card vor, um Apple II im Netzwerk zu betreiben. Anschließend begann eine kleine Gruppe, an einer waschechten Ethernet-Karte für den Apple II zu entwickeln – ein damals ungewöhnliches Unterfangen. Erste Prototypen dieser Ethernetkarte nutzten sogar einen eigenen 65C02- bzw. später 65C816-Prozessor auf der Karte und 128 KB ROM für Netzwerk-Boot-Funktionen. Apple kündigte an, die Ethernetkarte 1992 zusammen mit GS/OS 6.0.1 auszuliefern, doch bevor es dazu kam, wurde das Projekt aus wirtschaftlichen Gründen abgebrochen. Noch ambitionierter war der Plan für einen verbesserten Apple IIgs „ROM 04“, Codename Mark Twain. Apple CEO John Sculley erwähnte im Herbst 1988, man arbeite an einem neuen Apple‑II-Modell in den nächsten 12–18 Monaten. Tatsächlich entstand 1990 ein weiterentwickelter IIgs -Prototyp: Er besaß 2 MB RAM auf der Platine (mit SIMM-Steckplätzen für weitere Module), einen auf 8 MHz getakteten 65C816, eingebautes SuperDrive-Diskettenlaufwerk (3,5″ 1,44 MB, kompatibel auch zu MS-DOS-Disketten) und eine interne 40-MB-SCSI-Festplatte. Der Mark-Twain-Entwurf integrierte also vieles, was beim ursprünglichen IIgs noch optional oder extern war, und schaffte den alten Speicherkarten-Slot zugunsten moderner SIMMs ab. Sogar HyperCard IIgs sollte vorinstalliert sein. Auffällig war allerdings, dass die CPU-Geschwindigkeit nicht signifikant erhöht wurde – offenbar wollte Apple die Kompatibilität und Stabilität nicht riskieren. Der Codename Mark Twain spielte augenzwinkernd auf das berühmte Zitat an: „Die Berichte über meinen Tod sind stark übertrieben“. Doch leider fehlte diesem Projekt ein hochrangiger Fürsprecher im Management. 1991 wurde Mark Twain in letzter Minute zurückgezogen und nie offiziell vorgestellt. Nur wenige Prototypen gerieten später in Sammlerhände. Damit blieb der im August 1989 veröffentlichte Apple IIgs „ROM 03“ (eine Revision mit 1 MB Grundspeicher und einigen Firmware-Verbesserungen) die letzte Ausbaustufe, die in den Handel kam.

Technisch war der Apple IIgs zur Einführung ein außergewöhnlich ausgewogener Heimcomputer. Er verband die millionenfache Software-Basis der Apple‑II-Welt mit einem moderaten Preis und modernen Features. Compute! bezeichnete ihn treffend als „zwei Maschinen in einer – ein Produkt, das die Brücke schlägt zwischen dem Macintosh und dem Apple IIe, und damit eine ernsthafte Konkurrenz für den Commodore Amiga und Atari ST darstellen könnte“. In der Praxis stand der IIgs jedoch genau zwischen diesen Welten und hatte Mühe, sich gegen beide Seiten zu behaupten. Gegenüber den Vorgängern Apple IIe/IIc punktete der IIgs mit seiner 16-Bit-Leistung, Farb-GUI, besserer Grafik und Ton und den Erweiterungsmöglichkeiten – doch er war deutlich teurer als ein einfacher IIe und benötigte für viele Aufgaben weiterhin Disketten oder Zubehör, die in Schulen schon vorhanden waren. Manchen Anwendern erschien der IIgs im Alltag kaum schneller, da viele Apple‑II-Programme keine Optimierung für die 16-Bit-CPU hatten und praktisch im alten 1-MHz-Modus liefen. Gleichzeitig war der IIgs nicht ganz auf Augenhöhe mit den Konkurrenten seiner Zeit: Ein Atari 1040ST oder Amiga 500 (beide um 1987 populär) besaßen vollwertige 16/32-Bit-Motorola-CPUs mit 8 MHz und boten ebenfalls Grafik mit 4096 Farben sowie grafikoptimierte Betriebssysteme – und das zu oft niedrigeren Preisen. BYTE verglich Anfang 1987 ein IIgs -System (mit Farbmonitor, zwei Laufwerken, Drucker für ~2.500 $) mit einem Atari-ST-Paket für ~1.500 $ und stellte nüchtern fest, der IIgs sei „in vielen Bereichen eher trailing-edge als leading-edge“ (also Technik von gestern statt Spitze von morgen). Zwar lobte das Magazin die Entscheidung von Apple, überhaupt noch einen modernen Apple II herauszubringen – allerdings wäre dies „ein paar Jahre früher“ besser gewesen und Apple sei „nicht weit genug gegangen“.

Auf der Habenseite standen beim IIgs die fast nahtlose Abwärtskompatibilität (inklusive offizieller Umrüst-Kits, um aus einem Apple IIe einen IIgs zu machen), die massive Software-Bibliothek an 8-Bit-Programmen und Spielen, sowie die enorme Ausbaufähigkeit durch Steckplätze – etwas, das weder der Amiga 500 noch der Atari ST in vergleichbarer Weise boten. Auch der eingebaute Apple Desktop Bus und die AppleTalk-Netzwerkfähigkeit waren Pluspunkte in professionellen Umgebungen. Für Kreative war die Audioqualität des IIgs ein wichtiges Pro-Argument gegenüber anderen Plattformen (die erst Jahre später mit Sampling-Karten vergleichbares boten). Dennoch blieb der IIgs in Benchmarks oft hinterher: 16-Bit-Software wie GS/OS oder Grafikanwendungen liefen zwar, aber nicht so flüssig wie vergleichbare Anwendungen auf den Motorola-68000-Systemen. Diese relative Langsamkeit wurde zum Dauerthema – 1988 drängte Compute! Apple, den Rechner endlich schneller zu machen, „denn egal wie man es dreht – der IIgs ist langsam“. Doch Apple brachte keine Beschleunigung mehr heraus und überließ diese dem Zubehörmarkt (etwa ZIP-GSX-Beschleuniger bis 7 MHz). Ein weiterer Kritikpunkt war der Preis: Durch Aufrüstungen konnte ein voll ausgestatteter IIgs so teuer werden wie ein deutlich leistungsfähigerer Macintosh oder PC, was viele Käufer abschreckte. Außerdem setzte Apple die Prioritäten im Vertrieb klar auf den Macintosh – Apple-Händler wurden angewiesen, Kunden eher zum Mac als zum IIgs zu lenken, mit dem Argument, die Apple-II-Linie werde ohnehin eingestellt. Diese self-fulfilling prophecy schadete den IIgs -Verkäufen zusätzlich.

Erfolg, Verkaufszahlen und Vermächtnis: Trotz aller Vorschusslorbeeren konnte der Apple IIgs den kommerziellen Erwartungen nicht gerecht werden. Apple nannte zwar nie offizielle Stückzahlen, doch interne Quellen beziffern die gesamt verkauften Einheiten auf deutlich unter eine Million. Zum Vergleich: Vom Apple IIe hatte Apple insgesamt über 5 Millionen Stück abgesetzt, vom C64 sogar rund 12–15 Millionen. Anfangs soll die Nachfrage für den IIgs hoch gewesen sein – die ersten 50.000 Geräte waren Berichten zufolge binnen weniger Wochen bestellt. Allerdings verzögerte sich die breite Auslieferung bis November 1986 wegen Problemen mit neuen Custom-Chips. In dieser Zeit kam bereits neue Konkurrenz auf (IBM PC ATs, VGA-Grafikstandards etc.). 1987 brachte Apple den günstigeren Apple IIc Plus heraus, der dem IIgs kannibalisierend gegenüberstand. Gleichzeitig feilte Apple fieberhaft am Macintosh-II-Lineup. Marketingkampagnen für den IIgs blieben spärlich – ein paar Anzeigen in Apple-II-Magazinen, aber keine große Werbeoffensive. Im Bildungsmarkt blieb der robuste Apple IIe noch lange im Einsatz, so dass viele Schulen den teureren IIgs übersprangen. In der Community wurde Apple vorgeworfen, das Potential des IIgs mutwillig brachliegen zu lassen. 1989, gut drei Jahre nach Einführung, war der IIgs laut inCider nur noch der viertschnellste Apple II – hinter einem getunten IIe mit Beschleunigerchip und sogar hinter dem Apple IIc Plus (der mit 4 MHz Takt lief). Apple selbst stellte die Produktion des IIgs schließlich am 4. Dezember 1992 offiziell ein, während der betagte Apple IIe noch bis 1993 als Auftragsprodukt erhältlich war. Zum Abschied veröffentlichte Apple 1993 ein letztes System-Update (GS/OS 6.0.1) im Internet, doch schon zuvor hatte sich die Apple-II-Abteilung praktisch aufgelöst.

Die Frage, ob der Apple IIgs das Unternehmen Apple in eine „neue Richtung“ führte, muss verneint werden. Eher markiert der IIgs den Schlusspunkt einer Ära. Er stellte das technisch Machbare innerhalb der Apple‑II-Architektur eindrucksvoll unter Beweis, konnte Apple jedoch nicht vom strategischen Schwenk auf den Macintosh-Kurs abbringen. Intern war bereits seit Steve Jobs’ Rückzug 1985 klar, dass die Zukunft bei der Macintosh-Plattform liegen sollte. Der IIgs diente primär dazu, der riesigen Apple-II-Anwenderbasis einen sanften Übergang zu ermöglichen und diese noch einige Jahre zu halten. Apple erfüllte dieses Versprechen insofern, als man bestehende Apple‑II-Investitionen der Kunden achtete – etwa durch den später eingeführten Apple IIe-Karten-Einschub für den Macintosh LC, der einem Mac die vollständige Apple‑IIe-Hardware integrierte. Doch ein echter Neubeginn war der IIgs nicht: Er blieb eine Nischenmaschine für Enthusiasten, Heimanwender und Schulen, während Apple parallel mit dem Macintosh II (1987) und dessen Nachfolgern den Markt der leistungsfähigen 32-Bit-Rechner eroberte. Immerhin floss manches Konzept des IIgs in spätere Produkte ein – etwa der ADB-Anschluss oder die Idee farbiger Benutzeroberflächen. Aus historischer Sicht wird der Apple IIgs heute als einzigartiger Hybrid gesehen: „Arguably the finest assemblage of chips and resistors ever soldered together“, lobte das Nibble-Magazin begeistert – „zweifellos eine der feinsten Ansammlungen von Chips und Widerständen, die je zusammengelötet wurden“. Gleichzeitig war er aber auch ein Computer, der zu spät kam und zu wenig unterstützt wurde. Nichtsdestotrotz genießt der Apple IIgs Kultstatus. Er war der letzte Apple, dessen Design noch die Handschrift von Steve Wozniak trug, und für viele Fans bleibt er Woz’ letzter großer Apple II – ein liebevoll entwickeltes System, das den Übergang von der 8-Bit- in die 16-Bit-Welt verkörperte, auch wenn es den Weg des Unternehmens letztlich nicht mehr ändern konnte.

 

Triumph-Adler Alphatronic PC

Triumph-Adler Alphatronic PC

1024px alphatronicpc

Als Triumph-Adler Anfang der 1980er-Jahre den Sprung von der mechanischen Bürowelt in die digitale Datenverarbeitung wagte, stand das Traditionsunternehmen aus Nürnberg vor einer Herausforderung: Wie bringt man jahrzehntelange Erfahrung mit Schreibmaschinen und Bürotechnik in einen Computer, ohne sich dabei an den verspielten Heimcomputern aus Übersee zu verheben? Die Lösung hieß Alphatronic PC – ein schlicht betitelter 8-Bit-Computer, der in Wahrheit kein Eigengewächs aus Nürnberg war, sondern von einem japanischen Hersteller, vermutlich Kyocera, entwickelt und von Triumph-Adler nach eigenen Spezifikationen gefertigt wurde. Eine typisch deutsch-japanische Zweckallianz – nüchtern, effizient und mit einem leichten Hang zur Bürokratie.

Der Alphatronic PC erschien 1983 auf dem Markt und kostete damals exakt 1.495 D-Mark. Inflationsbereinigt entspricht das heute etwa 1.650 Euro. Für diesen Preis erhielt man ein System mit 64 KB RAM, einem Zilog Z80A-Prozessor mit 4 MHz und einem Gehäuse, das eher an ein Schreibmaschinenunterteil als an einen Heimcomputer erinnerte – solide, grau-beige und mit einer Tastatur, bei der man spürte, dass Triumph-Adler einst Weltmeister im Tastenklackern war. Der Bildschirmanschluss unterstützte einen Textmodus mit 40 Zeichen pro Zeile und 24 Zeilen, eine rudimentäre semigrafische Darstellung mit 8 Farben war optional möglich. Die Grafikfähigkeiten waren begrenzt, aber ausreichend für Formulare, Tabellen und das, was in Behörden eben bunt ist: graue Kästen mit schwarzer Schrift.

An Bord war der bewährte Z80A-Prozessor – ein 8-Bit-Rechenknecht, der 1976 als Weiterentwicklung des Intel 8080 auf den Markt kam. Sein Vorteil lag in der Vielzahl an Registern und der einfacheren Speicheradressierung. Im Alphatronic PC war er direkt mit dem Systembus verbunden und wurde durch einen 6845-CRT-Controller für die Bildschirmdarstellung ergänzt. Klanglich war der Rechner so zurückhaltend wie ein Archivleiter beim Mittagessen – es gab keinen dedizierten Soundchip, sondern nur den obligatorischen Systemlautsprecher, der piepte, wenn man’s übertrieb.

Als Massenspeicher diente anfangs ein handelsüblicher Kassettenrekorder, angeschlossen über DIN-Schnittstellen. Optional war ein externes Diskettenlaufwerk erhältlich, das 5,25"-Disketten mit 160 bis 180 KB im einseitigen Modus oder bis zu 360 KB im zweiseitigen Format lesen konnte. Das von Triumph-Adler angebotene TA 700-Laufwerk wurde in einem separaten Gehäuse untergebracht und verfügte über ein eigenes Netzteil – ganz im Stil der modularen Büroarchitektur der frühen Achtziger.

Als Betriebssystem diente CP/M 2.2, das de facto-Standard-OS für 8-Bit-Bürocomputer. Es war stabil, weitverbreitet und mit einer Vielzahl von Anwendungen kompatibel – von WordStar über SuperCalc bis hin zu dBASE II. Der Alphatronic PC wurde in Ministerien, Schulen und kleinen Betrieben eingesetzt, wo vor allem Textverarbeitung und einfache Datenbankarbeiten gefragt waren. Als Einstiegshilfe lieferte Triumph-Adler auch ein ROM-basiertes Menüsystem aus, mit dem sich BASIC, CP/M oder Dienstprogramme starten ließen, ohne kryptische Befehle eintippen zu müssen.

Der Rechner verfügte über eine parallele Centronics-Schnittstelle für Drucker, einen seriellen RS232-Port für Modems oder Terminals, eine Videoausgabe in Composite oder RGB sowie einen Systembus-Anschluss für zukünftige Erweiterungen. Als optionale Peripheriegeräte wurden unter anderem ein Akustikkoppler, eine serielle Schnittstellenkarte für den Anschluss mehrerer Terminals und ein Nadeldrucker von Mannesmann-Tally angeboten – alles Produkte, die man heute vermutlich in einem Technikmuseum unter der Rubrik „fortschrittlich, aber vergessen“ findet.

Triumph-Adler verfolgte mit dem Alphatronic PC eindeutig keine Heimcomputerstrategie. Spiele gab es kaum – bis auf ein paar CP/M-Demos oder BASIC-Spielereien, die technisch eher an Minensuche in Tabellenkalkulation erinnerten. Dennoch wurde das System von vielen Schulen übernommen – vermutlich auch, weil es „seriös“ wirkte und kein Schüler von einem Piepslautsprecher zu Begeisterungstänzen animiert wurde. Der Computer war ein Arbeitstier: zuverlässig, langweilig, robust. Genau das, was deutsche Bildungspolitik in den 1980er-Jahren wollte.

Zu den technischen Entwicklern, die indirekt hinter dem Alphatronic PC standen, gehörte auf Seiten von Kyocera unter anderem Hiroshi Yamauchi – nicht zu verwechseln mit dem gleichnamigen Nintendo-Chef – ein Hardwarearchitekt mit Schwerpunkt auf Z80-Systeme, der auch an den ersten Tandy-Laptops beteiligt war. Auf deutscher Seite koordinierte Dieter Hegels das Projekt bei Triumph-Adler. Hegels, ein studierter Elektrotechniker aus Hessen, war zuvor bei Nixdorf tätig und galt als Verfechter robuster Gehäuse und klar strukturierter ROMs. Seine Philosophie: „Ein Computer soll arbeiten, nicht unterhalten.“ Ein Satz, der dem Alphatronic PC wie die Taste auf die Tastatur passte.

Im Vergleich zur Konkurrenz – etwa dem C64, Atari XL oder dem Schneider CPC – war der Alphatronic PC deutlich weniger flexibel. Grafik und Sound waren bestenfalls spartanisch, Spiele und Heimsoftware praktisch nicht vorhanden. Doch der Rechner punktete mit einem professionellen Auftreten, Bürokompatibilität und einer gewissen deutschen Verlässlichkeit. Während der C64 bei Regen streikte, wenn die Kassette klemmt, lief der Alphatronic auch nach zehn Jahren noch wie ein Behördenfaxgerät um 16:59 Uhr – zuverlässig und ohne Widerworte.

Ein geplanter Nachfolger mit erweiterten Grafikfähigkeiten, größerem Arbeitsspeicher und integriertem Farbbildschirm wurde intern unter dem Namen „P3 Office“ diskutiert, aber nie veröffentlicht. Auch eine Portierung auf MS-DOS wurde angedacht, doch als IBM-kompatible Systeme immer günstiger wurden, sah Triumph-Adler keine Chance mehr und beendete die Alphatronic-Reihe 1985 still und leise. Man wandte sich stattdessen der PC-Kompatibilität zu und ließ künftig unter dem Markennamen TA OEM-PCs von Tandon und Panasonic fertigen.

Rückblickend bleibt der Alphatronic PC ein ungewöhnlicher Zeitzeuge: ein Produkt deutscher Bürovisionen, produziert mit japanischer Präzision, vermarktet mit viel Understatement. Kein lautes Gerät, kein Star der Heimcomputerära – aber ein stiller Held der Arbeitswelt, dessen Piepton für viele das erste technische „Hallo Welt“ war. Und wer weiß – vielleicht wäre er mit ein bisschen Sound, ein paar Farben und einem simplen Spiel wie „Zinslotto“ doch zum Überraschungserfolg geworden. Aber das passte nicht zu seinem Charakter. Der Alphatronic PC war lieber leise – aber korrekt.

 

Atari 800XE

Atari 800XE

atari 800xeDer Atari 800XE erschien 1987 als Teil der XL/XE-Serie und markierte das letzte Kapitel in der langen Geschichte der 8-Bit-Heimcomputer von Atari. Mit seinem schlichten, eckigen Gehäuse in hellgrauer Farbe und einer Tastatur, die optisch stark an die Atari-ST-Reihe erinnerte, sollte der 800XE nicht nur technisch, sondern auch optisch den Anschluss an die Moderne schaffen. Hinter dem nüchternen Äußeren versteckte sich jedoch altbewährte Technik: Im Kern arbeitete derselbe MOS 6502-basierte 8-Bit-Prozessor, der Atari-Heimcomputer bereits seit 1979 antrieb – allerdings in einer Variante namens Sally, die speziell für die Atari-Architektur optimiert wurde. Der Prozessor lief mit etwa 1,77 MHz Taktfrequenz im PAL-Modus, was für damalige Verhältnisse zwar nicht überragend schnell, aber durch den Coprozessor-Ansatz von Atari immer noch konkurrenzfähig war. Der 800XE war technisch nahezu identisch mit dem 65XE – einem direkten Nachfolger des 800XL – und verfügte über 64 KB RAM. Die Grafik wurde vom ANTIC- und GTIA-Chipsatz gesteuert, der zusammen eine erstaunlich flexible Anzeige ermöglichte: bis zu 320×192 Pixel Auflösung, bis zu 16 Farben gleichzeitig, aus einer Palette von 256 Farben mit verschiedenen Helligkeitsabstufungen. Dank der Player/Missile Graphics, Ataris Begriff für hardwaregestützte Sprites, waren flüssige Animationen und Kollisionserkennung möglich, ohne dass die Haupt-CPU allzu stark belastet wurde. Für den Sound sorgte der POKEY-Chip, der vierstimmige digitale Klangerzeugung, Tastaturabfrage, serielle Kommunikation und sogar Zufallsgenerierung in sich vereinte – ein echter Tausendsassa unter den Soundchips, wenn auch klanglich nicht ganz auf dem Niveau des SID-Chips im C64.

Was den 800XE gegenüber seinem Vorgänger 800XL unterschied, war vor allem die neuere Speicherverwaltung durch den Freddie-Chip, der effizienteres Zugriffstiming ermöglichte und theoretisch auch den Einsatz von 128 KB RAM vereinfachte – allerdings kam das in der Praxis nur beim Schwestermodell 130XE zum Tragen. Der 800XE selbst blieb bei 64 KB. Das Betriebssystem im ROM entsprach weitgehend dem des 800XL, ebenso wie das integrierte Atari BASIC in Version C, das beim Einschalten aufgerufen wurde, sofern kein Modul eingesteckt war.

Am Gehäuse fanden sich die üblichen Anschlüsse: zwei DE-9-Ports für Joysticks, der modulare SIO-Port für Kassettenrekorder, Diskettenlaufwerke, Drucker und andere Peripheriegeräte, der Monitorausgang mit Composite-Video und Mono-Ton, ein Stromanschluss für das externe Netzteil, sowie der Cartridge-Schacht auf der Oberseite. Eine parallele Erweiterungsschnittstelle wie beim 800XL fehlte jedoch – was Bastler oft beklagten. Manche 800XE-Geräte, vor allem in Polen und Osteuropa, enthielten zusätzlich einen ECI-Port, eine Art abgespeckte Parallelschnittstelle, die in Kombination mit dem Cartridge-Port auch umfangreichere Erweiterungen zuließ – sofern man die passende Hardware auftreiben konnte.

Markteinführung und Preisgestaltung des Atari 800XE waren ein kurioses Kapitel für sich. In Westeuropa kostete das Gerät bei Markteinführung knapp 200 D-Mark – inflationsbereinigt entspricht das rund 210 Euro. Damit war er einer der günstigsten voll ausgestatteten Heimcomputer seiner Zeit. Doch während Commodore den europäischen Markt mit dem C64 dominierte, wurde Atari auf dem westlichen Markt eher stiefmütterlich behandelt. Ganz anders sah es in Osteuropa aus: In Ländern wie Polen, der DDR und der ČSSR war der 800XE ein echter Exportschlager. Möglich machten dies spezielle Handelsverträge und Devisenläden wie Pewex, Tuzex oder die Intershops der DDR, in denen Bürger gegen Westgeld westliche Waren erwerben konnten. Der 800XE war dort so begehrt, dass er teilweise einem kleinen Vermögen entsprach – in Polen beispielsweise war er anfangs nur für den Gegenwert eines akademischen Jahresgehalts erhältlich. Trotzdem wurde er vielfach gekauft, verschenkt oder über verwandtschaftliche Kontakte in den Osten geschmuggelt. Viele Jugendliche lernten dort auf dem Atari ihre ersten Programmierschritte oder spielten westliche Software, die auf dem Schwarzmarkt kursierte.

Der Erfolg des Atari 800XE in Osteuropa war so groß, dass er in vielen Schulen als offizieller Lehrcomputer verwendet wurde. Sogar die DDR bestellte mehrere tausend Geräte direkt über staatliche Kanäle. Zeitgenössische Zeitungsberichte sprachen von einem "Boom der 8-Bit-Technik hinter dem Vorhang", während Atari intern stolz verkündete, dass man auf dem sowjetischen Vorfeld erfolgreicher war als mit jeder Marketingkampagne in Kalifornien. In Polen entwickelte sich eine regelrechte Atari-Kultur, mit Raubkopierkreisen, Demogruppen und sogar eigenen Magazinpublikationen. Nicht wenige spätere Spieleentwickler in Mitteleuropa nannten den 800XE als ihren ersten Computer.

Anekdotisch belegt ist auch, dass einige 800XE-Geräte, die über Intershops oder Tuzex-Läden verkauft wurden, technisch leicht abweichende ROM-Versionen hatten – angeblich, um beim Import gewisse Kompatibilitätsprobleme mit westlicher Software zu vermeiden. Ob das stimmt oder eher urbaner Mythos ist, bleibt offen. Ein anderer verbreiteter Trick war das Umprogrammieren des ROMs mittels selbstgebauter EPROM-Brenner, um "optimiertes" BASIC oder alternative Bildschirmgrafiken zu laden. In Bastelzeitschriften der damaligen Zeit wurde beschrieben, wie man durch Entfernen eines Widerstands den Videoausgang von PAL auf NTSC umschalten konnte – wozu das im Osten sinnvoll war, ist unklar, aber Hauptsache, man konnte basteln.

Verglichen mit dem C64 hatte der 800XE sowohl Vor- als auch Nachteile. Die Grafik war technisch flexibler, das Scrolling eleganter, die Farbauswahl größer – doch der C64 hatte den besseren Sound und die deutlich größere Softwarebibliothek. Auch beim Speicher war der C64 mit seinen ausgeklügelten Speicher-Bank-Techniken überlegen. Im Alltag bedeutete das: auf dem C64 gab es mehr Spiele, die schneller nachgeladen wurden und oft hübscher klangen. Auf dem Atari hingegen waren kreative Programmierlösungen nötig, um das Optimum aus der Hardware herauszuholen. Das führte zu einer wahren Kunstform in der Demo-Szene, bei der aus vier Farben und einem piepsenden POKEY-Signal ein Feuerwerk der Technik gezündet wurde.

Der Atari 800XE wurde in dieser Form nur wenige Jahre produziert, doch sein Einfluss hielt deutlich länger an. Selbst nach dem offiziellen Ende der Produktion 1992 wurden Restbestände in Osteuropa weiterverkauft, modifiziert, repariert, mit PC-Netzteilen betrieben oder auf moderne Speichermedien wie SD-Karten umgebaut. In den letzten Jahren erlebt der 800XE durch Retro-Wellen und Homebrew-Szene ein kleines Comeback – es gibt neue Spiele, neue Demos und sogar neue Hardware-Erweiterungen wie HDMI-Ausgänge oder Turbo-Speicherkarten.

Zu den maßgeblichen Entwicklern des Systems gehörten Jay Miner, der später durch den Amiga berühmt wurde, Joe Decuir, der später am USB-Standard mitarbeitete, und George McLeod, der für die Grafikchips verantwortlich war. Alle drei verließen Atari noch vor Einführung des XE-Modells, doch ihre technische Handschrift prägte auch den 800XE. Jay Miner, Ingenieur mit Hundeliebe und einem Faible für effiziente Chips, wurde später als „Vater des Amiga“ verehrt. Joe Decuir hingegen liebte serielle Busse fast so sehr wie sein Motorrad, das er gerne in die Atari-Garage parkte. George McLeod, ein ruhiger Tüftler, galt intern als der Mann, der wusste, wie man ein Fernsehsignal in Farbe träumen lässt.

Der Atari 800XE war vielleicht nicht der lauteste oder bunteste Computer seiner Zeit, aber er war einer der treuesten. Ein Arbeitstier, das Generationen überdauerte, Heimkinder und Studenten prägte und bis heute in Kellern, Dachböden und Retrotreffen für leuchtende Augen sorgt. Und ganz ehrlich: Wer je den Geräuschmix aus POKEY-Piepsen, Floppy-Surren und dem Klicken eines CX40-Joysticks gehört hat, weiß, was wahre Heimcomputer-Nostalgie bedeutet.