eaZy PC

eaZy PC

zenith eazy pc

Picture is taken from: https://oldcomputers.net/

Im Juli 1987 brachte Zenith Data Systems mit dem eaZy PC einen ungewöhnlichen und mutig gestalteten All-in-One-PC auf den Markt, der explizit für Einsteiger, Schüler und Heimanwender konzipiert war. Die Entwicklung wurde durch eine Kooperation mit dem Hardware-Dienstleister Vadem ermöglicht, der maßgeblich an der Integration des NEC V40-Prozessors beteiligt war. Das Designteam unter der Leitung von Ken Olson (Systemarchitektur) und Martha Cheng (Hardwareintegration) verfolgte das Ziel, ein nahezu wartungsfreies, sofort betriebsbereites System zu schaffen – ein Konzept, das dem seiner Zeit weit voraus war.

Im Inneren des kompakten Geräts arbeitete der NEC V40 – ein vollständig kompatibler 8088-Derivat mit 7,16 MHz Takt, jedoch mit integrierten Peripherie-Controllern, was auf separate Schnittstellenchips verzichtet werden konnte. Dieser Architekturansatz erlaubte ein lüfterloses, besonders geräuscharmes Systemdesign, das sich stark von den laut surrenden IBM XT-Klonen jener Zeit unterschied. Der RAM betrug serienmäßig 512 KB und konnte auf 640 KB erweitert werden, was für MS-DOS-Programme jener Zeit ausreichte. Der Bildschirm war ein fest eingebauter, monochromer 14-Zoll-Cathode-Ray-Tube mit Paper-White-Phosphor, der laut Zenith „die Lesbarkeit eines gedruckten Blattes Papier bei niedrigster Augenbelastung“ bieten sollte. Unterstützt wurde Textmodus in 80×25 sowie eine CGA-kompatible Grafik mit maximal 640×200 Pixeln, wobei ein interner Modus das Bild auf 640×400 hochskalierte, um die Lesbarkeit zu verbessern. Farbdarstellung war nicht vorgesehen, 16 Graustufen wurden über Dithering simuliert.

Massenspeichertechnisch verfügten die Modelle EZ1 und EZ2 über ein 3,5-Zoll-Diskettenlaufwerk mit 720 KB Kapazität. Der EZ3 beinhaltete zusätzlich eine 20 MB-Festplatte, die über einen internen XT-IDE-Controller angesprochen wurde. Spätere Modelle konnten durch einen proprietären Erweiterungsschacht aufgerüstet werden, etwa mit Modems, RAM-Modulen oder sogar einem zweiten Laufwerk. Anschlüsse waren auf das Notwendigste beschränkt: ein serieller Port für Maus oder Modem, ein paralleler Anschluss für Drucker sowie ein proprietärer Erweiterungsschacht mit spezifischem ZDS-Protokoll. Dieses Protokoll basierte nicht auf dem weit verbreiteten ISA- oder PCMCIA-Standard, sondern war ein intern dokumentiertes Busverfahren mit eigenen Steuerleitungen und Adressräumen, das ausschließlich mit von Zenith freigegebenen Modulen wie RAM-Erweiterungen, Modems oder zweiten Floppy-Laufwerken kommunizierte. Kompatibilität mit Drittanbieterhardware war damit bewusst ausgeschlossen – ein Vorgehen, das an Apples ADB-Philosophie erinnerte, jedoch technisch weniger elegant umgesetzt wurde.

Als Betriebssystem kam MS-DOS 3.21 zum Einsatz, ergänzt durch GW-BASIC und eine hauseigene Dateiverwaltungsoberfläche namens „DOS Manager“. Diese Oberfläche bot ein menügesteuertes Interface mit Symbolen und Softkey-Menüs – gedacht für Nutzer ohne Vorkenntnisse. Laut einer Anzeige in InfoWorld vom August 1987 versprach Zenith, der Rechner sei „innerhalb von fünf Minuten nach dem Auspacken einsatzbereit – ohne Handbuch, ohne Vorkenntnisse“. Der DOS Manager war ins ROM eingebettet und startete unmittelbar beim Einschalten. Auch das BIOS war erweitert, etwa mit Funktionen zum automatischen Laden von BASIC oder zur Initialisierung von Zenith-spezifischen Erweiterungskarten.

Presseberichte fielen gemischt aus. PC Magazine lobte das ruhige System und das augenfreundliche Display: „This is the most eye-pleasing display you’ve ever seen on a monochrome machine“ (Das ist das angenehmste Monochrom-Display, das man je gesehen hat). Gleichzeitig wurde aber auch kritisiert, dass das System „weniger ein vollständiger PC, als vielmehr ein abgespeckter digitaler Schreibtisch“ sei. Besonders Business-Anwender fühlten sich durch die eingeschränkte Erweiterbarkeit und die fehlende Unterstützung für Standardkarten abgeschreckt.

Hintergrundnotizen aus dem damaligen Entwicklerkreis zeigen interessante Gestaltungsentscheidungen: So wurde das Netzteil vollständig im Monitorgehäuse verbaut – nicht nur aus Platzgründen, sondern um thermische Geräusche zu eliminieren. Auch der Verzicht auf einen Lüfter war bewusst gewählt. Laut Martha Cheng in einem internen Memo „sollte der Rechner selbst im Schlafzimmer benutzt werden können, ohne den Partner zu wecken“. Dies war zweifellos eine löbliche Idee – doch man vergaß offenbar, wie durchdringend das Klackern mechanischer Tastaturen der späten 1980er Jahre war. In der Realität dürften viele Partner beim Tippen auf der Zenith-Klaviatur vermutlich schneller geweckt worden sein als durch das Surren eines Netzlüfters.

Marktwirtschaftlich war der eaZy PC ein Achtungserfolg. Zwischen 1987 und 1990 wurden etwa 25.000 bis 30.000 Geräte verkauft, vorwiegend in Nordamerika, einige hundert auch in Europa, insbesondere an Bildungseinrichtungen. Das Modell EZ3 mit Festplatte kostete bei Markteinführung 1.598 US-Dollar – inflationsbereinigt rund 3.800 Euro. Die Basisversion EZ1 lag unter 1.000 Dollar und war damit deutlich günstiger als ein Compaq Portable oder IBM PC XT. Dennoch blieb der kommerzielle Durchbruch aus. Zenith verlagerte sich 1990 wieder stärker auf tragbare Systeme und industrielle Workstations.

Im Vergleich zu zeitgleichen Konkurrenten wie dem IBM PS/2 Model 25 oder dem Apple IIGS hatte der eaZy PC klare Vorteile in Sachen Lautstärke, Design und Energieverbrauch. Technisch jedoch konnte er mit den zunehmend leistungsstärkeren und bunteren Systemen nicht mithalten. Der Verzicht auf eine FPU, VGA-Grafik oder Soundunterstützung – es gab lediglich einen internen Piezo-Beeper – bedeutete in einer Ära wachsender Multimediaansprüche ein klares Handicap.

Der eaZy PC bleibt damit ein technisches Denkmal für ein Produkt, das versuchte, aus einem Personal Computer ein Alltagsgerät zu machen – mit klarer Benutzerzentrierung und wohnzimmertauglichem Design. In einer Zeit, als Computer noch als laute, kantige Kästen galten, schuf Zenith einen lautlosen, einsteigerfreundlichen, aber begrenzt erweiterbaren Digitalhelfer. Eine mutige, aber kurzlebige Vision – und ein faszinierender Fußabdruck in der Geschichte der Desktop-Computer.

 

Vector 4

Vector 4

personal comp world 1982 07 001 m

Picture ist taken from: https://nosher.net/archives/computers/personal_comp_world_1982-07_001?idx=Vector

Im Frühjahr 1982 brachte das kalifornische Unternehmen Vector Graphic Inc. mit dem Vector 4 einen bemerkenswert ambitionierten Desktop-Computer auf den Markt, der sich gleichermaßen an Unternehmen und ambitionierte Einzelanwender richtete. Technisch betrachtet handelte es sich um einen hybriden Rechner, der sowohl den Zilog Z80A mit 4 MHz als auch den Intel 8088 Prozessor integrierte – letzterer auch das Herzstück des kurz zuvor erschienenen IBM PC. Diese doppelte Prozessorarchitektur sollte es ermöglichen, sowohl das bewährte CP/M-Betriebssystem als auch MS-DOS auszuführen – ein Alleinstellungsmerkmal, das in Branchenkreisen Aufsehen erregte. Die Verantwortlichen bei Vector Graphic bezeichneten den Vector 4 in einem Interview mit der Zeitschrift Personal Computer World als „a bridge between two generations of software platforms“ (eine Brücke zwischen zwei Softwaregenerationen).

Der Vector 4 war in einem rechteckigen Metallgehäuse untergebracht, das etwa 45 cm breit, 40 cm tief und 20 cm hoch war. Das Gewicht lag bei rund 12 kg. Intern basierte die Architektur auf dem S-100-Bus, einem offenen Industriestandard, der dem Anwender eine Vielzahl an Erweiterungsmöglichkeiten bot. Bereits in der Grundausstattung verfügte der Rechner über 64 KB RAM für den Z80-Strang, konnte aber über Steckkarten erweitert werden. Das Display war monochrom, bei einer grafischen Auflösung von schätzungsweise 640×480 – eine für die damalige Zeit ordentliche Leistung, wenngleich keine Farbdarstellung möglich war. Eine geplante Farbgrafikkarte wurde zwar konzipiert, aber nie zur Serienreife gebracht. Soundseitig war das System mit einem einfachen internen Piezo-Speaker ausgestattet, ein Soundchip wie der AY-3-8912 oder gar ein SID war nicht vorgesehen.

Als Massenspeicher dienten zwei 5¼-Zoll-Diskettenlaufwerke mit 96 TPI, später wurden Modelle mit einem zusätzlichen 8-Zoll-Laufwerk oder sogar einer 10-Megabyte-Festplatte von Shugart angeboten. Laut dem Computer Business Review sollten auch Tape-Backup-Lösungen sowie ein eigenes Streaming-Bandlaufwerk folgen, die jedoch in der Entwicklung blieben. Geplante Peripheriegeräte umfassten Drucker, eine Farbgrafik-Workstation und ein eigenständiges RAM-Disk-Modul. Letzteres erschien 1983 in Kleinserie. Die Schnittstellen umfassten serielle und parallele Anschlüsse, sowie einen S-100-Erweiterungsport.

Der Preis des Vector 4 betrug bei Markteinführung rund 3.495 US-Dollar – inflationsbereinigt entspricht das etwa 10.800 Euro im Jahr 2025. Damit war er günstiger als viele Großrechnersysteme, aber deutlich teurer als der IBM PC in Grundkonfiguration. Die Unternehmensgründer Robert Harp und seine Frau Lore Harp McGovern hatten Vector Graphic bereits 1976 gegründet. Lore Harp war eine der ersten Frauen, die ein börsennotiertes Computerunternehmen leitete. In einem Interview mit dem BYTE Magazine von 1983 sagte sie: „We didn’t want to copy the IBM PC – we wanted to do something smarter“ (Wir wollten den IBM PC nicht kopieren – wir wollten etwas Klügeres machen). Während Robert Harp primär für die technische Entwicklung verantwortlich war, übernahm Lore Harp den geschäftlichen Bereich und brachte Vector Graphic 1981 an die Börse.

Das Betriebssystem war wahlweise CP/M 2.2, MS-DOS 1.25 oder ein hauseigenes System namens FlashWriter II, das insbesondere für Textverarbeitung ausgelegt war. Es konnte direkt aus dem ROM gebootet werden, wodurch der Rechner binnen Sekunden einsatzbereit war – eine Seltenheit in der damaligen Zeit. FlashWriter wurde mit einer Wordprocessor-Software ausgeliefert, die laut der Zeitschrift InfoWorld „the most efficient standalone text editing environment under $5000“ (die effizienteste Textverarbeitungsumgebung unter 5000 Dollar) war.

vector 4

Auch in der Serie A-Team konnte der Vicro bewundert werden

Eine interessante Anekdote aus der Frühzeit des Vector 4 betrifft seine Ankündigung auf der West Coast Computer Faire 1982: Während viele Besucher auf den Apple III oder IBM PC starrten, präsentierte Vector Graphic seinen neuen Rechner in einem komplett abgeschlossenen Raum, zugänglich nur für Vorabkunden und Investoren. Diese Geheimhaltung sorgte in der Branche für Spekulationen. PC World schrieb später süffisant: „Vector Graphic may have launched a great machine – but they cloaked it like the CIA.“ (Vector Graphic hat vielleicht eine großartige Maschine vorgestellt – aber sie haben sie getarnt wie der Geheimdienst.)

Verkauft wurden vom Vector 4 nach eigenen Angaben rund 13.000 Einheiten weltweit. Davon entfielen etwa 8.000 auf den US-Markt, der Rest ging nach Kanada, Europa und Australien. Während der Vector 4 in Fachkreisen gelobt wurde – insbesondere für seine Betriebssystemsvielfalt und Erweiterbarkeit –, konnte er sich auf dem zunehmend von IBM-kompatiblen Rechnern dominierten Markt nicht behaupten. Die New York Times schrieb 1984: „Vector Graphic built a bridge – but the world already crossed the IBM highway“ (Vector Graphic baute eine Brücke – aber die Welt fuhr bereits auf der IBM-Autobahn). Die Verkaufszahlen blieben weit hinter den Erwartungen zurück, und als die Börsenbewertung des Unternehmens 1984 einbrach, trat Lore Harp zurück. 1985 musste Vector Graphic Konkurs anmelden.

In der Rückschau bleibt der Vector 4 ein faszinierendes Relikt einer Übergangszeit: Ein Rechner, der technisch viel versprach und mit mutigen Entscheidungen wie der Dual-Prozessor-Architektur neue Wege ging. Doch genau diese Vielschichtigkeit wurde ihm auch zum Verhängnis – IBM hatte den Markt längst standardisiert, und kostengünstigere Kompatible überfluteten die Branche. Der Vector 4 war damit das letzte ernstzunehmende System aus dem Hause Vector Graphic, ein Schwanengesang auf den S-100-Bus und auf eine Ära, in der visionäre Kleinunternehmen noch mit Big Playern konkurrieren konnten. Wer heute einen Vector 4 mit funktionierenden Diskettenlaufwerken findet, besitzt ein rares Stück Rechenhistorie – und ein Mahnmal dafür, wie nahe Genie und Untergang im Computerzeitalter beieinanderliegen können.

 

Hewlett-Packard HP-65

Hewlett-Packard HP-65

hp 65 white background

Von HP_65.jpg: teclasorg on flickrderivative work: Pittigrilli (talk) - HP_65.jpg, CC BY-SA 2.0, https://commons.wikimedia.org/w/index.php?curid=9710858

Der Hewlett-Packard HP-65, im Jahr 1974 eingeführt, war ein revolutionäres Gerät, das zwar äußerlich als Taschenrechner daherkam, in Wahrheit jedoch der weltweit erste programmierbare Taschenrechner mit magnetischem Massenspeicher war. Der HP-65 markierte einen echten Meilenstein in der Geschichte der mobilen Rechentechnik und leitete eine neue Ära ein – nicht nur für Hewlett-Packard, sondern für die gesamte Rechnerindustrie.

Die Geschichte des HP-65 beginnt bei HPs legendärer Calculator Division in Cupertino, Kalifornien, unter der Leitung von Bill Hewlett und Dave Packard, den beiden Unternehmensgründern. Die technische Projektleitung übernahm Tom Osborne, der schon maßgeblich am HP-35 beteiligt gewesen war – dem ersten wissenschaftlichen Taschenrechner überhaupt. Der HP-65 sollte nun ein Gerät werden, das nicht nur Zahlen verarbeiten, sondern auch ganze Programme speichern und ausführen konnte – ein „Personal Computer“ im Taschenformat, Jahre bevor dieser Begriff überhaupt in Umlauf kam. Osborne selbst beschrieb das Projekt später als „das komplexeste und aufregendste Produkt, das wir in den 70er Jahren je versucht haben“, und in der Retrospektive war der HP-65 nicht weniger als der Urahn aller heutigen programmierbaren Taschencomputer.

Der HP-65 verwendete einen speziell entwickelten, proprietären CMOS-Prozessor von HP selbst, der eng mit dem damaligen Logikdesign der HP-9800-Serie verwandt war. Eine „CPU“ im klassischen Sinn war es nicht – vielmehr bestand die Recheneinheit aus einem diskreten Mikroprogramm-Kontrollwerk, das speziell auf das RPN-Bedienschema (Reverse Polish Notation) und 19-stellige BCD-Arithmetik zugeschnitten war. Das Gerät besaß registerbasierten Speicher, und der Programmspeicher war streng limitiert: 100 Schritte, aufgeteilt in einem eigenen microcodebasierten Format, das spezielle Token für jede Funktion verwendete – zum Beispiel wurde die Tastenfolge SIN nicht als ASCII, sondern als 2-Bit-Kode gespeichert, um Speicherplatz zu sparen. Für damalige Verhältnisse war das eine Meisterleistung der Miniaturisierung, die selbst Großrechnerentwickler ins Staunen versetzte.

Was den HP-65 von allen Taschenrechnern seiner Zeit abhob – und warum er mit Recht als bahnbrechend gilt – war das integrierte Magnetkartenlaufwerk. Dieses konnte kleine, etwa daumengroße Karten einlesen und beschreiben, mit denen Programme gespeichert und wieder abgerufen werden konnten – ein Feature, das bis dahin nur stationäre Computer mit Magnetband oder Lochkarten besaßen. Die Karten wurden über einen Schlitz oben am Gehäuse eingeschoben und mit einem simplen Motorstreifen eingezogen. Jeder Streifen konnte zwei Programme speichern, eines auf jeder Seite. Das System war so gestaltet, dass man z. B. eigene numerische Routinen, Integrationsverfahren oder Maschinenbauformeln direkt unterwegs programmieren und wiederverwenden konnte – etwas völlig Neues im Jahr 1974.

Der ursprüngliche Verkaufspreis betrug 795 US-Dollar, was inflationsbereinigt im Jahr 2025 etwa 4.370 Euro entspricht. Damit war der HP-65 eindeutig ein Gerät für Profis – Ingenieure, Wissenschaftler, Raumfahrttechniker. Und tatsächlich wurde der HP-65 sogar von der NASA auf Apollo- und Skylab-Missionen mitgeführt. Eine Pressemitteilung von HP im Jahr 1975 betonte stolz: „Der HP-65 ist nun weltraumtauglich und wird als rechnergestütztes Backup an Bord für die Missionsplanung eingesetzt..“ NASA-Ingenieur Bruce P. Smith sagte dazu: „Es war das einzige Gerät unseres Vertrauens, das klein genug zum Tragen und intelligent genug war, um die Flugbahn neu zu berechnen, wenn die Bordsysteme ausfielen.“

Der HP-65 hatte ein rotes LED-Display mit 15 Stellen, kein Grafikdisplay, keine Farben, keine Auflösung im heutigen Sinne. Der Bildschirm bestand aus Segmentanzeigen, wie sie in Digitaluhren üblich waren. Eine besondere Raffinesse war der dynamische Scrolling-Effekt: Bei langen Zahlen oder Programmbefehlen scrollte die Anzeige von rechts nach links, um den gesamten Inhalt anzuzeigen – ein Kunstgriff, der durch ausgeklügeltes Timing im Controller-Chip ermöglicht wurde.

Ein Betriebssystem im klassischen Sinne besaß der HP-65 nicht – seine „Firmware“ war ein Satz von 51 festen mathematischen Funktionen plus einem interpreterähnlichen Mikrocode, der die Programmschritte ausführte. Die Bedienung erfolgte über 35 Tasten, die je nach Modus bis zu drei Funktionen aufwiesen. Durch die Nutzung von Tastenkombinationen konnte der Nutzer zwischen numerischen, programmierbaren und Steuerbefehlen umschalten. Auch eine Sprungbefehlsstruktur mit Labels und Subroutinen war implementiert – quasi ein Mini-BASIC ohne Texteditor.

Der Speicher bestand aus 9 Speicherregistern (R0 bis R8) plus einem Stack mit vier Ebenen (X, Y, Z, T), wie im RPN-Design üblich. Massenspeicher im heutigen Sinn war das Magnetkartenlaufwerk – langsamer als RAM, aber mobil und zuverlässig. Externe Anschlüsse hatte der HP-65 keine. Peripheriegeräte waren keine vorgesehen – das Gerät war vollständig stand-alone, kein Interface, keine Netzwerkanbindung, kein Netzteilanschluss. Strom kam ausschließlich über einen integrierten Akku, der allerdings als notorisch fehleranfällig galt. Viele Besitzer der ersten Serien berichten davon, dass die Ladeeinheit überhitzte und die Nickel-Cadmium-Zellen beschädigte. Ein Service Bulletin von HP aus dem Jahr 1975 warnte davor, das Netzteil bei entnommenem Akku anzuschließen – ein seltener Designfehler für ein ansonsten fast perfektes Gerät.

Größe und Gewicht des HP-65 waren für damalige Verhältnisse sensationell: mit 13 × 8 × 3 cm und rund 300 Gramm war das Gerät wirklich „tragbar“, auch wenn es im Jackett ein ziemlicher Klotz blieb. Der Soundchip bestand aus einem einzigen Piezo-Piepser, der bei Fehlern oder Tastentönen ein einfaches Signal ausgab. Musik, Sprache oder gar Soundausgabe im heutigen Sinne gab es selbstverständlich nicht.

Trotz des stolzen Preises verkaufte HP in den ersten drei Jahren über 100.000 Einheiten – was für ein Gerät dieser Klasse, ohne Spiele, ohne Bildschirm, ohne Tastatur im klassischen Sinn, eine gigantische Zahl war. Die US-Zeitschrift BusinessWeek nannte den HP-65 „die eleganteste Maschine, die ein Wissenschaftler ohne Labor tragen kann“, und die New York Times titelte 1975: „Vom Raketenlabor in die Hemdtasche: HPs Taschenrechner weist den Weg“.

Konkurrenz gab es wenig: Texas Instruments brachte erst 1977 den TI SR-52 auf den Markt, der erstmals ein ähnliches Funktionspaket bot. Der SR-52 war günstiger, aber weniger zuverlässig – das Magnetkartenlaufwerk war mechanisch anfälliger, die Programmierung nicht so elegant gelöst. Ein späterer Vergleichstest im Magazin BYTE (1979) kam zum Urteil: „Der HP-65 fühlt sich wie ein Präzisionsinstrument an – der TI wie ein Spielzeug, das sich zu sehr anstrengt.“

Der HP-65 war ein voller Erfolg – technisch, wirtschaftlich, symbolisch. Er veränderte Hewlett-Packard grundlegend: Die Calculator Division wurde nach dem Erfolg massiv ausgebaut, das Unternehmen wandelte sich vom Instrumentenhersteller zum Innovator für mobile Datenverarbeitung. Es war der HP-65, der das Fundament für spätere Geräte wie den HP-41C oder den legendären HP-71 legte. Tom Osborne blieb bis Mitte der 80er bei HP und entwickelte unter anderem den HP-67 und HP-97 – direkte Nachfolger des HP-65, aber mit alphanumerischen Displays und erweitertem Speicher.

Man kann mit Fug und Recht sagen: Der HP-65 war kein Taschenrechner – sondern der erste Taschencomputer, auch wenn er noch keine Bits und Bytes im heutigen Sinn verarbeitete. In seinem Innersten war er ein mikrocodiertes Rechenwerk im Taschenformat – das erste, das man im Flugzeug, im Labor oder im Weltall einsetzen konnte. Und genau das machte ihn unsterblich.

 

Amiga 600

Amiga 600

olympus digital cameraDer Commodore Amiga 600, intern zunächst als Amiga 300 entwickelt, war 1992 Commodores Versuch, einen modernen, kompakteren Heimcomputer für Einsteiger auf den Markt zu bringen. Ursprünglich geplant als günstiger, abgespeckter Amiga 500 für die untere Preisklasse, wurde das Gerät unter dem Projektnamen „June Bug“ (eine Anspielung auf den B-52’s Song, wie auch „Rock Lobster“ beim A500) entwickelt – mit dem Ziel, das Lebensende des Amiga 500 einzuläuten und einen kleinen, kosteneffizienten Amiga für Spiele, Multimedia und Einsteiger zu etablieren. Doch Commodores Management entschied sich in letzter Minute für eine Namensänderung: Statt Amiga 300 sollte das Gerät als Amiga 600 erscheinen, was vielen Kunden suggerierte, es handle sich um einen größeren technischen Sprung. Das Gegenteil war der Fall. David Pleasance, späterer Chef von Commodore UK, beschrieb die Entscheidung rückblickend trocken: „Der Amiga 600 war ein kompletter und absoluter Unsinn – ein Produkt, das niemand wirklich haben wollte.“ In einem Interview mit Retro Gamer ergänzte er: „Das war keine Marktentscheidung, das war ein politisches Manöver. Niemand bei Commodore UK hatte den A600 verlangt – wir wurden damit überrumpelt.

Der Entwickler George Robbins, ein Veteran, der zuvor schon maßgeblich an der A500-Hardware gearbeitet hatte, hatte ursprünglich ein ganz anderes Gerät im Sinn: „Mein Plan war es, ein kostengünstiges A500 zu bauen – etwas einfaches, günstigeres, aber kompatibles. Herausgekommen ist ein aufgeblasenes Durcheinander mit sinnlosen Funktionen..“ Seine Kritik zielte insbesondere auf das Eingreifen des neuen Technikchefs Bill Sydnes, der von IBM gekommen war. Sydnes hatte beim IBM PCjr bereits einen umstrittenen Heimcomputer verantwortet und versuchte nun, dem Amiga 600 Features aus der PC-Welt einzuverleiben – unter anderem den 44-poligen IDE-Port und den PCMCIA-Steckplatz. Robbins kommentierte trocken: „Die Hinzufügung dieser Funktionen führte zu höheren Kosten, größerer Komplexität und verletzte die Kompatibilität – all die Dinge, die ich vermeiden wollte.“

Commodores Hardware-Ikone Dave Haynie brachte es gewohnt direkt auf den Punkt: „Die A600 war eine völlig unnötige Maschine. Sie kostete mehr in der Herstellung als eine A500, leistete weniger und hatte keinen Upgrade-Weg. Es war im Grunde ein Beispiel interner Politik.“ In einer Usenet-Diskussion einige Jahre später führte Haynie weiter aus: „Wir hätten ein echtes, kostengünstiges Amiga machen können, wenn sie zugehört hätten. Der A600 war nichts anderes als die gleichen alten Teile in einem kleineren Gehäuse und kostete mehr. Es gab keine Möglichkeit, einen schnelleren CPU oder ein echtes Grafik-Upgrade einzubauen.“ Damit meinte er unter anderem die Tatsache, dass fast alle Chips nun als SMD-Variante direkt verlötet waren – eine Premiere bei Amigas, die Erweiterungen nahezu unmöglich machte. Geplant war laut internen Quellen sogar kurzzeitig eine Variante mit integriertem Netzteil, ähnlich dem Konzept eines C64C. Haynie sagte dazu in einem privaten Interview: „Das Gehäuse war bereits zu eng. Ein integriertes Netzteil hätte es in einen Toaster verwandelt.“ Er deutete damit die thermischen Probleme an, die das kompakte Gehäuse bei Hitzeentwicklung verursacht hätte. Stattdessen blieb Commodore beim klassischen externen Netzteil – zwar nicht elegant, aber bewährt.

Technisch basierte der A600 auf dem Motorola 68000 mit 7,14 MHz (PAL), wie schon beim A500. Der ECS-Chipsatz erlaubte 1 MB Chip-RAM (max. 2 MB mit Erweiterung), Bildschirmauflösungen von 320 × 256 bis 1280 × 512 (interlaced), 32 Farben standardmäßig, 64 mit Extra Half-Brite oder theoretisch 4096 mit HAM-Modus. In der Praxis nutzten Spiele weiterhin 320 × 200 mit 16 bis 32 Farben – die höhere Auflösung war meist dem Workbench-Betrieb vorbehalten. Der Soundchip „Paula“ blieb gegenüber dem A500 unverändert: vier 8-Bit-Kanäle in Stereo, DMA-gesteuert. Ein Highlight war der PCMCIA-Port, der jedoch in der Praxis kaum genutzt wurde – es gab 1992 nur sehr teure und inkompatible Karten. Auch der interne IDE-Anschluss für 2,5″-Festplatten wurde wegen Kompatibilitätsproblemen der ersten ROM-Versionen kritisch gesehen. Haynie fasste es so zusammen: „Sie haben neue Hardwarefunktionen hinzugefügt, aber vergessen, sie im ROM zu unterstützen. Das ist einfach dumm.

Der A600 wurde mit Kickstart 2.05 und Workbench 2.0 ausgeliefert, später auch mit 2.1. Erst spätere ROM-Versionen erlaubten Booten von Festplatte, Locale-Unterstützung und CrossDOS. Für den Amiga 600 bedeutete CrossDOS insbesondere im beruflichen Umfeld eine wichtige Erweiterung: Der kleine Rechner konnte damit erstmals ohne Zusatzsoftware Daten mit PCs austauschen – eine essenzielle Funktion im Übergang zur MS-DOS-dominierten Arbeitswelt der frühen 90er.Das System war moderner als das 1.3er des A500, aber weniger kompatibel zu älteren Spielen. Viele Magazine legten ein Tool wie Relokick bei, um Kickstart 1.3 in den RAM zu laden. Trotz modernerem OS blieb das System für viele Retrospiele-Fans ein Rückschritt.

Der Listenpreis lag bei ca. 800 DM, inflationsbereinigt rund 830 Euro (2025). Die Variante A600HD mit 20 MB-Festplatte kostete rund 1.200 DM, heute etwa 1.250 Euro. Verkaufszahlen weltweit werden auf etwa 190.000–250.000 Einheiten geschätzt, wobei Deutschland zu den stärkeren Märkten gehörte. Ein Bruchteil der über 4 Millionen verkauften Amiga 500 – und damit ein deutliches Zeichen: Dieses Modell konnte nicht an die Erfolge anknüpfen. Das Urteil der Fachpresse fiel durchwachsen aus: CU Amiga lobte 1992 das kompakte Design und die Festplattenoption, kritisierte aber die fehlende Zifferntastatur. Amiga Format nannte den A600 „eine merkwürdige Zwischen-Generation, nach der niemand gefragt hat“. In Deutschland schrieb 64’er trocken: „Wer vom A500 auf den A600 umsteigt, zahlt drauf – an Preis wie an Leistung.“ Im Rückblick wurde der A600 etwa von Ars Technica als „worst Amiga ever“ bezeichnet. Ein wirtschaftlicher Wendepunkt war der A600 nicht. Er markierte eher den Anfang vom Ende. Commodore verlor 1992 zunehmend Marktanteile an PC und Konsolen, der A600 verwirrte die Kundschaft, kostete zu viel und konnte nichts besser als sein Vorgänger. Der einzige nennenswerte Fortschritt: Die Nutzung von Laptop-Technologien wie PCMCIA und 2,5″-Festplatten wurde für spätere Modelle wie den A1200 übernommen.

Trotz all seiner Schwächen hat der A600 heute Kultstatus. Wegen seines platzsparenden Designs und moderner Erweiterungsmöglichkeiten via FPGA oder CF-Karten ist er heute bei Bastlern beliebt. Als Produkt seiner Zeit bleibt er dennoch: ein Kompromiss, geboren aus Unsicherheit, Fehlentscheidungen und zu viel Manager-Einfluss. Oder, wie Haynie es abschließend formulierte:
Wenn Commodore sich auf echte Innovationen anstatt auf interne Ego-Kriege konzentriert hätte, hätte der A600 etwas sein können. Aber was wir bekamen, war die Antwort auf eine Frage, die niemand gestellt hat.

 

Vector 1

Vector 1

vector1Im Jahr 1976, als der Begriff "Personal Computer" noch mit Schraubenzieher und Lötzinn gleichgesetzt wurde, gründeten Lore Harp McGovern, Carole Ely und Robert Harp im sonnigen Kalifornien das Unternehmen Vector Graphic Inc. Die Vision: nicht nur leistungsfähige Computer zu bauen, sondern auch solche, die benutzerfreundlich und optisch ansprechend waren. Während Harp als Ingenieur die technische Leitung übernahm, trieb Harp McGovern als CEO die strategische Entwicklung voran. Ihre Mission war klar: Technik aus dem Bastelkeller in den Büroalltag zu bringen. Mit Mut zur Farbe, strukturiertem Design und klarem Fokus auf Bedienbarkeit stach Vector Graphic schnell aus der damaligen Nerd-Nische heraus.

Ursprünglich konzentrierte sich das Unternehmen auf Erweiterungskarten für den populären S-100-Bus, insbesondere RAM-Module und Grafikkarten. Diese wurden bald für ihre hohe Qualität und gute Dokumentation bekannt, was Vector Graphic rasch einen guten Ruf unter Early-Adopters und Systemintegratoren einbrachte. Erst als der Bedarf an kompletten Systemen stieg – insbesondere solchen, die man nicht erst aus 20 Einzelteilen zusammensetzen musste –, entschied man sich, ein eigenes Komplettsystem zu entwickeln: den Vector 1.

vector1 topless1977 stellte das Unternehmen schließlich diesen Vector 1 vor – einen S-100-Bus-basierten Mikrocomputer, der für professionelle Anwendungen gedacht war und die rohe Bastelästhetik des Altair 8800 oder IMSAI 8080 hinter sich ließ. In einem robusten Metallgehäuse, erhältlich in den Farben Grün oder "Rust", steckte ein Intel 8080A-Prozessor mit 2 MHz, gepaart mit einem Kilobyte RAM. Das klang nach wenig – war aber über den S-100-Bus, dem damals führenden Industriestandard, auf bis zu 64 KB erweiterbar. Der S-100-Bus, ursprünglich von MITS für den Altair entwickelt, war ein Steckplatzsystem mit 100 Kontakten, über die CPU-, Speicher- und Peripheriekarten miteinander kommunizierten. Vector Graphic nutzte dieses System voll aus und stattete den Vector 1 mit bis zu 18 dieser Slots aus – eine Plattform, die mit dem Unternehmen und den Anforderungen der Nutzer wachsen konnte.

Anders als viele seiner Zeitgenossen verzichtete der Vector 1 auf eine batterielose Kippschalter-Programmierung und setzte stattdessen auf eine einfache Benutzeroberfläche mit nur zwei Tasten: Reset und Start. "Two-touch computing" nannte das Lore Harp in Werbematerialien – ein mutiger Marketingansatz in einer Ära, in der das Programmieren von Bootsequenzen per Hand als Männlichkeitsritual galt.

Zum Preis von 849 US-Dollar (bzw. 619 Dollar als Bausatz) bot der Vector 1 ein solides Angebot. Inflationsbereinigt entspricht das heute etwa 3.300 Euro. Geliefert wurde der Rechner mit einem einfachen Monitor-ROM zur Basiskontrolle, doch über ein optionales Tarbell-Kassetteninterface oder spätere Diskettencontroller ließ sich CP/M laden – das populärste Betriebssystem seiner Zeit. Auch firmeneigene Textverarbeitungssysteme wie Flashwriter oder Memorite wurden angeboten und machten den Vector 1 zu einem echten Büroarbeitsplatz.

Im Inneren des Gehäuses steckte eine robuste Metallrahmenstruktur mit einem integrierten Netzteil (mit +8V, +16V, -16V Spannungen), einer Backplane für S-100-Karten und den erwähnten Einsteckkarten – CPU, RAM und serielle Schnittstellen gehörten zur Grundausstattung. Erweiterungskarten für parallele I/O, Floppycontroller oder auch grafische Terminals konnten einfach nachgerüstet werden. Der später erschienene Vector 1+ verfügte sogar über ein integriertes Diskettenlaufwerk – eine Seltenheit im S-100-Segment und ein klarer Hinweis auf den Office-Fokus der Entwickler.

Die Ausgabe erfolgte über externe Terminals wie das ADM-3A – 80 Zeichen auf 24 Zeilen, monochrom in grün oder bernstein. Grafikausgabe im eigentlichen Sinne gab es nicht. Ebenso wenig wie Sound. Der Vector 1 war kein Spielzeug, sondern ein ernstzunehmendes Werkzeug – und das war auch gut so. Wer einen Piepton wollte, konnte sich über S-100-Karten behelfen, doch Multimedia war hier kein Thema.

Vector Graphic schaffte es mit dem Vector 1, mehrere tausend Einheiten abzusetzen – vor allem an Universitäten, kleine Unternehmen und technische Bildungseinrichtungen. Der jährliche Umsatz stieg bis 1982 auf rund 36 Millionen US-Dollar. Man wurde an der NASDAQ gelistet, beschäftigte etwa 400 Mitarbeiterinnen und Mitarbeiter und war kurzzeitig einer der erfolgreichsten unabhängigen Computerhersteller in den USA. Doch der Markt veränderte sich rasant. Der IBM-PC dominierte ab 1981 das Geschäft, und S-100-Systeme gerieten ins Hintertreffen.

Carole Ely and Lore Harp

Carole Ely and Lore Harp - erkennbar ist die Größe des Vector 1

Technisch war der Vector 1 gegenüber Altair und IMSAI überlegen: stabiler Aufbau, integriertes Netzteil, klares Design, bessere Dokumentation. Gegenüber dem IBM PC, Atari ST oder Amiga jedoch fehlten Grafik, Sound und ein integriertes Betriebssystem mit grafischer Oberfläche. Doch der Vector 1 hatte nie den Anspruch, ein Heimcomputer zu sein – er war Bürogerät mit System.

Die Gründer prägten das Unternehmen maßgeblich. Lore Harp McGovern, später Mitbegründerin der McGovern-Stiftung für neurowissenschaftliche Forschung, war eine der wenigen weiblichen CEOs im Silicon Valley der späten 70er. Carole Ely leitete Marketing und Vertrieb. Robert Harp war Chefentwickler und verantwortete unter anderem das Design der frühen RAM-Module.

Der Vector 1 öffnete Vector Graphic den Weg zu größeren Systemen wie dem Vector 3 und Vector 4 – doch mit dem Ende der S-100-Ära und dem Aufstieg des IBM-kompatiblen Standards verlor das Unternehmen an Relevanz. 1987 folgte schließlich die Insolvenz.

Trotzdem bleibt der Vector 1 ein wichtiger Meilenstein: als frühes Beispiel für benutzerfreundliches Hardwaredesign, als Wegbereiter für Bürocomputer und als Zeugnis einer Ära, in der Computer langsam aus der Heimwerkernische ins Licht der Öffentlichkeit traten – geführt von einem Team, das technisches Gespür mit Mut zum Design verband. Und das ganz ohne blinkende Schalterparade.

 

Apple IIgs

Apple IIgs

apple iigs

Von All About Apple museum official web site - http://www.allaboutapple.com

Der Apple IIgs wurde im September 1986 zum zehnjährigen Firmenjubiläum von Apple vorgestellt und gilt als Höhepunkt der Apple-II-Reihe. Er kombinierte die vertraute Apple‑II‐Kompatibilität mit deutlich verbesserten Multimediafähigkeiten – das „gs“ steht für Graphics und Sound. Als Einführungspreis wurden 999 US‑Dollar festgesetzt (ohne Monitor), was heute inflationsbereinigt etwa 2.500 € entsprechen würde. Zum Lieferumfang gehörte ein 3,5″-Diskettenlaufwerk, jedoch kein Monitor. Die ersten rund zehntausend produzierten Geräte waren als „Woz Edition“ bekannt und trugen auf der Front das eingravierte Autogramm von Apple-II-Erfinder Steve Wozniak – ein Hinweis darauf, wie sehr Apple diesen Computer als legitimen Nachfolger des legendären Apple II positionieren wollte. Die Apple-II-Gemeinde reagierte begeistert; so zeigte das Magazin inCider im Oktober 1986 einen strahlenden Wozniak auf dem Cover mit der Schlagzeile „It’s Amazing!“ (übersetzt etwa: „Es ist unglaublich!“).

Die Entwicklung des Apple IIgs begann unter dem Codenamen „Phoenix“ (Phönix), passend zum Motto eines wiederauferstandenen Apple II. Mitte der 1980er war der Umsatz des Apple II trotz des Erfolgs des Macintosh immer noch bedeutend, insbesondere im Bildungsbereich. Ein Team erfahrener Apple‑II-Ingenieure drängte daher auf eine Modernisierung der inzwischen in die Jahre gekommenen Plattform. Den technologischen Anstoß lieferte der neue WDC 65816/65C816–Prozessor der Western Design Center, ein 16-Bit-Nachfolger des klassischen 6502. Dieser Chip konnte im sogenannten Emulationsmodus alle Befehle des 8-Bit-6502 ausführen und zugleich dank 24-Bit-Adressbus bis zu 16 MB Speicher ansprechen. Als Apple-Mitgründer Steve Wozniak 1983 nach längerer Auszeit ins Unternehmen zurückkehrte, begeisterte er sich sofort für die Möglichkeiten dieses Chips. Wozniak, der den Original-Apple‑II konstruiert hatte, setzte sich dafür ein, den neuen Rechner einfach und kompatibel zu halten. So lehnte er etwa einen zweiten Hauptprozessor (wie einen Motorola 68000) ab und schlug vor, den 8-Bit-Bereich des Systems strikt vom neuen 16-Bit-Bereich zu trennen. Dieses Konzept floss maßgeblich in die Architektur des IIgs ein.

Das Entwicklerteam bestand aus erfahrenen Apple-II-Spezialisten. Dan Hillman, zuvor technischer Leiter des gescheiterten Apple‑IIx-Projekts, übernahm das Hardware-Engineering und die Integration des neuen Prozessors. Nancy Stark gilt als eine der frühesten und energischsten Fürsprecherinnen des Projekts innerhalb Apples. Curtis Sasaki fungierte als Produktmanager, Ed Colby als Zuständiger für die CPU-Komponenten, und Harvey Lehtman leitete die Entwicklung der Systemsoftware. Weitere wichtige Beiträge kamen von Rob Moore, der die neuen Grafik- und Soundmodi mitdefinierte, sowie von Gus Andrate, der die Sound-Tools und Firmware für Laufwerke entwickelte. Steve Wozniak selbst stand dem Team beratend zur Seite und sein Einfluss zeigte sich auch in symbolischen Details wie der bereits erwähnten Signatur am Gehäuse. Wozniak wird rückblickend mit den Worten zitiert, der neue 65C816-Chip könne in hohen Taktfrequenzen sogar den Macintosh-Prozessor 68000 „in den meisten Anwendungen schlagen“ – eine optimistische Prognose, die allerdings nicht in vollem Umfang Realität wurde.

Prozessor und Leistung: Das Herzstück des Apple IIgs ist der 65C816 mit 16‑Bit-Registern, der im IIgs standardmäßig mit 2,8 MHz getaktet war. Zum Vergleich: Frühere Apple‑II-Modelle nutzten 8-Bit-Chips mit 1 MHz. Tatsächlich war der im IIgs verbaute 65C816 oft für 4 MHz zertifiziert, doch Apple beließ den Takt aus ungeklärten Gründen bei 2,8 MHz. Viel wurde darüber spekuliert, Apple habe die CPU absichtlich gedrosselt, um den Macintosh nicht in Verlegenheit zu bringen. Ob diese Marketing-Theorie stimmt, ist umstritten – Steve Jobs, der ein entschiedener Förderer des Macintosh war, hatte Apple bereits 1985 verlassen. Wahrscheinlicher ist, dass technische Faktoren wie Timing-Probleme mit langsamerer Peripherie ausschlaggebend waren. Ungeachtet der Taktfrequenz bot der 65C816 einen riesigen Schritt nach vorn: Er beherrschte einen 8-Bit-Kompatibilitätsmodus, so dass der IIgs praktisch einen vollständigen Apple IIe emulieren konnte. Die untersten 128 KB des Speichers wurden als sogenanntes Slow RAM implementiert und verhielten sich exakt wie beim Apple II (inklusive der nichtlinearen Speicherorganisation für Text- und Grafikmodus). In diesem Bereich lief auch alte 8-Bit-Software unverändert und sogar zeitgenau – auf Wunsch konnte der Nutzer per Kontrollfeld die Systemgeschwindigkeit von „Normal“ (ca. 1 MHz) auf „Fast“ (2,8 MHz) umschalten. Alles oberhalb dieses Bereichs nutzte den vollen 16-Bit-Modus. Der Hauptspeicher des IIgs war anfangs 256 KB RAM (später 512 KB und ab 1989 sogar 1 MB) und via Speicherkarte auf 8 MB erweiterbar– eine gewaltige Kapazität im Vergleich zu den 128 KB eines Apple IIe. Auf dem Motherboard befand sich zudem der Mega II–Chip, der nahezu die gesamte Logik eines Apple IIe in einem IC vereinte. Diese Apple‑II-kompatible Hardware und die neue CPU arbeiteten Hand in Hand und machten den IIgs zur schnellsten und leistungsfähigsten Apple-II-Variante.

In puncto Video war der Apple IIgs seinen Vorgängern und auch manchem Konkurrenten voraus. Neben allen alten Modi (Text, Hi-Res und Double Hi-Res) führte er einen Super-High-Resolution–Grafikmodus ein. Die maximale Auflösung betrug zwar weiterhin 640 × 200 Bildpunkte (aus Kompatibilitäts- und Kostengründen verzichtete Apple auf höhere Zeilenzahlen), doch erstmals standen 4096 Farben zur Verfügung. Im praxisnahen 320 × 200 Modus konnten pro Bildschirmzeile 16 beliebige Farben aus dieser 12-Bit-Palette dargestellt werden. Durch geschicktes Palette-Switching ließ sich theoretisch eine Grafik mit bis zu 256 Farben gleichzeitig erzeugen, in Spezialfällen sogar bis zu 3200 verschiedenen Farbtönen über den ganzen Bildschirm verteilt. Im hochauflösenden 640 × 200 Modus waren 4 Farben pro Zeile möglich. Diese Fähigkeiten übertrafen den Macintosh jener Zeit, der 1986 nur Schwarz-Weiß-Grafik bot. Auch gegenüber dem Atari ST und Commodore Amiga schlug sich der IIgs wacker – alle drei Systeme boten eine Farbpalette von 4096 Farben. Apple entschied sich bewusst dafür, die Horizontalauflösung zu erhöhen statt die Vertikale, um teure Spezialmonitore zu vermeiden und die Abwärtskompatibilität zu bewahren. Die Grafikadressierung wurde im IIgs endlich linear organisiert, was Programmierern die Arbeit erleichterte (beim Apple II waren Pixel bekanntlich auf verworrene Speicheradressen verteilt). Ein dedizierter Video-Controller-Chip (VGC) mit 32 KB eigenem Bildspeicher sorgte dafür, dass trotz Speicheraufteilung zwei 16-KB-Blöcke als kontinuierlicher Grafikpuffer erschienen. Insgesamt bedeutete der Apple IIgs einen Quantensprung für Apple‑II-Grafik: Farbfotos und aufwändige GUI-Elemente wurden erstmals möglich. Zeitgenössische Stimmen lobten zwar die Grafikqualität, bemängelten aber zugleich, dass man aus Rücksicht auf alte Apple‑II-Programme auf radikale Innovationen verzichtet habe. Das Magazin BYTE kommentierte im Oktober 1986 etwa, die Leistung der IIgs -Designer sei „bemerkenswert, aber die Last der klassischen Apple‑II-Architektur, nun so ehrwürdig (und veraltet) wie COBOL und Stapelverarbeitung, hat sie vielleicht heruntergezogen und ihnen echte Technologiesprünge verwehrt“.

Noch deutlicher stach der Apple IIgs in der Klangausgabe hervor. Apple verbaute einen Ensoniq 5503 Digital Oscillator Synthesizer-Chip – derselbe 8-Bit-Wavetable-Soundchip, den Ensoniq in professionellen Synthesizern wie dem Mirage und ESQ-1 einsetzte. Der Chip, entworfen von Bob Yannes (dem Schöpfer des SID-Chips im Commodore 64), besitzt 32 Oszillatoren und damit bis zu 32 unabhängige Stimmen. Apple koppelte je zwei Oszillatoren zu einem Kanal, wodurch dem System standardmäßig 15 polyphone Stimmen in Stereo zur Verfügung standen. (Ein Kanal wurde zur Takterzeugung reserviert, daher oft die Angabe „15 Stimmen“.) In der Praxis entsprach dies immer noch einer nie dagewesenen Soundfülle für einen Heimcomputer Mitte der 1980er – Nibble schwärmte vom „Traumcomputer“ und merkte an, dass bis auf die niedrigere Geschwindigkeit „nur der IIgs den Macintosh deutlich unterbietet – bei Grafik und Ton übertrifft er ihn sogar“. Tatsächlich galt der Apple IIgs bis in die frühen 90er Jahre hinein als der leistungsfähigste Heimcomputer für Musikapplikationen. Der Ensoniq-Chip verfügte über 64 KB eigenen Sound-RAM für Wavetables und arbeitete größtenteils autonom: Lief im Hintergrund Musik, konnte sie sogar weiterspielen, wenn das Hauptprogramm abstürzte. Ein kleiner Wermutstropfen war, dass Apple aus Kostengründen nur einen monoauralen 3,5‑mm-Kopfhöreranschluss bereitstellte. Der Chip selbst unterstützt Stereoausgabe und Eingabe (A/D-Wandler integriert); entsprechende Drittanbieter-Karten konnten den bereits vorhandenen Stereo-Sound „freischalten“, ohne zusätzliche Chips einzubauen. Für viele Anwender rechtfertigte allein die hochwertige Soundausgabe den Preis des IIgs: „Die Audiofähigkeiten stehen in einer eigenen Klasse... [sie] rechtfertigen den Preis für viele Musikfans“ schrieb Compute! im November 1986.

Äußerlich orientierte sich der Apple IIgs am Design des Apple IIc (flaches, cremefarbenes Gehäuse), war aber größer dimensioniert, da er wieder die klassischen Erweiterungssteckplätze bot. Insgesamt sieben Slots im Gehäuse erlaubten die Nutzung fast aller Karten für Apple II/II+ und IIe – ein deutlicher Vorteil gegenüber den geschlossenen Macintosh-Modellen und auch gegenüber dem kompakteren Apple IIc. Zusätzlich gab es einen internen Speichererweiterungs-Steckplatz, über den bis zu 8 MB RAM nachgerüstet werden konnten. Der IIgs war damit sehr ausbaufreundlich; viele Drittanbieter brachten Beschleunigerkarten (bis 10 MHz+), SCSI-Controller, Sound- und Netzwerkkarten auf den Markt. An externen Schnittstellen besaß der IIgs zwei Diskettenanschlüsse (für 5,25″-und 3,5″-Laufwerke), zwei serielle RS-422-Ports für Drucker, Modem oder Vernetzung, einen Composite-Video-Ausgang (FBAS) für Fernsehmonitore sowie einen Apple-typischen 15-poligen RGB-Monitoranschluss. Bemerkenswert ist, dass der IIgs als erster Computer von Apple den neuen Apple Desktop Bus (ADB) einführte – eine serielle Bus-Schnittstelle zum Anschließen von Tastatur, Maus und anderen Eingabegeräten. (ADB wurde kurz darauf auch beim Macintosh II übernommen und blieb über ein Jahrzehnt Apple-Standard.) Ein kleiner Lautsprecher war wie bei allen Apple II integriert, hauptsächlich für Systemtöne. Maße und Gewicht des Hauptgeräts lagen bei ca. 11,7 × 28,4 × 34,8 cm (H×B×T) und 3,96 kg. Das Netzteil lieferte 60 Watt. An der Geräterückseite befand sich zudem ein Batteriefach für die Pufferbatterie der Echtzeituhr.

Standardmäßig bootete der Apple IIgs von Diskette. Apple lieferte meist ein 800‑KB-3,5″-Laufwerk (Apple 3.5 Drive) mit und unterstützte natürlich auch die älteren 140‑KB-5,25″-Disketten der Vorgänger. Über eine Steckkarte konnte ein SCSI-Festplattenlaufwerk angeschlossen werden, was viele Nutzer in Anspruch nahmen – Apple bot hierfür eine offizielle „Apple II High-Speed SCSI“-Karte an. Auch CD-ROM-Laufwerke ließen sich in den späten 80ern über SCSI anbinden. Dank der cleveren Systemsoftware konnte der IIgs sogar übers Netzwerk starten (booten): Mit einer AppleTalk-Karte (Workstation Card) verhielt sich ein Apple IIgs im AppleShare-Netz wie ein Netzwerk-Boot-Terminal, lange bevor es vergleichbare Funktionen auf dem Mac gab. Dieses Feature, 1988 eingeführt, erlaubte etwa Schulklassen, Software zentral vom Server zu laden, anstatt Disketten zu verteilen. Im Laufe der Jahre erschien diverses externes Speichermedium für den IIgs, von Streamer-Bandlaufwerken bis ZIP‑Disketten, meist durch Dritthersteller – begünstigt durch die offenen Erweiterungs-Slots.

Ausgeliefert wurde der Apple IIgs mit einer erweiterten Version des Apple-II-Betriebssystems ProDOS 16 und einer an den Macintosh angelehnten grafischen Benutzeroberfläche. Tatsächlich war der IIgs der erste Apple-Computer mit einem farbigen Desktop und Fenstersystem – der farbfähige Macintosh II kam erst ein halbes Jahr später auf den Markt. Die IIgs -Oberfläche, anfangs Apple II Desktop genannt, wurde bald zu GS/OS weiterentwickelt. GS/OS kombinierte die Einfachheit von ProDOS mit einer Maussteuerung, Fenstern, Menüs und Icons, die dem Mac-System nachempfunden waren. Apple integrierte ein Kontrollfeld zum Einstellen von Parametern wie Taktfrequenz, Bildschirmfarben, Sound und Peripherie – all das wurde in einer batteriegepufferten RAM-Zelle gespeichert, so dass Nutzerprofile erhalten blieben. Viele Komponenten der Systemsoftware stammten aus der Macintosh-Welt: So half Mac-Entwickler Bill Atkinson bei der Portierung der Grafikroutinen (QuickDraw II) für den IIgs. Die Apple-II-Abteilung und Macintosh-Abteilung waren 1985 zusammengelegt worden, was den Know-how-Transfer erleichterte. Unter der Haube lief auf dem IIgs weiterhin auch das alte ProDOS 8 für 8-Bit-Programme – Apple sorgte dafür, dass nahezu alle Apple‑IIe- und IIc-Programme auf dem IIgs liefen. Der Kompatibilitätsmodus war so umgesetzt, dass auch Timing-trickreiche Software wie Spiele oder Demos funktionierte, notfalls durch Drosseln auf 1 MHz. Für Neuentwicklungen bot GS/OS hingegen moderne APIs, ein Geräte-Treiber-Modell und Unterstützung für größere Massenspeicher. Apple lieferte Systemdisketten mit einem Finder-ähnlichen Datei-Browser, Desktop-Zubehör und dem Installer aus. Spätere Updates (System 5, System 6) verbesserten den IIgs weiter und fügten Funktionen hinzu, die der Mac erst mit System 7 erhielt (z. B. einen eigenständigen Fonts-Ordner für Schriften). Die Weiterentwicklung der Software hielt bis 1993 an und wurde von der treuen Apple‑II-Community aufmerksam verfolgt. Allerdings zeigten sich Schwierigkeiten: Viele Entwickler zögerten, Software exklusiv für den IIgs zu schreiben. Stattdessen passten etliche Hersteller bestehende Apple‑II-Programme nur oberflächlich an (etwa durch Farbgrafik und Mausbedienung), um kein Risiko einzugehen. 1987 berichtete inCider, dass viele Publisher geplante IIgs -Projekte gestoppt hätten und stattdessen weiter für die alten IIe/IIc veröffentlichten. Das wohl populärste Programm auf dem IIgs war daher anfangs ausgerechnet AppleWorks, die Textverarbeitung/Tabelle/DB-Suite, die eigentlich noch für den Apple IIe entwickelt worden war. Leistungsfähige neue IIgs -Anwendungen kamen nur zögerlich auf den Markt. Dieser Mangel an Software bremste die Verbreitung des Systems erheblich – eine Erkenntnis, die Apple letztlich in seiner zukünftigen Strategie bestärken sollte (für den Macintosh achtete man früh darauf, genügend Entwicklerunterstützung zu sichern).

Trotz der zurückhaltenden offiziellen Unterstützung arbeiteten einige Apple-Ingenieure und Drittentwickler weiter daran, den IIgs auszubauen. Apple selbst stellte 1988 die bereits erwähnte Workstation Card vor, um Apple II im Netzwerk zu betreiben. Anschließend begann eine kleine Gruppe, an einer waschechten Ethernet-Karte für den Apple II zu entwickeln – ein damals ungewöhnliches Unterfangen. Erste Prototypen dieser Ethernetkarte nutzten sogar einen eigenen 65C02- bzw. später 65C816-Prozessor auf der Karte und 128 KB ROM für Netzwerk-Boot-Funktionen. Apple kündigte an, die Ethernetkarte 1992 zusammen mit GS/OS 6.0.1 auszuliefern, doch bevor es dazu kam, wurde das Projekt aus wirtschaftlichen Gründen abgebrochen. Noch ambitionierter war der Plan für einen verbesserten Apple IIgs „ROM 04“, Codename Mark Twain. Apple CEO John Sculley erwähnte im Herbst 1988, man arbeite an einem neuen Apple‑II-Modell in den nächsten 12–18 Monaten. Tatsächlich entstand 1990 ein weiterentwickelter IIgs -Prototyp: Er besaß 2 MB RAM auf der Platine (mit SIMM-Steckplätzen für weitere Module), einen auf 8 MHz getakteten 65C816, eingebautes SuperDrive-Diskettenlaufwerk (3,5″ 1,44 MB, kompatibel auch zu MS-DOS-Disketten) und eine interne 40-MB-SCSI-Festplatte. Der Mark-Twain-Entwurf integrierte also vieles, was beim ursprünglichen IIgs noch optional oder extern war, und schaffte den alten Speicherkarten-Slot zugunsten moderner SIMMs ab. Sogar HyperCard IIgs sollte vorinstalliert sein. Auffällig war allerdings, dass die CPU-Geschwindigkeit nicht signifikant erhöht wurde – offenbar wollte Apple die Kompatibilität und Stabilität nicht riskieren. Der Codename Mark Twain spielte augenzwinkernd auf das berühmte Zitat an: „Die Berichte über meinen Tod sind stark übertrieben“. Doch leider fehlte diesem Projekt ein hochrangiger Fürsprecher im Management. 1991 wurde Mark Twain in letzter Minute zurückgezogen und nie offiziell vorgestellt. Nur wenige Prototypen gerieten später in Sammlerhände. Damit blieb der im August 1989 veröffentlichte Apple IIgs „ROM 03“ (eine Revision mit 1 MB Grundspeicher und einigen Firmware-Verbesserungen) die letzte Ausbaustufe, die in den Handel kam.

Technisch war der Apple IIgs zur Einführung ein außergewöhnlich ausgewogener Heimcomputer. Er verband die millionenfache Software-Basis der Apple‑II-Welt mit einem moderaten Preis und modernen Features. Compute! bezeichnete ihn treffend als „zwei Maschinen in einer – ein Produkt, das die Brücke schlägt zwischen dem Macintosh und dem Apple IIe, und damit eine ernsthafte Konkurrenz für den Commodore Amiga und Atari ST darstellen könnte“. In der Praxis stand der IIgs jedoch genau zwischen diesen Welten und hatte Mühe, sich gegen beide Seiten zu behaupten. Gegenüber den Vorgängern Apple IIe/IIc punktete der IIgs mit seiner 16-Bit-Leistung, Farb-GUI, besserer Grafik und Ton und den Erweiterungsmöglichkeiten – doch er war deutlich teurer als ein einfacher IIe und benötigte für viele Aufgaben weiterhin Disketten oder Zubehör, die in Schulen schon vorhanden waren. Manchen Anwendern erschien der IIgs im Alltag kaum schneller, da viele Apple‑II-Programme keine Optimierung für die 16-Bit-CPU hatten und praktisch im alten 1-MHz-Modus liefen. Gleichzeitig war der IIgs nicht ganz auf Augenhöhe mit den Konkurrenten seiner Zeit: Ein Atari 1040ST oder Amiga 500 (beide um 1987 populär) besaßen vollwertige 16/32-Bit-Motorola-CPUs mit 8 MHz und boten ebenfalls Grafik mit 4096 Farben sowie grafikoptimierte Betriebssysteme – und das zu oft niedrigeren Preisen. BYTE verglich Anfang 1987 ein IIgs -System (mit Farbmonitor, zwei Laufwerken, Drucker für ~2.500 $) mit einem Atari-ST-Paket für ~1.500 $ und stellte nüchtern fest, der IIgs sei „in vielen Bereichen eher trailing-edge als leading-edge“ (also Technik von gestern statt Spitze von morgen). Zwar lobte das Magazin die Entscheidung von Apple, überhaupt noch einen modernen Apple II herauszubringen – allerdings wäre dies „ein paar Jahre früher“ besser gewesen und Apple sei „nicht weit genug gegangen“.

Auf der Habenseite standen beim IIgs die fast nahtlose Abwärtskompatibilität (inklusive offizieller Umrüst-Kits, um aus einem Apple IIe einen IIgs zu machen), die massive Software-Bibliothek an 8-Bit-Programmen und Spielen, sowie die enorme Ausbaufähigkeit durch Steckplätze – etwas, das weder der Amiga 500 noch der Atari ST in vergleichbarer Weise boten. Auch der eingebaute Apple Desktop Bus und die AppleTalk-Netzwerkfähigkeit waren Pluspunkte in professionellen Umgebungen. Für Kreative war die Audioqualität des IIgs ein wichtiges Pro-Argument gegenüber anderen Plattformen (die erst Jahre später mit Sampling-Karten vergleichbares boten). Dennoch blieb der IIgs in Benchmarks oft hinterher: 16-Bit-Software wie GS/OS oder Grafikanwendungen liefen zwar, aber nicht so flüssig wie vergleichbare Anwendungen auf den Motorola-68000-Systemen. Diese relative Langsamkeit wurde zum Dauerthema – 1988 drängte Compute! Apple, den Rechner endlich schneller zu machen, „denn egal wie man es dreht – der IIgs ist langsam“. Doch Apple brachte keine Beschleunigung mehr heraus und überließ diese dem Zubehörmarkt (etwa ZIP-GSX-Beschleuniger bis 7 MHz). Ein weiterer Kritikpunkt war der Preis: Durch Aufrüstungen konnte ein voll ausgestatteter IIgs so teuer werden wie ein deutlich leistungsfähigerer Macintosh oder PC, was viele Käufer abschreckte. Außerdem setzte Apple die Prioritäten im Vertrieb klar auf den Macintosh – Apple-Händler wurden angewiesen, Kunden eher zum Mac als zum IIgs zu lenken, mit dem Argument, die Apple-II-Linie werde ohnehin eingestellt. Diese self-fulfilling prophecy schadete den IIgs -Verkäufen zusätzlich.

Erfolg, Verkaufszahlen und Vermächtnis: Trotz aller Vorschusslorbeeren konnte der Apple IIgs den kommerziellen Erwartungen nicht gerecht werden. Apple nannte zwar nie offizielle Stückzahlen, doch interne Quellen beziffern die gesamt verkauften Einheiten auf deutlich unter eine Million. Zum Vergleich: Vom Apple IIe hatte Apple insgesamt über 5 Millionen Stück abgesetzt, vom C64 sogar rund 12–15 Millionen. Anfangs soll die Nachfrage für den IIgs hoch gewesen sein – die ersten 50.000 Geräte waren Berichten zufolge binnen weniger Wochen bestellt. Allerdings verzögerte sich die breite Auslieferung bis November 1986 wegen Problemen mit neuen Custom-Chips. In dieser Zeit kam bereits neue Konkurrenz auf (IBM PC ATs, VGA-Grafikstandards etc.). 1987 brachte Apple den günstigeren Apple IIc Plus heraus, der dem IIgs kannibalisierend gegenüberstand. Gleichzeitig feilte Apple fieberhaft am Macintosh-II-Lineup. Marketingkampagnen für den IIgs blieben spärlich – ein paar Anzeigen in Apple-II-Magazinen, aber keine große Werbeoffensive. Im Bildungsmarkt blieb der robuste Apple IIe noch lange im Einsatz, so dass viele Schulen den teureren IIgs übersprangen. In der Community wurde Apple vorgeworfen, das Potential des IIgs mutwillig brachliegen zu lassen. 1989, gut drei Jahre nach Einführung, war der IIgs laut inCider nur noch der viertschnellste Apple II – hinter einem getunten IIe mit Beschleunigerchip und sogar hinter dem Apple IIc Plus (der mit 4 MHz Takt lief). Apple selbst stellte die Produktion des IIgs schließlich am 4. Dezember 1992 offiziell ein, während der betagte Apple IIe noch bis 1993 als Auftragsprodukt erhältlich war. Zum Abschied veröffentlichte Apple 1993 ein letztes System-Update (GS/OS 6.0.1) im Internet, doch schon zuvor hatte sich die Apple-II-Abteilung praktisch aufgelöst.

Die Frage, ob der Apple IIgs das Unternehmen Apple in eine „neue Richtung“ führte, muss verneint werden. Eher markiert der IIgs den Schlusspunkt einer Ära. Er stellte das technisch Machbare innerhalb der Apple‑II-Architektur eindrucksvoll unter Beweis, konnte Apple jedoch nicht vom strategischen Schwenk auf den Macintosh-Kurs abbringen. Intern war bereits seit Steve Jobs’ Rückzug 1985 klar, dass die Zukunft bei der Macintosh-Plattform liegen sollte. Der IIgs diente primär dazu, der riesigen Apple-II-Anwenderbasis einen sanften Übergang zu ermöglichen und diese noch einige Jahre zu halten. Apple erfüllte dieses Versprechen insofern, als man bestehende Apple‑II-Investitionen der Kunden achtete – etwa durch den später eingeführten Apple IIe-Karten-Einschub für den Macintosh LC, der einem Mac die vollständige Apple‑IIe-Hardware integrierte. Doch ein echter Neubeginn war der IIgs nicht: Er blieb eine Nischenmaschine für Enthusiasten, Heimanwender und Schulen, während Apple parallel mit dem Macintosh II (1987) und dessen Nachfolgern den Markt der leistungsfähigen 32-Bit-Rechner eroberte. Immerhin floss manches Konzept des IIgs in spätere Produkte ein – etwa der ADB-Anschluss oder die Idee farbiger Benutzeroberflächen. Aus historischer Sicht wird der Apple IIgs heute als einzigartiger Hybrid gesehen: „Arguably the finest assemblage of chips and resistors ever soldered together“, lobte das Nibble-Magazin begeistert – „zweifellos eine der feinsten Ansammlungen von Chips und Widerständen, die je zusammengelötet wurden“. Gleichzeitig war er aber auch ein Computer, der zu spät kam und zu wenig unterstützt wurde. Nichtsdestotrotz genießt der Apple IIgs Kultstatus. Er war der letzte Apple, dessen Design noch die Handschrift von Steve Wozniak trug, und für viele Fans bleibt er Woz’ letzter großer Apple II – ein liebevoll entwickeltes System, das den Übergang von der 8-Bit- in die 16-Bit-Welt verkörperte, auch wenn es den Weg des Unternehmens letztlich nicht mehr ändern konnte.

 

Triumph-Adler Alphatronic PC

Triumph-Adler Alphatronic PC

1024px alphatronicpc

Als Triumph-Adler Anfang der 1980er-Jahre den Sprung von der mechanischen Bürowelt in die digitale Datenverarbeitung wagte, stand das Traditionsunternehmen aus Nürnberg vor einer Herausforderung: Wie bringt man jahrzehntelange Erfahrung mit Schreibmaschinen und Bürotechnik in einen Computer, ohne sich dabei an den verspielten Heimcomputern aus Übersee zu verheben? Die Lösung hieß Alphatronic PC – ein schlicht betitelter 8-Bit-Computer, der in Wahrheit kein Eigengewächs aus Nürnberg war, sondern von einem japanischen Hersteller, vermutlich Kyocera, entwickelt und von Triumph-Adler nach eigenen Spezifikationen gefertigt wurde. Eine typisch deutsch-japanische Zweckallianz – nüchtern, effizient und mit einem leichten Hang zur Bürokratie.

Der Alphatronic PC erschien 1983 auf dem Markt und kostete damals exakt 1.495 D-Mark. Inflationsbereinigt entspricht das heute etwa 1.650 Euro. Für diesen Preis erhielt man ein System mit 64 KB RAM, einem Zilog Z80A-Prozessor mit 4 MHz und einem Gehäuse, das eher an ein Schreibmaschinenunterteil als an einen Heimcomputer erinnerte – solide, grau-beige und mit einer Tastatur, bei der man spürte, dass Triumph-Adler einst Weltmeister im Tastenklackern war. Der Bildschirmanschluss unterstützte einen Textmodus mit 40 Zeichen pro Zeile und 24 Zeilen, eine rudimentäre semigrafische Darstellung mit 8 Farben war optional möglich. Die Grafikfähigkeiten waren begrenzt, aber ausreichend für Formulare, Tabellen und das, was in Behörden eben bunt ist: graue Kästen mit schwarzer Schrift.

An Bord war der bewährte Z80A-Prozessor – ein 8-Bit-Rechenknecht, der 1976 als Weiterentwicklung des Intel 8080 auf den Markt kam. Sein Vorteil lag in der Vielzahl an Registern und der einfacheren Speicheradressierung. Im Alphatronic PC war er direkt mit dem Systembus verbunden und wurde durch einen 6845-CRT-Controller für die Bildschirmdarstellung ergänzt. Klanglich war der Rechner so zurückhaltend wie ein Archivleiter beim Mittagessen – es gab keinen dedizierten Soundchip, sondern nur den obligatorischen Systemlautsprecher, der piepte, wenn man’s übertrieb.

Als Massenspeicher diente anfangs ein handelsüblicher Kassettenrekorder, angeschlossen über DIN-Schnittstellen. Optional war ein externes Diskettenlaufwerk erhältlich, das 5,25"-Disketten mit 160 bis 180 KB im einseitigen Modus oder bis zu 360 KB im zweiseitigen Format lesen konnte. Das von Triumph-Adler angebotene TA 700-Laufwerk wurde in einem separaten Gehäuse untergebracht und verfügte über ein eigenes Netzteil – ganz im Stil der modularen Büroarchitektur der frühen Achtziger.

Als Betriebssystem diente CP/M 2.2, das de facto-Standard-OS für 8-Bit-Bürocomputer. Es war stabil, weitverbreitet und mit einer Vielzahl von Anwendungen kompatibel – von WordStar über SuperCalc bis hin zu dBASE II. Der Alphatronic PC wurde in Ministerien, Schulen und kleinen Betrieben eingesetzt, wo vor allem Textverarbeitung und einfache Datenbankarbeiten gefragt waren. Als Einstiegshilfe lieferte Triumph-Adler auch ein ROM-basiertes Menüsystem aus, mit dem sich BASIC, CP/M oder Dienstprogramme starten ließen, ohne kryptische Befehle eintippen zu müssen.

Der Rechner verfügte über eine parallele Centronics-Schnittstelle für Drucker, einen seriellen RS232-Port für Modems oder Terminals, eine Videoausgabe in Composite oder RGB sowie einen Systembus-Anschluss für zukünftige Erweiterungen. Als optionale Peripheriegeräte wurden unter anderem ein Akustikkoppler, eine serielle Schnittstellenkarte für den Anschluss mehrerer Terminals und ein Nadeldrucker von Mannesmann-Tally angeboten – alles Produkte, die man heute vermutlich in einem Technikmuseum unter der Rubrik „fortschrittlich, aber vergessen“ findet.

Triumph-Adler verfolgte mit dem Alphatronic PC eindeutig keine Heimcomputerstrategie. Spiele gab es kaum – bis auf ein paar CP/M-Demos oder BASIC-Spielereien, die technisch eher an Minensuche in Tabellenkalkulation erinnerten. Dennoch wurde das System von vielen Schulen übernommen – vermutlich auch, weil es „seriös“ wirkte und kein Schüler von einem Piepslautsprecher zu Begeisterungstänzen animiert wurde. Der Computer war ein Arbeitstier: zuverlässig, langweilig, robust. Genau das, was deutsche Bildungspolitik in den 1980er-Jahren wollte.

Zu den technischen Entwicklern, die indirekt hinter dem Alphatronic PC standen, gehörte auf Seiten von Kyocera unter anderem Hiroshi Yamauchi – nicht zu verwechseln mit dem gleichnamigen Nintendo-Chef – ein Hardwarearchitekt mit Schwerpunkt auf Z80-Systeme, der auch an den ersten Tandy-Laptops beteiligt war. Auf deutscher Seite koordinierte Dieter Hegels das Projekt bei Triumph-Adler. Hegels, ein studierter Elektrotechniker aus Hessen, war zuvor bei Nixdorf tätig und galt als Verfechter robuster Gehäuse und klar strukturierter ROMs. Seine Philosophie: „Ein Computer soll arbeiten, nicht unterhalten.“ Ein Satz, der dem Alphatronic PC wie die Taste auf die Tastatur passte.

Im Vergleich zur Konkurrenz – etwa dem C64, Atari XL oder dem Schneider CPC – war der Alphatronic PC deutlich weniger flexibel. Grafik und Sound waren bestenfalls spartanisch, Spiele und Heimsoftware praktisch nicht vorhanden. Doch der Rechner punktete mit einem professionellen Auftreten, Bürokompatibilität und einer gewissen deutschen Verlässlichkeit. Während der C64 bei Regen streikte, wenn die Kassette klemmt, lief der Alphatronic auch nach zehn Jahren noch wie ein Behördenfaxgerät um 16:59 Uhr – zuverlässig und ohne Widerworte.

Ein geplanter Nachfolger mit erweiterten Grafikfähigkeiten, größerem Arbeitsspeicher und integriertem Farbbildschirm wurde intern unter dem Namen „P3 Office“ diskutiert, aber nie veröffentlicht. Auch eine Portierung auf MS-DOS wurde angedacht, doch als IBM-kompatible Systeme immer günstiger wurden, sah Triumph-Adler keine Chance mehr und beendete die Alphatronic-Reihe 1985 still und leise. Man wandte sich stattdessen der PC-Kompatibilität zu und ließ künftig unter dem Markennamen TA OEM-PCs von Tandon und Panasonic fertigen.

Rückblickend bleibt der Alphatronic PC ein ungewöhnlicher Zeitzeuge: ein Produkt deutscher Bürovisionen, produziert mit japanischer Präzision, vermarktet mit viel Understatement. Kein lautes Gerät, kein Star der Heimcomputerära – aber ein stiller Held der Arbeitswelt, dessen Piepton für viele das erste technische „Hallo Welt“ war. Und wer weiß – vielleicht wäre er mit ein bisschen Sound, ein paar Farben und einem simplen Spiel wie „Zinslotto“ doch zum Überraschungserfolg geworden. Aber das passte nicht zu seinem Charakter. Der Alphatronic PC war lieber leise – aber korrekt.

 

Atari 800XE

Atari 800XE

atari 800xeDer Atari 800XE erschien 1987 als Teil der XL/XE-Serie und markierte das letzte Kapitel in der langen Geschichte der 8-Bit-Heimcomputer von Atari. Mit seinem schlichten, eckigen Gehäuse in hellgrauer Farbe und einer Tastatur, die optisch stark an die Atari-ST-Reihe erinnerte, sollte der 800XE nicht nur technisch, sondern auch optisch den Anschluss an die Moderne schaffen. Hinter dem nüchternen Äußeren versteckte sich jedoch altbewährte Technik: Im Kern arbeitete derselbe MOS 6502-basierte 8-Bit-Prozessor, der Atari-Heimcomputer bereits seit 1979 antrieb – allerdings in einer Variante namens Sally, die speziell für die Atari-Architektur optimiert wurde. Der Prozessor lief mit etwa 1,77 MHz Taktfrequenz im PAL-Modus, was für damalige Verhältnisse zwar nicht überragend schnell, aber durch den Coprozessor-Ansatz von Atari immer noch konkurrenzfähig war. Der 800XE war technisch nahezu identisch mit dem 65XE – einem direkten Nachfolger des 800XL – und verfügte über 64 KB RAM. Die Grafik wurde vom ANTIC- und GTIA-Chipsatz gesteuert, der zusammen eine erstaunlich flexible Anzeige ermöglichte: bis zu 320×192 Pixel Auflösung, bis zu 16 Farben gleichzeitig, aus einer Palette von 256 Farben mit verschiedenen Helligkeitsabstufungen. Dank der Player/Missile Graphics, Ataris Begriff für hardwaregestützte Sprites, waren flüssige Animationen und Kollisionserkennung möglich, ohne dass die Haupt-CPU allzu stark belastet wurde. Für den Sound sorgte der POKEY-Chip, der vierstimmige digitale Klangerzeugung, Tastaturabfrage, serielle Kommunikation und sogar Zufallsgenerierung in sich vereinte – ein echter Tausendsassa unter den Soundchips, wenn auch klanglich nicht ganz auf dem Niveau des SID-Chips im C64.

Was den 800XE gegenüber seinem Vorgänger 800XL unterschied, war vor allem die neuere Speicherverwaltung durch den Freddie-Chip, der effizienteres Zugriffstiming ermöglichte und theoretisch auch den Einsatz von 128 KB RAM vereinfachte – allerdings kam das in der Praxis nur beim Schwestermodell 130XE zum Tragen. Der 800XE selbst blieb bei 64 KB. Das Betriebssystem im ROM entsprach weitgehend dem des 800XL, ebenso wie das integrierte Atari BASIC in Version C, das beim Einschalten aufgerufen wurde, sofern kein Modul eingesteckt war.

Am Gehäuse fanden sich die üblichen Anschlüsse: zwei DE-9-Ports für Joysticks, der modulare SIO-Port für Kassettenrekorder, Diskettenlaufwerke, Drucker und andere Peripheriegeräte, der Monitorausgang mit Composite-Video und Mono-Ton, ein Stromanschluss für das externe Netzteil, sowie der Cartridge-Schacht auf der Oberseite. Eine parallele Erweiterungsschnittstelle wie beim 800XL fehlte jedoch – was Bastler oft beklagten. Manche 800XE-Geräte, vor allem in Polen und Osteuropa, enthielten zusätzlich einen ECI-Port, eine Art abgespeckte Parallelschnittstelle, die in Kombination mit dem Cartridge-Port auch umfangreichere Erweiterungen zuließ – sofern man die passende Hardware auftreiben konnte.

Markteinführung und Preisgestaltung des Atari 800XE waren ein kurioses Kapitel für sich. In Westeuropa kostete das Gerät bei Markteinführung knapp 200 D-Mark – inflationsbereinigt entspricht das rund 210 Euro. Damit war er einer der günstigsten voll ausgestatteten Heimcomputer seiner Zeit. Doch während Commodore den europäischen Markt mit dem C64 dominierte, wurde Atari auf dem westlichen Markt eher stiefmütterlich behandelt. Ganz anders sah es in Osteuropa aus: In Ländern wie Polen, der DDR und der ČSSR war der 800XE ein echter Exportschlager. Möglich machten dies spezielle Handelsverträge und Devisenläden wie Pewex, Tuzex oder die Intershops der DDR, in denen Bürger gegen Westgeld westliche Waren erwerben konnten. Der 800XE war dort so begehrt, dass er teilweise einem kleinen Vermögen entsprach – in Polen beispielsweise war er anfangs nur für den Gegenwert eines akademischen Jahresgehalts erhältlich. Trotzdem wurde er vielfach gekauft, verschenkt oder über verwandtschaftliche Kontakte in den Osten geschmuggelt. Viele Jugendliche lernten dort auf dem Atari ihre ersten Programmierschritte oder spielten westliche Software, die auf dem Schwarzmarkt kursierte.

Der Erfolg des Atari 800XE in Osteuropa war so groß, dass er in vielen Schulen als offizieller Lehrcomputer verwendet wurde. Sogar die DDR bestellte mehrere tausend Geräte direkt über staatliche Kanäle. Zeitgenössische Zeitungsberichte sprachen von einem "Boom der 8-Bit-Technik hinter dem Vorhang", während Atari intern stolz verkündete, dass man auf dem sowjetischen Vorfeld erfolgreicher war als mit jeder Marketingkampagne in Kalifornien. In Polen entwickelte sich eine regelrechte Atari-Kultur, mit Raubkopierkreisen, Demogruppen und sogar eigenen Magazinpublikationen. Nicht wenige spätere Spieleentwickler in Mitteleuropa nannten den 800XE als ihren ersten Computer.

Anekdotisch belegt ist auch, dass einige 800XE-Geräte, die über Intershops oder Tuzex-Läden verkauft wurden, technisch leicht abweichende ROM-Versionen hatten – angeblich, um beim Import gewisse Kompatibilitätsprobleme mit westlicher Software zu vermeiden. Ob das stimmt oder eher urbaner Mythos ist, bleibt offen. Ein anderer verbreiteter Trick war das Umprogrammieren des ROMs mittels selbstgebauter EPROM-Brenner, um "optimiertes" BASIC oder alternative Bildschirmgrafiken zu laden. In Bastelzeitschriften der damaligen Zeit wurde beschrieben, wie man durch Entfernen eines Widerstands den Videoausgang von PAL auf NTSC umschalten konnte – wozu das im Osten sinnvoll war, ist unklar, aber Hauptsache, man konnte basteln.

Verglichen mit dem C64 hatte der 800XE sowohl Vor- als auch Nachteile. Die Grafik war technisch flexibler, das Scrolling eleganter, die Farbauswahl größer – doch der C64 hatte den besseren Sound und die deutlich größere Softwarebibliothek. Auch beim Speicher war der C64 mit seinen ausgeklügelten Speicher-Bank-Techniken überlegen. Im Alltag bedeutete das: auf dem C64 gab es mehr Spiele, die schneller nachgeladen wurden und oft hübscher klangen. Auf dem Atari hingegen waren kreative Programmierlösungen nötig, um das Optimum aus der Hardware herauszuholen. Das führte zu einer wahren Kunstform in der Demo-Szene, bei der aus vier Farben und einem piepsenden POKEY-Signal ein Feuerwerk der Technik gezündet wurde.

Der Atari 800XE wurde in dieser Form nur wenige Jahre produziert, doch sein Einfluss hielt deutlich länger an. Selbst nach dem offiziellen Ende der Produktion 1992 wurden Restbestände in Osteuropa weiterverkauft, modifiziert, repariert, mit PC-Netzteilen betrieben oder auf moderne Speichermedien wie SD-Karten umgebaut. In den letzten Jahren erlebt der 800XE durch Retro-Wellen und Homebrew-Szene ein kleines Comeback – es gibt neue Spiele, neue Demos und sogar neue Hardware-Erweiterungen wie HDMI-Ausgänge oder Turbo-Speicherkarten.

Zu den maßgeblichen Entwicklern des Systems gehörten Jay Miner, der später durch den Amiga berühmt wurde, Joe Decuir, der später am USB-Standard mitarbeitete, und George McLeod, der für die Grafikchips verantwortlich war. Alle drei verließen Atari noch vor Einführung des XE-Modells, doch ihre technische Handschrift prägte auch den 800XE. Jay Miner, Ingenieur mit Hundeliebe und einem Faible für effiziente Chips, wurde später als „Vater des Amiga“ verehrt. Joe Decuir hingegen liebte serielle Busse fast so sehr wie sein Motorrad, das er gerne in die Atari-Garage parkte. George McLeod, ein ruhiger Tüftler, galt intern als der Mann, der wusste, wie man ein Fernsehsignal in Farbe träumen lässt.

Der Atari 800XE war vielleicht nicht der lauteste oder bunteste Computer seiner Zeit, aber er war einer der treuesten. Ein Arbeitstier, das Generationen überdauerte, Heimkinder und Studenten prägte und bis heute in Kellern, Dachböden und Retrotreffen für leuchtende Augen sorgt. Und ganz ehrlich: Wer je den Geräuschmix aus POKEY-Piepsen, Floppy-Surren und dem Klicken eines CX40-Joysticks gehört hat, weiß, was wahre Heimcomputer-Nostalgie bedeutet.

Ontel Amigo

Ontel Amigo

ontel amigoDer Ontel Amigo war ein 8-Bit-Personal Computer, den die US-Firma Ontel Corporation Anfang 1983 auf den Markt brachte. Das kompakte System integrierte Rechner und Bildschirm in einem Gehäuse und wurde sowohl für den Heimgebrauch als auch für kleine Büros konzipiert. Ontel hatte zuvor vor allem intelligente Terminalsysteme (OP‑1-Serie) hergestellt; mit dem Amigo wollte man nun ein „freundliches“ Einzelplatz-System anbieten – der Produktname bedeutet auf Spanisch „Freund“. Tatsächlich war Ontel damit Vorreiter: Die britische Firma C/WP übernahm das Design (dort als Cortex vermarktet), und Commodore soll wegen der Namensähnlichkeit seines 1985 erschienenen Amiga sogar etwas nervös gewesen sein. Noch bevor der Amigo größere Verbreitung finden konnte, wurde Ontel 1982 jedoch von Visual Technology übernommen, sodass das Gerät in den USA nur kurz unter dem Namen Ontel Amigo lief. Die Entwicklungsleitung hatte zu dieser Zeit Ike Nassi (später bei Visual Technology), der 1982–1983 als Vice President Engineering bei Ontel tätig war. Ontel-Gründer und CEO war David Ophir – seine Initialen „OP“ hatten bereits die frühere OP‑1-Produktreihe geprägt.

Das Amigo-System zeichnete sich durch eine außergewöhnliche Dual-Prozessor-Architektur aus. Als Hauptprozessor diente ein 4 MHz schneller Zilog Z80A mit 64 KB RAM, der unter CP/M (inklusive Grafik-Erweiterung GSX-80) das Betriebssystem und die Anwendungsprogramme steuerte. Zusätzlich enthielt der Amigo einen MOS 6502-Prozessor, der ausschließlich für die Videoausgabe zuständig war. Diese Aufgabenteilung – ein zweiter 8-Bit-Chip als Grafikkontroller – war Anfang der 1980er neuartig und verlieh dem Rechner in Grafikoperationen eine im CP/M-Marktsegment überdurchschnittliche Leistungsfähigkeit. „Das Display wurde von einem 6502 mit eigenem RAM gesteuert“, erinnerte sich ein Ontel-Anwender, „so war es für seine Zeit ziemlich schnell und leistungsfähig“. Insgesamt standen dem 6502 rund 40–44 KB dedizierter Bildschirmspeicher zur Verfügung. Mit diesem Hardware-Trick gehörte der Amigo zu den ersten Computern, die Digital Researchs neuen Grafikstandard GSX-80 unterstützten, um CP/M ein plattformübergreifendes Grafik-API zu geben. Ontel nutzte diese Fähigkeit insbesondere für Präsentationsgrafiken und für eine angepasste Version des damals führenden Textverarbeitungsprogramms WordStar. Die mitgelieferte WordStar-Ausgabe war speziell auf den Amigo zugeschnitten: Die abgesetzte IBM-ähnliche Tastatur besaß z. B. direkt belegte Tasten für häufige WordStar-Befehle, was die Textbearbeitung effizienter machte. Auch sonst betonte Ontel die Benutzerfreundlichkeit – eine Anzeige pries den Cortex (Amigo-Klon) als „really very friendly computer“ an.

Technisch war der Ontel Amigo für einen CP/M-Heimcomputer sehr gut ausgestattet. Das Gerät besaß ein integriertes 12‑Zoll-Monochromdisplay mit einer hohen Grafikauflösung von 640 × 300 Bildpunkten (im Textmodus 80 Spalten × 25 Zeilen). Diese Auflösung lag über dem, was viele Konkurrenten boten – zum Vergleich: der IBM PC mit CGA-Grafik erreichte 640 × 200 Pixel (2 Farben) oder 320 × 200 (4 Farben). Allerdings war der Amigo ein reines Schwarzweiß-System ohne Farbfähigkeit. Für typische Heimanwendungen der Zeit (Spiele, Grafik) war das ein Nachteil, doch für Geschäftsgraphiken und Text war die Darstellung sehr scharf. Ein dedizierter Soundchip fehlte; das System konnte lediglich einfache Töne bzw. den System-Beep ausgeben, was aber im Büroeinsatz kaum ins Gewicht fiel. Als Hauptspeicher standen 64 KB RAM zur Verfügung – voll ausgeschöpft durch CP/M 2.2, das im Amigo zum Einsatz kam. CP/M mit GSX ermöglichte es, neben rein textorientierten Programmen auch grafische Anwendungen auszuführen. So gehörten Zeichenprogramme wie Digital Researchs DR Graph oder das CAD-ähnliche GraphPlan perspektivisch zum Softwareangebot für GSX-Plattformen. In der Praxis blieb die Auswahl jedoch begrenzt; viele GSX-Ankündigungen waren „Zukunftsmusik“ und 8-Bit-CP/M war 1983 bereits ein auslaufendes System. Ontel setzte daher vor allem auf bewährte CP/M-Software: Neben WordStar liefen Standardprogramme wie dBASE II, Multiplan oder MBASIC, sodass dem Nutzer eine breite Softwarepalette zur Verfügung stand. Die Entscheidung, beim Amigo trotz aufkommender 16-Bit-CPUs noch auf 8 Bit zu setzen, begründete Ontel ausdrücklich mit dem riesigen Fundus an etablierter CP/M-Software, der sofort nutzbar war. Dieses Argument leuchtete vielen Anwendern ein, denn 1983 gab es für das neue MS-DOS des IBM PC noch weit weniger Anwendungen als für CP/M.

thm elstart amigo

Von außen ähnelte der Amigo einem kompakten Büroterminal oder einem frühen All-in-One-Heimcomputer (ähnlich dem Commodore PET oder TRS-80 Model III). Die gesamte Elektronik und der Monitor waren in einem gemeinsamen Gehäuse untergebracht, während die Tastatur als separates Gerät angeschlossen wurde. Das Gehäuse war etwa 30 × 33 × 43 cm groß und wog rund 16 kg – im Vergleich zu heutigen Heimcomputern also sehr schwer, aber für ein frühes 80er-Jahre-System durchaus normal. In Großbritannien bot C/WP das identische System in sechs verschiedenen Gehäusefarben an (u.a. Rot, Grün, Gelb oder Beige), womit der Cortex diesem Konzept bunter Heimcomputer 15 Jahre vor Apples iMac vorausgriff. In den USA wurde der Ontel Amigo hingegen meist im seriösen Beige oder Grau ausgeliefert. An Anschlüssen stellte das Modell alles bereit, was in seiner Klasse erwartet wurde: Eine serielle RS-232-Schnittstelle ermöglichte den Anschluss von Modems oder Terminals, und über die Centronics-Parallelschnittstelle konnten Drucker angeschlossen werden. Intern besaß das System keinen Steckkarten-Bus wie der IBM PC, doch Ontel integrierte bereits alle wichtigen Komponenten onboard, wodurch externe Erweiterungen kaum nötig waren. Massenspeicher wurden über externe Laufwerke angebunden: Üblich waren zwei 5,25″-Diskettenlaufwerke (360 KB DS/DD) in separaten Gehäusen, die via Kabel mit dem Amigo verbunden wurden. Für größere Datenmengen war ein 5 MB fassendes externes Winchester-Festplattenlaufwerk als Option erhältlich – damals eine beträchtliche Kapazität, allerdings verteuerte das Festplatten-Upgrade das System deutlich. Ontel bot zudem einen passenden Nadeldrucker (Matrix Printer) als Zubehör an. Die geplante Palette an Peripheriegeräten umfasste damit im Grunde alles, was man zur textorientierten Büroarbeit benötigte.

Preislich bewegte sich der Ontel Amigo im oberen Segment der Heimcomputer und kleinen Bürosysteme. Der Listenpreis zur Markteinführung lag bei 2.395 US-Dollar – trotz einfacherer 8-Bit-Technik also in einer ähnlichen Liga wie ein IBM PC oder Apple Lisa des Jahres 1983. Händler erhielten dabei Rabatte von 33–40 %, was darauf hindeutet, dass Ontel vor allem über Wiederverkäufer und OEM-Partner vertreiben wollte. In Deutschland hätte der Amigo inklusive Importaufschlag und Steuern etwa 15.000 DM gekostet. Zum Vergleich: Ein Commodore 64 war 1983 für unter 1.000 DM zu haben, ein IBM 5150 mit Monitor kostete hingegen gut 10.000 DM. Der hohe Preis des Amigo spiegelt seine ambitionierte Ausstattung wider, erschwerte aber die Positionierung im Heimmarkt erheblich. Inflationsbereinigt entspricht der US-Preis grob 6.500–7.000 € in heutigem Geldwert. In Großbritannien wurde das Schwestermodell Cortex Ende 1983 für £1.795 + MwSt angeboten, was etwa £8.700 im Jahr 2025 entspricht (über 10.000 €). Damit war das System deutlich teurer als populäre Homecomputer der Zeit und konkurrierte eher mit professionellen CP/M-Maschinen. Ontel argumentierte, der Mehrwert rechtfertige den Preis: Immerhin erhielt man einen robusten All-in-One-Rechner mit hoher Auflösung und großer Softwarebibliothek, der sofort einsatzbereit war und keine aufwendige Installation benötigte. Für den Heimgebrauch im engeren Sinne – also als Familiencomputer, Lerncomputer für Kinder oder Spielmaschine – war der Amigo jedoch weniger geeignet, vor allem wegen fehlender Farbe und Sound und des hohen Preises. Seine Stärken lagen im Bereich Textverarbeitung, Programmierung (viele Programmiersprachen waren für CP/M verfügbar) und bei technisch versierten Hobbyanwendern, die das ungewöhnliche Design schätzten. Gegenüber Konkurrenzmodellen wie dem Osborne 1 oder Kaypro II (tragbare CP/M-Systeme) bot der Amigo eine höhere Bildschirmauflösung und komfortableres Arbeiten am großen Monitor, war dafür aber nicht mobil. Im Vergleich zum IBM PC fehlten ihm die 16-Bit-Leistung und die Erweiterbarkeit – viele Unternehmen setzten lieber auf IBMs wachsenden PC-Standard, während 8-Bit-Systeme wie der Amigo allmählich an Attraktivität verloren.

Die Resonanz auf den Ontel Amigo fiel daher gemischt aus. Lob gab es für die innovative Dual-CPU-Architektur und die schnelle Grafik: Zeitgenössische Berichte hoben hervor, dass Ontel mit dem Amigo ein „8-Bit-Z80A-basiertes System mit 64K RAM“ präsentiere, das „auf den Einzelanwender im Büro abzielt“ – also ein neues Konzept zwischen Heim- und Bürorechner. Gelobt wurde auch die solide Verarbeitung und die im Lieferumfang enthaltene Software (neben WordStar u.a. ein Datenbankprogramm und mehrere Entwicklungswerkzeuge). Die Kritikpunkte hingegen konzentrierten sich auf die begrenzten audiovisuellen Fähigkeiten im Vergleich zu richtigen Heimcomputern sowie auf den ungünstigen Zeitpunkt: 1983 zeichnete sich bereits ab, dass der IBM PC zum De-facto-Standard werden würde. Ein 8-Bit-CP/M-Rechner für fast 2500 Dollar galt da als riskante Wette. Tatsächlich blieben die Verkaufszahlen des Amigo bescheiden – genaue Stückzahlen sind nicht überliefert, aber das Modell ist heute eine Rarität. Ontel bemühte sich zwar um OEM-Abnehmer: So wurde das Amigo-Design wie erwähnt an C/WP in Großbritannien lizenziert und von der argentinischen Firma Latindata in Südamerika vertrieben. Doch einen durchschlagenden Markterfolg erzielte der Amigo nicht. In einem spanischen Computermagazin von 1985 beschrieb ein Nutzer das Ontel Amigo zwar als „excelente equipo“ (ausgezeichnetes Gerät), beklagte aber die geringe Verbreitung und fehlende Unterstützung – er rief deshalb andere Besitzer dazu auf, einen User-Club zu gründen. Diese Anekdote unterstreicht, dass der Amigo trotz seiner technischen Vorzüge keine große Nutzerbasis aufbauen konnte.

Der Ontel Amigo ist ein interessantes Beispiel für einen Übergangs-Heimcomputer der frühen 1980er. Einerseits brachte er professionelle Merkmale – hochauflösende Grafik, duale Prozessorarchitektur, breite Softwareunterstützung – ins heimische Arbeitszimmer und war seiner Zeit in mancher Hinsicht voraus. Andererseits war er zur falschen Zeit am falschen Markt: Die Zukunft gehörte den günstigeren Heimcomputern für den Massenmarkt sowie den 16-Bit-PCs für den Geschäftsmarkt. Der Amigo konnte sich zwischen diesen Stühlen nicht dauerhaft behaupten und verschwand bald vom Markt. Seine Entwickler wechselten teils zu anderen Projekten: Ontels Technikchef Ike Nassi ging 1983 zu Visual Technology und arbeitete dort am Visual 1050, der im Grunde ein direkter Nachfahre des Amigo war. Dieses Nachfolgemodell nutzte die Amigo-Architektur, setzte aber bereits CP/M 3.0 (CP/M Plus) ein und erschien Ende 1983 unter Visuals Marke. Auch andere Hersteller wie Televideo brachten auf Amigo-Ideen basierende CP/M-Rechner mit Grafik heraus (z. B. Televideo TS-803). Insgesamt blieb der Ontel Amigo jedoch ein Exot. In der Retro-Computing-Community wird seine technische Besonderheit – zwei CPUs, davon eine als Grafikprozessor – bis heute gewürdigt. Historisch steht der Amigo sinnbildlich für den Spagat zwischen Heim- und Bürowelt Anfang der 1980er: ein ambitionierter Heimcomputer für den produktiven Einsatz, der schließlich vom Siegeszug der IBM-PC-Plattform überrollt wurde.

 

Texas Instruments TI-99/4A

Texas Instruments TI-99/4A

TI99/4A

Von Rama & Musée Bolo - Eigenes Werk, CC BY-SA 2.0 fr

Der Texas Instruments TI-99/4A erschien 1981 als verbesserte Version seines wenig erfolgreichen Vorgängers TI-99/4 aus dem Jahr 1979. Schon der TI-99/4 war technisch bemerkenswert – er gilt als erster 16-Bit-Heimcomputer überhaupt – blieb jedoch aufgrund seines hohen Preises und unpraktischen Designs ein Flop. Das ursprüngliche Modell besaß eine Taschenrechner-Tastatur ohne Kleinschreibung und kostete inklusive Monitor 1.150 US-Dollar (damals etwa 2.000 DM). Trotz moderner 16-Bit-CPU wurde der TI-99/4 wegen mäßiger Performance und geringer Software-Auswahl von Kritikern verrissen; die New York Times nannte ihn rückblickend sogar ein „blamables Scheitern“. Texas Instruments lernte jedoch aus diesen Fehlern und präsentierte im Juni 1981 auf der CES den TI-99/4A, der im Spätsommer 1981 auf den Markt kam.

Der TI-99/4A war zum Start mit 525 US-Dollar (in Deutschland 1.490 DM) weniger als halb so teuer wie sein Vorgänger. Das entspricht inflationsbereinigt etwa 1.500–1.600 Euro heutiger Kaufkraft. Dafür bot der Rechner ein deutlich verbessertes Konzept: Er besaß anstelle der billigen Taschenrechner-Tasten nun eine vollwertige Schreibmaschinentastatur und unterstützte einfache Kleinschriftausgabe (als verkleinerte Großbuchstaben). Auch die Grafikfähigkeiten wurden erweitert. Ein dedizierter Videochip vom Typ TMS9918A generierte eine Auflösung von 256 × 192 Pixel und konnte maximal 15 gleichzeitig darstellbare Farben erzeugen – Werte, die 1981 nur von wenigen Konkurrenten erreicht wurden. Der Grafikprozessor unterstützte zudem Hardware-Sprites, ein Konzept, das vom TI-Team um Ingenieur Karl Guttag mit diesem Chip maßgeblich geprägt wurde. Für Sound sorgte der TMS9919-Soundchip, der drei Tonkanäle über fünf Oktaven plus einen Rauschkanal gleichzeitig abspielen konnte. Diese Tonerzeugung war vergleichbar mit der Konkurrenz – lange bevor leistungsfähigere Soundchips wie der SID im Commodore 64 erschienen. Als besonderes Extra bot TI optional ein Sprachsynthesizer-Modul an, das an der Seite angeschlossen werden konnte. Dieses enthielt einen LPC-Prozessor (TI TMS5220C) und ermöglichte Sprachausgabe, die in mehreren Spielen (z. B. Alpiner oder Parsec) und Lernprogrammen eindrucksvoll demonstriert wurde. Texas Instruments war Anfang der 1980er Pionier auf dem Gebiet der Sprachausgabe, und das Sprachmodul für den TI-99/4A war eines der ersten seiner Art im Heimcomputerbereich.

Wie sein Vorgänger basierte auch der TI-99/4A auf dem TI TMS9900-Prozessor, einem 16-Bit-Chip, den TI ursprünglich 1976 für Minicomputer entwickelt hatte. Die CPU läuft mit 3 MHz Taktfrequenz und implementiert die Architektur der TI-990-Minicomputer in einem einzigen Chip. Dieses Design war zwar fortschrittlich, brachte aber einige Eigenheiten mit sich: So verwendet der TMS9900 ein „Memory-to-Memory“-Konzept, bei dem selbst CPU-Register im externen Speicher liegen. Dies vereinfachte die Hardware und ermöglichte flexible Kontextwechsel wie in Großrechnern, bremste aber die Geschwindigkeit, da jeder Registerzugriff ein Speicherzugriff war. Hinzu kam, dass im TI-99/4A fast der gesamte Hauptspeicher nur über einen 8-Bit-Datenweg erreichbar war – lediglich 8 KB ROM und 256 Byte interner RAM (der sogenannte „Scratchpad“) hängen direkt am 16-Bit-Bus der CPU. Alle weiteren 16 KB RAM des Systems befanden sich im Videospeicher der Grafikeinheit und mussten byteweise über den Videoprozessor transferiert werden. Zudem lagen große Teile der Systemsoftware in speziellen seriellen ROMs, den sogenannten GROMs (Graphic ROMs), die einen von TI definierten Pseudocode namens GPL (Graphics Programming Language) enthielten. Beim Start des Rechners wurde direkt das fest eingebaute TI BASIC in einem solchen GROM ausgeführt – ein im ROM verankerter BASIC-Interpreter, der dem Benutzer als Betriebsumgebung diente. Diese Architektur wirkte sich negativ auf die Performance aus. Ein zeitgenössischer Rezensent monierte, der 99/4 fühle sich trotz 16-Bit-CPU „unnötig langsam“ an. Auch die TI-GRAFIK-ROMs (GROMs) wurden später als Hemmschuh gesehen: Sie sollten Software vor unlizenzierter Kopie schützen, machten das System aber langsamer und erschwerten unabhängigen Entwicklern die Arbeit. Trotz dieser Schwächen war das Speicherkonzept ausbaufähig – TI erlaubte mittels Steckmodulen und Erweiterungsbox die Aufrüstung des Systems: Cartridges konnten bis zu 16 KB Zusatz-ROM oder 40 KB GROM mitbringen, und eine externe Peripheral Expansion Box (PEB) nahm Steckkarten mit bis zu 32 KB RAM zusätzlich auf. Damit ließ sich der ursprüngliche Arbeitsspeicher von 16 KB erheblich erweitern. Im Vergleich zum Commodore 64, der bereits ab Werk 64 KB RAM bot, blieb der TI jedoch im Grundzustand deutlich eingeschränkter.

Massenspeicher waren beim TI-99/4A zunächst einfach gehalten: Das Basismodell besaß ein Kassetteninterface zum Anschluss eines normalen Audiorekorders, über den Programme von Kompaktkassette mit 300 Baud geladen werden konnten. Für schnelleres Speichern gab es ab 1982 das erwähnte Diskettenlaufwerk in der Erweiterungsbox – ein 5,25-Zoll-Floppy-Disk-System mit eigener Controllerkarte. Dieses bot eine für die Zeit typische Kapazität (ca. 90 KB auf einzelspurigen Disketten, mit späteren Upgrades auch mehr). Darüber hinaus stellte TI diverses Zubehör bereit: Eine RS-232-Karte mit Seriell-/Parallelanschlüssen ermöglichte den Anschluss von Druckern oder Modems; ein akustisches 300-Baud-Modem (Koppler) brachte den TI online; zudem gab es Thermodrucker und sogar eine Pascal-Steckkarte, welche ein auf UCSD-Pascal basierendes Betriebssystem (P-Code) bereitstellte. Viele dieser Erweiterungen wurden in der klobigen Erweiterungsbox untergebracht, die separat mit eigenem Netzteil betrieben und über ein Kabel mit der Konsole verbunden wurde. Kleinere Seitencartridges konnten hingegen direkt an der rechten Gehäuseseite des Computers daisy-chain-artig hintereinandergesteckt werden. Dieses modulare Konzept führte allerdings dazu, dass ein voll ausgebauter TI-99/4A sehr breit werden konnte und optisch an einen „seitlich angekoppelten Eisenbahnzug“ erinnerte. Geplante Neuheiten wie steckbare Spracherweiterungs-Cartridges (zur Vergrößerung des Wortschatzes des Sprachsynthesizers) kamen nicht mehr auf den Markt, da sich inzwischen Software-Lösungen als praktikabel erwiesen.

Technisch besaß der TI-99/4A also durchaus beeindruckende Komponenten für seine Zeit. Seine Stärken lagen in der damals überlegenen 16-Bit-Architektur, der farbfähigen Grafik mit Sprites sowie der Erweiterbarkeit (z. B. durch Sprachausgabe oder Speichererweiterungen). Auch die Verarbeitung galt als solide; die Tastatur des 4A-Modells wurde als deutlich angenehmer als die des Vorgängers beschrieben. Stiftung Warentest bewertete 1984 den TI-99/4A zusammen mit dem Commodore 64 als bestes Heimcomputermodell (“Gut”), wobei zu diesem Zeitpunkt der TI bereits nicht mehr neu erhältlich war. Auf der Habenseite verbuchte der TI außerdem, dass Texas Instruments einige Bildungs- und Spielmodule selbst entwickelte – darunter der frühe Dungeon-Crawler Tunnels of Doom (1982) oder das Lernspiel Hunt the Wumpus, die heute als Klassiker gelten. Allerdings verhinderten TIs strikte Lizenzpolitik anfangs, dass genügend Drittanbieter-Software erschien. Anders als Konkurrenten wie Commodore oder Apple setzte TI lange darauf, Software nur selbst zu veröffentlichen, und gab externen Entwicklern kaum technische Informationen preis. Dieses proprietäre Vorgehen – Jerry Pournelle kommentierte 1982 sarkastisch, TIs Botschaft an die Hobbyprogrammierer laute „Drop dead, hobbyists!“ – erwies sich als großer Nachteil. Während für andere Systeme bald populäre Programme wie VisiCalc oder WordStar verfügbar waren, fehlten solche Anwendungen auf dem TI-99/4A zunächst völlig. Immerhin brachte TI mit Multiplan 1981 eine Tabellenkalkulation heraus, und es gab auch Textverarbeitungs- und Datenbankprogramme von Drittanbietern, doch diese fanden wenig Verbreitung. Unterm Strich galt das TI-eigene BASIC zwar als ordentlich (es unterstützte Grafik und Sound), doch die Softwareauswahl blieb – insbesondere im Vergleich zum späteren Commodore 64 mit seinem riesigen Spiele- und Anwendungsangebot – begrenzt.

texas instruments ti 994a beige

https://www.computinghistory.org.uk/det/73440/Texas-Instruments-TI-99-4A-%28beige%29/

Größere Verbreitung fand der TI-99/4A zunächst dennoch: Dank des gesenkten Preises stiegen die Verkaufszahlen ab 1981 deutlich. Ende 1982 waren in den USA bereits über 500.000 Geräte verkauft. Der TI konkurrierte in dieser Zeit vor allem mit dem Commodore VIC-20 (VC20) und dem Atari 400/800. Gegenüber Commodores VIC-20, der zwar nur ein 8-Bit-Prozessor und primitive Grafik hatte, aber bereits für unter 300 Dollar verkauft wurde, punktete TI technisch – jedoch nicht beim Preis. Commodore initiierte unter CEO Jack Tramiel einen aggressiven Preiskrieg: 1982 unterbot man sich gegenseitig mit Preissenkungen, bis Texas Instruments den TI-99/4A im September 1982 auf 199 US$ reduzierte – zu diesem Zeitpunkt 50 $ günstiger als der schwächere VIC-20. TI warb sogar mit einem 100-Dollar-Rabatt für Käufer (beworben vom prominenten TI-Werbegesicht Bill Cosby). Doch Commodore zog nach, und Anfang 1983 lagen beide Rechner bei 99 US$ – ein für Heimcomputer sensationell niedriger Preis. Zwar explodierten dadurch kurzfristig TIs Absatzzahlen, doch das Unternehmen machte bei jedem Verkauf Verlust. Denn der TI-99/4A war in der Herstellung deutlich teurer als Commodores einfach konzipierter VIC-20. Texas Instruments versuchte noch gegenzusteuern: Man entwickelte eine kostengünstigere Hauptplatine (QI-Version) und fertigte billigere Plastikgehäuse in Beige, senkte die Preise für Peripherie um 50 % und packte Software gratis bei. Zeitweise erhielt man die große Erweiterungsbox gratis, wenn man drei Module kaufte. Doch all das konnte den Trend nicht umkehren. Im dritten Quartal 1983 meldete TI durch den Homecomputer-Sektor einen Verlust von rund 330–400 Millionen Dollar. Am 28. Oktober 1983 gab Texas Instruments schließlich den Ausstieg aus dem Heimcomputermarkt bekannt. Die Produktion des TI-99/4A wurde eingestellt (offiziell im März 1984), und bis 1984 wurden nur noch Restbestände abverkauft. Insgesamt hatte TI etwa 2,8–3 Millionen Exemplare des TI-99/4A abgesetzt – an sich eine beachtliche Zahl, die jedoch durch die extrem niedrigen Stückpreise zustande kam und für TI kein profitables Geschäft mehr darstellte.

Rückblickend wird der TI-99/4A oft als „erfolgreicher Misserfolg“ beschrieben – ein Gerät mit fortschrittlicher Technik, das jedoch an Marktstrategien und Konkurrenz scheiterte. Seine Vorteile (16-Bit-Leistung, überlegene Grafik/Sound, einzigartige Sprachoption) konnten die Nachteile (anfangs hoher Preis, geringe Softwarebreite, architekturbedingte Tempoprobleme) nicht dauerhaft wettmachen. Gegen Konkurrenten wie den Commodore 64, der ab 1982 mit 64 KB RAM, herausragendem Sound (SID-Chip) und großem Softwareangebot dominierte, wirkte TIs 4A spätestens ab 1983 veraltet. Auch im Vergleich zum Vorgängermodell TI-99/4 zeigt sich ein zwiespältiges Bild: Der 4A beseitigte zwar die größten Mankos (Tastatur, Preis) und bot mehr Grafikmodi, doch letztlich konnte er den Ruf des TI-Heimcomputerprojekts nicht retten. Texas Instruments hatte gehofft, mit seinem Heimcomputer an frühere Erfolge (etwa in der Taschenrechner-Branche) anzuknüpfen und Intel, Apple & Commodore Paroli zu bieten. Stattdessen endete das Abenteuer TI-99/4A mit einem deutlichen finanziellen Fehlschlag und dem Rückzug TIs aus dem PC-Markt. Dennoch hinterließ der TI-99/4A Spuren: Der von TI-Ingenieur Richard Wiggins und Kollegen entwickelte Sprachchip fand Verwendung in späteren Produkten; der Grafikspeicher- und Spritedesign des TMS9918 beeinflusste ganze Computerstandards (MSX); und nicht zuletzt hat der TI-99/4A bis heute eine kleine, engagierte Fangemeinde. Diese Retro-Enthusiasten entwickeln sogar neue Hardware (von Flash-Speicherkarten bis Ethernet-Anbindungen) und halten das Andenken an den „TI“ lebendig. So steht der TI-99/4A heute sinnbildlich für die rasante Aufbruchszeit der Heimcomputer: ein ambitioniertes System, das seiner Zeit voraus war, dessen kommerzielles Schicksal jedoch durch Fehlkalkulationen und den unerbittlichen Konkurrenzkampf besiegelt wurde.