David Shannon Morse

David Shannon Morse

Wenige Menschen haben die Chance ihre Idee der Welt zu präsentieren. Ganz wenige schaffen dabei auch einen Hattrick.

David Shannon Morse, geboren am 15. April 1943, verließ 1982 den Spielwarenhersteller Tonka Toys als Vizepräsident des Bereiches Marketing und schloss sich Jay Miner an, der bereits an einem neuen Supercomputer arbeitete. Gemeinsam gründeten sie dafür das Unternehmen Hi-Toro, dass noch im gleichen Jahr den Namen in Amiga, Inc. änderte. Morse fungierte dort als CEO des Unternehmens, der Name seiner Frau Lorraine diente als Projektname für den später Amiga genannten Computer.

Nachdem das Unternehmen von Commodore aufgekauft wurde, sattelte Morse um und arbeitete als Softwaremanager für Epyx, die zu dieser Zeit bereits mit Spielen, wie etwa Jumpman, Impossible Mission, Pit Stop oder auch den Summer und Winter Games, respektable Erfolge erschaffen hatten. David Morses Sohn fragte ihn zu jener Zeit, ob er nicht ein tragbares Spielsystem entwickeln könne. Dafür kontaktierte er 1986 zwei ehemalige Mitstreiter aus Amiga Zeiten, namentlich RJ Mical und David Needle, um den Wunsch seines Sohnes Wirklichkeit werden zu lassen. Jedoch hatte die Entwicklung das Geld des Herstellers regelrecht verschlungen: Epyx musste nach Partnern suchen. Potenzielle Unternehmen, etwa Nintendo oder Sega, lehnten die Offerte ab. Schlussendlich konnte Atari an Bord geholt werden.

Dave schien ein Gespür für interessante Hardware zu haben, denn schon kurze Zeit später saß er erneut mit RJ Mical und Dave Needle in einem Restaurant und gemeinsam entwarfen sie dort die Basis des 3DO Systems auf einer Serviette. Als das Unternehmen stand, gründete Morse, gemeinsam mit Judy Lang und Madeline Canepa Crystal Dynamics. Beide Damen waren zuvor noch leitende Marketingangestellte für Sega und gemeinsam waren sie der erste lizensierte und unabhängige Entwickler der 3DO Konsole.

David starb am 2. November 2007 mit 64 Jahren. Wenige Menschen haben das Glück oder die Gelegenheit etwas zu erfinden oder zu entwickeln, dass anderen Personen im Gedächtnis bleibt. Mit dem Amiga, dem Atari Lynx und dem 3DO hatte David gleich drei Geräte in petto.

Pipe Mania / Pipe Dream – 1989 by The Assembly Line

Pipe Mania / Pipe Dream – 1989 by The Assembly Line

Knobeleien und Hirnverknotungen waren schon immer beliebt: ob Galgenmännchen, Käsekästchen oder Brettspiele wie Mastermind, dort wo es rauchte, knobelte man den Lösungen (oder es wurde auf dem Schulhof in einer nicht einsehbaren Ecke die Zigarette herumgereicht). Mit Tetris, vor allem als To Go Version mit dem Gameboy, waren schon bald auch Tante Hedwig und Onkel Günther aus dem allerletzten Dorf Deutschlands infiziert. Der Song Korobeiniki („Die Hausierer“), besser bekannt unter dem Namen Track A, brannte sich ebenfalls in die Hirnrinde. Häufig spielen Akkordeonspieler in den Altstädten diese Melodie und lassen die Schreiber dieser Zeilen in wohligen Erinnerungen schwelgen. Nintendo hatte, zusammen mit Erfinder Alexey Pajitnov, den Markt der Puzzlegames übernommen, plattgewalzt und zementiert.
Selbstverständlich hatten auch andere Hersteller sehnlichst gehofft aus diesem Markt Fuß zu fassen, sei es mit Tetris Klonen, die es zuhauf gab und teilweise auch von Pajitnov selbst auf den Markt geworfen wurden (man denke nur an Welltris, Hatris oder Faces...tris III) oder aber mit originellen Eigenkonzepten (die zumeist jedoch auch auf älteren Spielen basierten).

Der britische Entwickler The Assembly Line arbeitete ebenfalls an einem eigenen Denkspiel, dessen Ursprünge sich bis in das Jahr 1982 zurückverfolgen lassen. In diesem Jahr präsentierte Konami das Logikspiel Guttang Guttong, das international als Loco-Motion verkauft wurde. Loco-Motion hatte das Spielprinzip jedoch ebenfalls nicht erfunden, sondern adaptierte die zu jener Zeit überall präsenten Schiebepuzzle, die in Cornflakes Schachteln ebenso zu finden waren, wie auch als Trostpreise auf den überall stattfindenden Jahrmärkten. Ziel ist es durch simples Schieben jeweils einer Kachel die richtige Zahlenreihenfolge oder aber ein Bild herzustellen. Diese Mechanik findet sich auch in Pipe Mania wieder: das Spielfeld ist in ein Raster aufgeteilt und ermöglicht das Setzen von Kacheln, die mit einem Röhrenmuster versehen sind und auf der linken Bildschirmseite gestapelt angezeigt werden. Bei der Wahl eines Rasterfeldes wird die unterste Kachel platziert, die jedoch nicht gedreht werden kann. Ziel des Spieles ist es, das ausfließende „Flooz“ oder „Goo“ zu kanalisieren, dass sich nach einer bestimmten Zeit seinen Weg bahnt. Konntet Ihr eine Mindestanzahl an Kacheln verlegen, ist der Weg in das nächste Level frei. Mit jedem Levelabschluss legten die Programmierer die Messlatte höher: sind zu Beginn die Mindestlängen noch locker zu bewerkstelligen, beginnen diese in höheren Levels in Arbeit auszuarten. Dazu kommen höhere Fließgeschwindigkeiten des „Flooz“ oder Hindernisse auf dem Raster, die das Setzen von Kacheln erschwert.

Pipe Mania, das in den Staaten unter dem Namen Pipe Dream erschien, war erfolgreich genug, um selbst zahlreiche Klone entstehen zu lassen. Nokia installierte den Klon Canal Control auf etliche Modelle ihrer Handys.
Das Spielprinzip fand sich später auch als Minispiel in BioShock zum Hacken von Automaten, Kameras oder Robotern. Aber auch Saints Row IV und einige andere Spiele nutzten das Prinzip für ihre Zwecke. So nutzt Nintendo ein ähnliches Gameplay für ihren Titel „Mario and Donkey Kong: Minis on the Move“. Microsoft sah damals Potential in dem Titel und veröffentlichte diesen in ihrem Microsoft Entertainment Pack for Windows, dass zwischen 1990 und 1994 mit unterschiedlichen Games veröffentlicht wurde und über 500.000 mal über den Ladentisch wanderte.

Optimus Maximus Tastatur – 2007 by Art. Lebedev Studio

Optimus Maximus Tastatur - 2007 by Art. Lebedev Studio

 

Der Computer unterliegt naturgemäß stetigen Veränderungen: ein schnellerer Prozessor hier, ein paar Gigabyte Arbeitsspeicher dort, und auch die Grafikkarte hat selten einen sicheren Rentenplatz unter dem Blechgehäuse. Je weiter sich die Komponenten vom Motherboard entfernen, desto wahrscheinlicher ist ihr langfristiges Überleben. Wie sicher muss sich also ein Keyboard fühlen, das nur selten seinen Arbeitsplatz auf dem Schreibtisch verlassen muss? Wie oft ändert sich der grundlegende Aufbau einer Tastatur? Im Laufe der Zeit machte sich vor allem der Wechsel des Tastaturanschlusses bemerkbar: Kamen zu Beginn DIN- und PS2-Anschlüsse zum Einsatz, hatte sich mit dem Erfolg der USB-Schnittstelle nur noch wenig geändert, wenn wir den Wechsel von Folien- zu mechanischen Tasten mal außen vorlassen. Anfang der 2000er Jahre entwickelte sich das Eingabegerät zu einer Präsentationsfläche, als die grundlegende und später die RGB-Beleuchtung ihren Einzug unter die Tasten fand.

Eine Revolution fand am 14. Juli 2005 statt, als das russische Designerstudio „Art. Lebedev Studio“ ihr Design einer PC-Tastatur mit dem vollmundigen Namen „Optimus Maximus“ ankündigte und die Branche aufhorchen ließ. Der Name bezieht sich in diesem Fall auf den römischen Gott „Jupiter Optimus Maximus“, also der Beste und Größte. Das Studio war in den Jahren zuvor mit der Gestaltung von später prämierten Webseiten aufgefallen. Unter anderem designte das Team die Internetpräsenz der Alfa Bank oder aber ein Set interaktiver Grußkarten für den Sender MTV (Fun Fact für Leser jüngeren Baujahres: MTV war zu Beginn ein Akronym für Music Television und spielte, genau, nur Musikvideos).

Die Optimus Prime stellte eine Melange aus Revolution und Evolution dar: Statt üblicher Plastikkappen war jede der 113 Tasten ein kleiner, vollwertiger OLED-Bildschirm (65.536 Farben) mit einer Auflösung von 48 x 48 Bildpunkten und einer Bildwiederholfrequenz von mindestens 10 pro Sekunde.
Der Inhalt war frei definierbar und konnte von kompatiblen Programmen geändert werden. So wäre es möglich, europäische Schriftzeichen mit kyrillischen zu ersetzen. Games wären damit in der Lage, nur jene Tasten zu beleuchten, die in dem Spiel auch notwendig wären. Die Leerzeichentaste hat beispielsweise im Quake die Springfunktion; wieso sollte dies dann nicht auch auf der Taste kenntlich gemacht werden? Wieso sollte der Spieler kryptische Tastatureingaben lernen, wenn das Keyboard einem doch sofort und klar darauf hinweist, dass diese eine Taste zum Chatten gedacht ist und das Wort auch anzeigt? Auch professionelle Anwendungen hätten Vorteile – oder ist uns die Tastenbelegung von Photoshop mit in die Wiege gelegt worden? Zur Anpassung der Tastenlayouts spendiert „Art. Lebedev“ dem Käufer ein SDK und integrierte einen kleinen SD-Speicherkartensteckplatz, um die Standardeinstellungen oder eigene Layoutkreationen zu sichern. Während Wikipedia eine Kapazität von 32 MByte SD-Speicher angibt, berichtet CNET von 512 MByte.

War die Optimus Maximus damit die Wollmichsau? Hier muss ganz klar mit einem „Nein!“ geantwortet werden. Benutzer gaben häufig an, dass die Tasten, die zudem haptisch nicht angenehm waren (aufgrund der glatten Oberfläche), einen überaus knackigen Druckpunkt besaßen, was die Eingabe von umfangreicheren Daten erschwerte. Auch waren die Tasten nicht gepuffert und trieben sicherlich so manchen Nutzer, ob der Lautstärke, in den Wahnsinn oder zur Ibuprofen-Abhängigkeit aufgrund der resultierenden Kopfschmerzen.

Zudem ist der Stromhunger nicht zu verachten. Da die USB-Verbindung nicht ausreichend Energie für die 113 Bildschirme liefern kann, wird das Keyboard noch mit einem zusätzlichen Netzteil ausgeliefert. Damit mäandert ein weiteres Kabel über den Tisch, schön ist anders.
Der schwerwiegendste Nachteil war jedoch der Preis: 1.500 US-Dollar erwartete das Designstudio vom künftigen Besitzer (inflationsbereinigt 2024: 2.099 Euro). „Art. Lebedev“ hatte das riesige Interesse, vor allem der Gamer und PC-Enthusiasten, nicht erwartet, die dem Produkt, trotz des Kaufpreises, entgegenfieberten.

Aufgrund der Komplexität des Systems und der handgefertigten Bauart konnten entsprechende Stückzahlen nicht bedient werden, zudem plagten das Studio Produktionsprobleme. Der Starttermin wurde von Ende 2006 auf Ende 2007 verlegt. Ein Zwischenprodukt, genannt Optimus Mini 3, sollte das Interesse hochhalten. Das Gerät bestand aus drei Tasten mit OLED-Bildschirmen. Kostenpunkt: 150$. Darüber hinaus hatte das Gerät eine hohe Prozessorauslastung, eine langsame Reaktionszeit und fehlerhafte Software zu bieten. Die Reaktionen fielen naturgemäß gemischt aus.
2008 versuchte es der Hersteller mit einer weiteren Zusatztastatur namens Optimus Aux mit 15 OLED-Tasten, die allerdings auch kaum beeindruckte. 2014 stellte „Art. Lebedev“ den Verkauf der Maximus ein und präsentierte dessen Nachfolger Optimus Popularis, das scheinbar auch für die Plebejer gedacht war und nicht mehr viel mit dem einstigen Überflieger gemein hatte. Statt einzelner OLED-Bildschirme ist unter der Tastatur ein großer Bildschirm verbaut. Der Preis hatte sich dadurch fast halbiert. „Nur“ noch 750 Euro verlangte der Hersteller für eine Tastatur, die optisch einer billigen Kopie aus dem Fundus der üblichen E-Commerce gleicht. Der Lack war einfach ab.

Hätte ich damals die exorbitante Summe von 1.500 Dollar bezahlt? Wahrscheinlich ja, aber mein Studium durchkreuzte diesen Wunsch. Und heute? Natürlich ist diese Keyboard-Idee noch immer faszinierend und man sollte meinen, dass das Konzept heute günstiger herzustellen sei. Zwar existieren noch einige Designstudios, beispielsweise Sonder mit dem e-ink-Keyboard, die an die Vision glauben, ein großer Hit ist es dennoch nicht geworden. Dabei hatte selbst Apple 2007 ein Patent für eine dynamisch veränderbare Tastatur mit organischen Leuchtdioden eingereicht.

Xerox 860

Xerox 860

Die frühen Computertage waren immer wieder für eine Überraschung gut. Beispielsweise stellte Xerox mit dem Modell 860 eine Maschine vor, die scheinbar in keine Schublade passte. Obwohl die Komponenten eindeutig auf einen Computer schließen ließen, war seine Hauptaufgabe die Textverarbeitung, auch wenn heute noch viele Anwender aus der damaligen Zeit dem widersprechen. Der Monitor ist jedoch ein wichtiges Indiz für die Theorie der Textverarbeitung. Dieser stand um 90° angewinkelt und glich nun eher einer DIN A4 Seite. Zudem sollte erwähnt werden, dass Xerox selbst das Produkt als Textverarbeitungscomputer angepriesen hatte. Das der Xerox 860 jedoch auch andere Aufgaben bewerkstelligen konnte, steht auf einem anderen Blatt). 70 Zeilen mit 102 Zeichen standen dem Anwender zur Verfügung. Dabei war der Text schwarz auf weißem Hintergrund. Optional konnten die Einstellung invertiert werden. Der 860 beherrschte nur den reinen Textmodus und konnte keine Grafiken einbinden.

128 KByte RAM standen für die Datenverarbeitung zur Verfügung. Waren die Texte länger oder sollten sie später weiterverarbeitet werden, konnten diese auf 8“-Floppydisketten gespeichert werden. Xerox verbaute zwei dieser Massenspeichermonster im System. Disketten konnten dabei mit maximal 600 KByte beschrieben werden, dies reichte gewöhnlich für bis zu 560 Seiten. Das Modell 860 war auch netzwerkfähig (Ethernet). Insgesamt drei Modelle konnten gemeinsam im Verbund arbeiten. Im Paket war zusätzlich ein Diablo Printer enthalten. Dieser arbeitete bidirektional und hatte eine Geschwindigkeit von bis zu 40 Zeichen pro Sekunde. Maximal 20 Seiten konnten in einer Druckerwarteschlange geparkt und nacheinander abgearbeitet werden. Mit späteren Versionen war es zudem möglich via Netzwerk die Textdokumente per Email weiter zu versenden. Als „Betriebssystem“ kam eines der ersten WYSIWYG (What you see is what you get) Textverarbeitungsprogramme zum Zuge. BravoX, das 1972 für den Xerox Alto entwickelt worden war, ist der Stammvater aller modernen Textprogramme, beispielsweise Word.

Dennoch hatte der 860 einen schweren Stand. In einer Zeit, in der die Homecomputer immer mehr Boden gewannen und leistungstechnisch immer weiter fortschritten, konnte eine reine Textverarbeitung nicht lange bestehen. Auch der brachiale Preis von 14.000 $ (inflationsbereinigt 2024 etwa 40.000 Euro!) half dem System nicht wirklich weiter. Große Firmen, aber auch die US Navy setzten dennoch eine Zeit auf diese Systeme.

Archimedes A5000

Archimedes A5000

Acorn A5000

1991 stellte Acorn der Öffentlichkeit eine weitere Variante der Archimedes-Produktreihe vor, auch wenn der Name des berühmten Mathematikers nun nicht mehr explizit genannt wurde. Der A5000 sollte mittelfristig den bisherigen Spitzenreiter, den A540, ablösen. Sein größeres Gehäuse wirkte wuchtiger und unterstrich seine Position als leistungsstarkes Arbeitspferd. Das Design erinnerte zunehmend an den Amiga 2000, was dem professionellen Anspruch des Geräts gerecht wurde. Die Erweiterungsmöglichkeiten blieben im Vergleich zum A540 unverändert: Es war weiterhin möglich, das System mit bis zu vier Steckkarten auszubauen.

Als Hauptprozessor setzte Acorn auf den ARM3, der zuvor bereits im Acorn A4 Laptop seine Leistungsfähigkeit unter Beweis gestellt hatte. Spätere Modelle waren mit bis zu 33 MHz getaktet und stellten zu dieser Zeit die schnellste verfügbare Variante dar. Dem ARM3 standen drei speziell entwickelte Chips zur Seite: der MEMC (Memory Controller) für den Speicher, der VIDC (Video and Sound Controller) für die audiovisuelle Ausgabe und der IOC (Input/Output Controller) für die Ein- und Ausgabe.

Der A5000 wurde mit einem VGA-kompatiblen Ausgang ausgestattet. Da jedoch auch Bildschirmauflösungen mit einer Zeilenfrequenz von 15 kHz unterstützt wurden, konnten nicht alle Monitore problemlos angeschlossen werden. Ähnlich dem Amiga-Konzept besaß der Archimedes eine Farbpalette mit 4096 Farben, von denen 256 gleichzeitig bei einer Auflösung von 640 × 256 Pixeln dargestellt werden konnten. In der höchsten Auflösung von 800 × 600 Bildpunkten waren maximal 16 Farben gleichzeitig darstellbar.

Der A5000 war für seine Vielseitigkeit bekannt und bot eine Reihe von Erweiterungsmöglichkeiten. Neben den vier internen Steckplätzen für Erweiterungskarten standen auch externe Schnittstellen für Peripheriegeräte zur Verfügung. Dazu gehörten unter anderem:

  • SCSI-Erweiterungskarten, die den Anschluss von Festplatten und CD-ROM-Laufwerken ermöglichten
  • Ethernet-Karten, die den A5000 netzwerkfähig machten, was insbesondere in Bildungseinrichtungen und Unternehmen von Vorteil war
  • Digitale Signalprozessoren (DSPs) zur Verbesserung der Audioverarbeitung
  • Second Processor Modules, die eine zusätzliche CPU für komplexe Rechenaufgaben bereitstellten
  • Genlock-Karten, mit denen Videoüberlagerungen für den professionellen Einsatz erstellt werden konnten

Als Massenspeicher konnten erstmals handelsübliche IDE-Festplatten genutzt werden, wodurch sich die Kosten für Speichererweiterungen erheblich reduzierten. Dennoch existierten zahlreiche SCSI-Steckkarten, die den Betrieb von CD-ROM-Laufwerken und weiteren Peripheriegeräten ermöglichten. Zusätzlich unterstützte das System 3,5-Zoll-Disketten mit Kapazitäten von 800 KB, 1,44 MB oder 1,6 MB.

Acorn bot zudem eine Vielzahl an offiziellen Peripheriegeräten an, darunter Drucker, externe Festplatten, Mäuse, Joysticks und sogar Grafiktabletts.

Als Betriebssystem kam RISC OS 3 zum Einsatz, das im ROM fest integriert war und somit extrem schnell geladen werden konnte. Im Vergleich zum Vorgänger RISC OS 2 vervierfachte sich der Speicherbedarf auf 2 MB. Die überarbeitete Version verbesserte das Multitasking erheblich und enthielt zahlreiche nützliche Programme, die zuvor erst nachträglich installiert werden mussten. Dazu gehörten:

  • Ein überarbeiteter Desktop, der erstmals Drag-and-Drop-Funktionen bot
  • Erweiterte Druckertreiber, die eine breitere Palette an Druckern unterstützten
  • Ein verbesserter Dateimanager, der den Zugriff auf externe Speichermedien erleichterte

Trotz der Verbesserungen war das System nicht fehlerfrei. Acorn veröffentlichte bereits wenige Monate nach der Markteinführung Version 3.1, die zahlreiche Fehlerbehebungen enthielt und in späteren A5000-Modellen vorinstalliert wurde.

Der Acorn A5000 wurde von der Fachpresse weitgehend positiv aufgenommen. Besonders gelobt wurden die hohe Geschwindigkeit des ARM3-Prozessors, die verbesserte Grafikleistung und die umfangreichen Erweiterungsmöglichkeiten. Die britische Zeitschrift Acorn User schrieb in ihrer Ausgabe von Dezember 1991: "Der A5000 ist das leistungsstärkste und vielseitigste System, das Acorn je veröffentlicht hat. Seine Leistung übertrifft die der meisten Konkurrenten in seiner Preisklasse, und die Unterstützung für Standard-IDE-Festplatten macht ihn endlich auch für den Massenmarkt erschwinglich." Die Zeitschrift Byte lobte die überarbeitete Benutzeroberfläche von RISC OS 3 und verglich sie mit frühen Versionen von macOS: "Acorns RISC OS 3 ist ein großer Schritt nach vorne. Die Benutzeroberfläche ist intuitiver als viele der aktuellen PC-Betriebssysteme und bietet ein angenehmes Nutzungserlebnis, das in dieser Form sonst nur Apple-Nutzer kennen." Kritik gab es jedoch an der Softwarekompatibilität. Viele Programme, die für ältere Archimedes-Modelle entwickelt wurden, liefen nicht ohne Anpassungen auf dem neuen System. Dies betraf insbesondere Spiele und spezialisierte Business-Software.

Der A5000 wurde vor allem in Bildungseinrichtungen und Universitäten eingesetzt, fand aber auch seinen Weg in viele Unternehmen. Die Verkaufszahlen blieben jedoch hinter den Erwartungen zurück, insbesondere weil der Markt für RISC-Computer außerhalb Großbritanniens relativ begrenzt war. Schätzungen zufolge wurden zwischen 15.000 und 20.000 Einheiten verkauft, was zwar respektabel war, aber nicht ausreichte, um Acorn langfristig als Konkurrenten zu IBM-kompatiblen PCs oder dem aufkommenden Macintosh LC zu etablieren. In Großbritannien konnte der A5000 dennoch einige bedeutende Erfolge verbuchen. Viele Schulen und Hochschulen setzten das System aufgrund seiner stabilen Architektur und der einfachen Wartung ein. Die britische Regierung förderte in den frühen 1990er-Jahren den Einsatz von Acorn-Computern im Bildungswesen, was die Verkaufszahlen unterstützte.

Zum Verkaufsstart im Jahr 1991 kostete der A5000 ohne Festplatte 999 britische Pfund, was inflationsbereinigt etwa 2.595 Euro (Stand 2025) entspricht. Die Variante mit einer Festplatte verteuerte sich um weitere 500 Pfund, was heute rund 1.300 Euro zusätzlich bedeuten würde. Damit lag der A5000 preislich in einem Bereich, der für Privatanwender kaum erschwinglich war, aber für Bildungseinrichtungen und Unternehmen attraktiv blieb. Der Acorn A5000 war ein technisch beeindruckender Computer mit einer starken Prozessorleistung, einer leistungsfähigen Benutzeroberfläche und umfangreichen Erweiterungsmöglichkeiten. Dennoch verhinderten hohe Preise, eine begrenzte Softwarebibliothek und die wachsende Dominanz von IBM-kompatiblen PCs einen größeren kommerziellen Erfolg. Heute gilt der A5000 als eines der letzten großen Werke Acorns, bevor das Unternehmen sich zunehmend aus dem Hardware-Geschäft zurückzog.

Trotz seiner begrenzten Marktverbreitung bleibt der A5000 in der Computergeschichte ein bemerkenswertes Beispiel für die Innovationskraft von Acorn und die Leistungsfähigkeit der ARM-Architektur, die später die Grundlage für Milliarden von mobilen Geräten weltweit bilden sollte.

Der Apple I

Apple I

Der Apple I war einer der ersten vollwertigen Computer, die man über eine Tastatur steuern konnte und die für den Massenmarkt geeignet waren. Neben dem Sol-20 war er auch der erste Computer, der mit einem Video-Display-Terminal ausgestattet war, sodass er einen Composite-Monitor oder Fernseher als Ausgabegerät nutzen konnte. Neue Entwicklungen im Computerbereich inspirierten Steve Wozniak, einen eigenen Rechner zu bauen. Zu dieser Zeit waren nur zwei Prozessoren hierfür geeignet: der Intel 8080 und der Motorola 6800. Wozniak bevorzugte den Motorola-Prozessor, aber aus finanziellen Gründen kamen beide nicht in Frage. Er wusste jedoch, dass in Zukunft passende Prozessoren auf den Markt kommen würden, also begann er, am Reißbrett zu arbeiten. Ende 1975 stellte MOS Technology den MOS 6502 vor, einen 8-Bit-Mikroprozessor, der alle Eigenschaften hatte, die Wozniak brauchte. Der Preis war ebenfalls unschlagbar: Für nur 25 $ war der Chip deutlich günstiger als die Konkurrenz. Außerdem war er weitgehend mit seinem favorisierten Motorola-Prozessor kompatibel. Wozniak begann sofort, eine Version von BASIC zu schreiben und den Computer auf Basis dieses Codes weiterzuentwickeln.

Bereits am 1. März 1976 hatte Wozniak einen ersten Entwurf fertig und bot ihn fünf Mal seinem früheren Arbeitgeber Hewlett Packard an. HP lehnte jedoch jedes Mal ab. Also präsentierte er im Juli 1976 einen Prototyp des Computers im Homebrew Computer Club in Palo Alto, der von Gordon French und Fred Moore nur wenige Monate zuvor gegründet worden war. Der Prototyp erregte sofort großes Interesse. Besonders Steve Jobs war begeistert und schlug Wozniak vor, ein Unternehmen zu gründen. Zunächst war Wozniak skeptisch, denn er wollte die Schaltpläne des Computers kostenlos zur Verfügung stellen. Doch Jobs überzeugte ihn mit dem Argument, dass sie ihren Enkeln später erzählen könnten, sie hätten ein Unternehmen gegründet.

Das Mainboard des Computers war mit über 60 Chips ausgestattet. Die Bedienung war einfach, da eine Tastatur statt Kippschalter verwendet wurde. Außerdem konnte die Ausgabe des Computers auf einem Monitor oder Fernseher angezeigt werden, statt auf den kleinen LEDs wie beim Altair. Allerdings war die Ausgabe mit nur 60 Zeichen pro Sekunde sehr langsam. Zu Beginn gab es jedoch ein großes Problem bei der Vermarktung des Produkts. Paul Terrell, der Besitzer eines Computershops, war daran interessiert, den Computer zu verkaufen. Aber zu dieser Zeit hatte der Apple I noch kein Gehäuse, geschweige einen Monitor, Netzteil oder eine Tastatur. Terrell sagte den Gründern, dass er den Computer nur verkaufen würde, wenn es als vollständiges Paket angeboten würde. Er verlangte zudem, dass ein Kassetten-Interface zur Datenspeicherung entwickelt wurde, was Wozniak dann auch tat.

Drei Monate nach der ersten Vorführung konnte man den Apple I für 666,66 $ kaufen (dieser Preis kam von Wozniaks Vorliebe für gleichmäßige Zahlen), wobei Computer, die über andere Verkaufswege angeboten wurden, für 500 $ verkauft wurden. Insgesamt konnte das kleine Unternehmen etwa 200 Geräte produzieren. Möchte man heute zum kleinen, aber exklusiven Preis der Apple 1 Nutzer gehören, sollte man auf den einen oder anderen Restaurantbesuch verzichten, zumindest für die nächsten Jahrzehnte. Versteigerte das renommierte Auktionshaus Christie's 2010 ein Exemplar für lumpige 157.000 Euro, ist der Wert nun ein wenig gestiegen: das Henry Ford Museum war 2014 gewillt für ein Gerät  zu bezahlen.

Amiga 1500

Amiga 1500

Der war kein eigenständiges Modell, sondern eine Variante des Amiga 2000, die in einem identischen Gehäuse untergebracht und ausschließlich in Großbritannien verkauft wurde. Im Gegensatz zu seinen Vorgängern stellte er somit eher einen Zwischenschritt dar. Wie beim Amiga 2000 war auch der Prozessor des Amiga 1500 gesockelt und konnte durch einen Motorola 68010 ersetzt werden. Darüber hinaus bot der Computer einen Prozessorsteckplatz, der die Erweiterung mit Turbokarten ermöglichte, um leistungsstärkere CPUs zu integrieren. Eine der Neuerungen des Amiga 1500 war die Ausstattung mit 1 MB Chip-RAM (anstatt der vorherigen 512 KB Chip-RAM und 512 KB Fast-RAM). Zudem kam das Betriebssystem AmigaOS 1.3 zum Einsatz, das nun auch das Booten von alternativen Medien jenseits des Floppy-Laufwerks ermöglichte – eine Funktion, die bereits in OS 1.2 enthalten war, jedoch aufgrund eines Fehlers dort nicht genutzt werden konnte. Der Amiga 1500 war zudem von Anfang an mit zwei 3,5-Zoll-Diskettenlaufwerken ausgestattet, die jeweils eine Kapazität von 880 KB boten.

Zunächst war unklar, warum Commodore das Modell speziell für den britischen Markt entwickelte und ihm eine neue Modellnummer verlieh, obwohl es im Wesentlichen nur ein weiteres Laufwerk darstellte. Später stellte sich heraus, dass ein kleines Unternehmen namens Checkmate Digital einen Umbau des Amiga 500 anbot, der ebenfalls den Namen Amiga 1500 trug. Um die Gewinne nicht mit Drittherstellern teilen zu müssen, brachte Checkmate Digital daraufhin seine eigene Version des Amiga 1500 auf den Markt. Das Unternehmen gab jedoch nicht auf und veröffentlichte nur kurze Zeit später den Amiga 1500+, der auf dem Amiga 500+ basierte und mit 2 MB Chip-RAM sowie AmigaOS 2.04 ausgestattet war.

Zusammenfassend lässt sich sagen, dass der Amiga 1500 im Wesentlichen als Lückenfüller konzipiert wurde, um potenzielle Konkurrenz sofort auszuschalten. Wäre Commodore jedoch ebenso entschlossen an der Entwicklung wirklicher Nachfolger geblieben, hätte das Unternehmen möglicherweise eine längerfristige Präsenz auf dem Markt sichern können.

Didaktik Gama

Didaktik Gama

Etliche Nationen des Ostblocks schienen das Potenzial der Computerbranche besser verstanden zu haben als so mancher westeuropäische Staat. Dies lässt sich nur damit erklären, dass hier eine große Anzahl unterschiedlicher Computer entwickelt wurde, die den Bürgern das neue Medium näherbrachten. Es ist jedoch zu beachten, dass in diesen Ländern Urheberrechte offenbar nicht immer ernst genommen wurden (insbesondere, wenn diese Rechte in Westeuropa lagen), weshalb zahlreiche Modelle auf westeuropäischen Computern basierten oder komplette Nachbauten darstellten – nur eben ohne Lizenz.

Dieser slowakische Computer entstand 1987 bei Didaktik Skalica Ltd. und war ein nicht vollständiger Nachbau des Sinclair Spectrums. Er besaß jedoch von Anfang an 80 KB RAM, was eine interessante Entscheidung war, da der Zilog Z80 Prozessor nur 64 KB RAM direkt adressieren konnte. Das Problem wurde durch Bankswitching umgangen. Bei diesem Verfahren wird der Speicherbereich "umgeschaltet", sodass der Anwender auf die zusätzlichen 32 KB zugreifen konnte. Das Gehäuse verfügte über eine LED, die aufleuchtete, wenn der alternative Speicherbereich verwendet wurde. Der verwendete Speicher stammte nicht aus Japan, sondern war russischer Herkunft. Während seiner Lebenszeit wurden drei Gama-Versionen entwickelt:

  • Die erste Version des Gama, die 1987 erschien, hatte ein schwarzes Gehäuse und wurde später auch als Gama '87 bezeichnet. Allerdings stellte sich heraus, dass diese Version einen schwerwiegenden Fehler aufwies, der dazu führen konnte, dass der Computer bei einem Bank-Switch-Vorgang abstürzte.
  • 1988 erschien eine weitere Version, die durch ein graues Gehäuse auffiel und den Anwender deutlich darauf hinwies, dass es sich nicht mehr um das Gama '87 handelte. Bei diesem Modell hatte Didaktik den Bank-Switch-Fehler behoben, jedoch traten noch andere Fehler auf.
  • Der Gama '89, der 1989 erschien, sollte schließlich auch die letzten Fehler im ROM beseitigen. Zudem wurde die Platine überarbeitet, um die Kompatibilität mit dem echten Spectrum zu verbessern. Dieses Modell war so stabil, dass es ohne weitere Änderungen bis 1992 produziert wurde.

Intel 8086

Intel 8086

In den 1970er Jahren hatte sich Intel mit seinen Prozessoren, allen voran dem Intel 8008 und dem späteren 8080, einen guten Ruf erarbeitet. Der Intel 8080 war das Herzstück vieler frühe Personal Computer und das Betriebssystem CP/M wurde ursprünglich für diesen Prozessor entwickelt, was ihm eine breite Nutzerbasis verschaffte. Doch die Konkurrenz holte schnell auf: Zilog hatte mit dem Z80 einen ähnlichen Prozessor auf den Markt gebracht, der sowohl in der Leistung als auch in der Beliebtheit mit dem Intel 8080 konkurrierte. Auch MOS Technology trat mit dem 6502 auf den Plan, dessen günstiger Preis und gute Leistung vor allem im Heimcomputerbereich für Furore sorgten.

Intel erkannte, dass die Entwicklung eines leistungsstärkeren Prozessors notwendig war, um mit der Konkurrenz Schritt zu halten. Der Intel 8086, der 1978 vorgestellt wurde, sollte diesen Anforderungen gerecht werden und die Lücke zwischen den 8-Bit-Prozessoren und den zunehmend leistungsfähigeren 16-Bit-Systemen schließen. Intel setzte dabei auf eine völlig neue Architektur, die sowohl die Leistung steigerte als auch die Kompatibilität zu bestehenden 8-Bit-Anwendungen gewährleistete. Der Intel 8086 war eine 16-Bit-CPU, die in der Lage war, 16-Bit-Operationen auszuführen und eine 16-Bit-Adressierung zu ermöglichen. Im Gegensatz zu seinen 8-Bit-Vorgängern konnte der 8086 64 KByte Speicher direkt adressieren. Durch die Verwendung eines sogenannten segmented memory model konnte der 8086 jedoch auch mehr als 1 MByte an Speicher adressieren, was ihm einen erheblichen Vorteil gegenüber den 8-Bit-Prozessoren verschaffte, die meist nur 64 KByte oder weniger adressieren konnten.

Der Prozessor bestand aus 29.000 Transistoren und verfügte über 14 Register, die in Segmente unterteilt waren. Im Vergleich zu den Prozessoren der Konkurrenz hatte der 8086 eine höhere Registeranzahl (der Zilog Z80 hatte nur 8 Register), was ihn für komplexe Berechnungen und Multitasking-Anwendungen vorteilhafter machte. Zu den Registertypen gehörten unter anderem Daten-, Adress- und Statusregister sowie ein spezielles Stack-Register für die Verwaltung des Programmspeichers. Ein bemerkenswertes Merkmal des 8086 war seine Fähigkeit zur sogenannten "Micro-Op-Codierung", die es ermöglichte, Maschinenbefehle in kleinere, einfachere Operationen zu zerlegen, um die Verarbeitungszeit zu optimieren. Dies war eine technische Innovation, die es dem Prozessor ermöglichte, effizienter zu arbeiten, wenn auch nicht unbedingt schneller als Konkurrenzprodukte wie der Motorola 68000, der mit 8 MHz auf den Markt kam, während der 8086 anfangs mit nur 4,77 MHz arbeitete.

Die Konkurrenz war jedoch stark. Der Zilog Z80 war aufgrund seiner geringen Kosten und seiner Verbreitung im Markt weit verbreitet, vor allem in Heimcomputern und frühen Computern wie dem ZX Spectrum und dem TRS-80. Im Vergleich dazu war der Intel 8086 in der Anfangsphase relativ teuer und verfügte bei seiner Einführung nur über eine geringe Taktrate von 4,77 MHz, was ihn in Sachen Geschwindigkeit hinter dem Zilog Z80 und dem Motorola 68000 zurückließ. Der Motorola 68000, der 1979 auf den Markt kam, war ein 16-Bit-Prozessor, der in vielerlei Hinsicht als überlegen galt, da er mit einer höheren Taktrate von 8 MHz und einer eleganteren Architektur ausgestattet war, die es ihm ermöglichte, komplexere Befehle in kürzerer Zeit auszuführen. Ein weiterer Unterschied zwischen dem Intel 8086 und der Konkurrenz war der Befehlssatz. Der 8086 nutzte eine sogenannte CISC-Architektur (Complex Instruction Set Computing), die auf einer großen Anzahl von Maschinenbefehlen basierte, von denen viele sehr komplex waren. Im Gegensatz dazu setzte der Motorola 68000 auf eine RISC-ähnliche (Reduced Instruction Set Computing) Architektur, die weniger, aber einfachere Befehle nutzte, die schneller ausgeführt werden konnten. Diese unterschiedliche Architektur führte zu verschiedenen Designentscheidungen und unterschiedlichen Leistungsprofilen bei Anwendungen.

Der Intel 8086 war die Grundlage für die x86-Architektur, die auch heute noch in den meisten Personalcomputern verwendet wird. Trotz seiner anfänglichen Schwächen wurde er schließlich durch die Entwicklung des Intel 8088 weiter verbessert. Der 8088 war eine abgespeckte Version des 8086, die mit einer 8-Bit-Datenbus-Architektur ausgestattet war, was die Produktionskosten senkte und die Markteinführung eines erschwinglicheren Personalcomputers ermöglichte. Der IBM PC, der 1981 auf Basis des 8088 gebaut wurde, trug maßgeblich dazu bei, die x86-Architektur zu etablieren und die Ära des Personalcomputers einzuleiten. Während der 8086 und der 8088 technisch nicht die schnellsten Prozessoren ihrer Zeit waren, ermöglichte der Erfolg des IBM PCs, dass die x86-Architektur zur Grundlage des Personalcomputermarktes wurde. Intel setzte seine Entwicklung fort und brachte mit dem 80286, 80386 und später dem 80486 Prozessoren immer leistungsfähigere Modelle auf den Markt, die die Grundlage für die heutigen Computertechnologien bildeten.

Obwohl der Intel 8086 anfangs in Bezug auf Taktrate und Architektur hinter der Konkurrenz zurückblieb, spielte er eine entscheidende Rolle in der Entwicklung des Personalcomputermarktes. Durch seine Einführung wurde die x86-Architektur etabliert, die bis heute die Grundlage der meisten Desktop- und Laptop-Computer bildet. Der Intel 8086 mag nicht der leistungsfähigste Prozessor seiner Zeit gewesen sein, aber seine Bedeutung liegt in seiner weitreichenden Kompatibilität und seiner Rolle als Pionier der modernen Computerarchitektur. Ohne den Erfolg des 8086 und seiner späteren Varianten würde die heutige Computerlandschaft wahrscheinlich ganz anders aussehen.

Midnight Resistance – 1989 by Data East

Midnight Resistance - 1989 by Data East

Midnight Resistance ist ein Side-Scrolling-Run-and-Gun-Videospiel, das 1989 von Data East für Arcade-Automaten entwickelt und veröffentlicht wurde. Es wurde später auf verschiedene Heimcomputer und Konsolen portiert, darunter das Sega Mega Drive, den Commodore 64, den Amiga und den Atari ST.

In einer dystopischen Zukunft übernimmt der Spieler die Rolle eines Mitglieds einer Widerstandsbewegung, dessen Familie von einem Drogenbaron entführt wurde. Das Ziel ist es, die Familie zu befreien, indem man sich durch Horden von Feinden kämpft und mächtige Bosse besiegt. Das Gameplay kombiniert Elemente von Jump 'n' Run und Shoot 'em up, wobei der Spieler sowohl laufen als auch schießen muss, um voranzukommen. Ein herausragendes Merkmal von "Midnight Resistance" ist dabei das Waffensystem. Während des Spiels können Schlüssel gesammelt werden, die am Ende jedes Levels gegen verschiedene Waffen und Power-Ups eingetauscht werden können. Dieses System ermöglicht es den Spielern, ihre Bewaffnung an ihren Spielstil anzupassen und strategische Entscheidungen zu treffen.

Nach dem Erfolg in den Spielhallen wurde das Spiel auf mehrere Plattformen portiert. Die Amiga-Version, entwickelt von Data East und 1990 von Ocean Software veröffentlicht, bot einen leichteren Schwierigkeitsgrad und eine verbesserte Steuerung im Vergleich zur Arcade-Version, was sie zu einem Verkaufserfolg machte. Die Sega Mega Drive-Version, veröffentlicht 1991, war Data Easts erstes Spiel für diese Konsole. Diese Version wurde für ihre flüssige Steuerung und die gelungene Umsetzung des Arcade-Originals gelobt. Das Game wurde für seine herausfordernde Action und das innovative Waffensystem international gefeiert. Die verschiedenen Portierungen erhielten unterschiedliche Kritiken, wobei die Amiga- und Mega Drive-Versionen besonders positiv hervorgehoben wurden. Das Spiel gilt heute als Klassiker des Run-and-Gun-Genres und hat eine treue Fangemeinde.

"Midnight Resistance" ist ein bedeutendes Spiel in der Geschichte der Run-and-Gun-Genres. Mit seiner packenden Handlung, dem innovativen Waffensystem und den herausfordernden Levels bietet es ein fesselndes Spielerlebnis, das auch Jahrzehnte nach seiner Veröffentlichung noch begeistert.