Großrechner

Aus besserwiki.de
Ein IBM z15-Großrechner mit einem Rahmen. Modelle mit größerer Kapazität können insgesamt bis zu vier Frames haben. Dieses Modell hat blaue Akzente, im Gegensatz zum LinuxONE III Modell mit orangefarbenen Highlights.
Ein Paar IBM-Mainframes. Auf der linken Seite ist der IBM z Systems z13 zu sehen. Auf der rechten Seite ist der IBM LinuxONE Rockhopper zu sehen.
Ein IBM System z9-Großrechner

Ein Großrechner, informell auch Mainframe oder Big Iron genannt, ist ein Computer, der vor allem von großen Unternehmen für kritische Anwendungen wie die Verarbeitung von Massendaten für Aufgaben wie Volkszählungen, Industrie- und Verbraucherstatistiken, Unternehmensressourcenplanung und die Verarbeitung umfangreicher Transaktionen eingesetzt wird. Ein Großrechner ist groß, aber nicht so groß wie ein Supercomputer, und verfügt über mehr Rechenleistung als einige andere Computerklassen, wie z. B. Minicomputer, Server, Workstations und Personal Computer. Die meisten Architekturen von Großrechnersystemen wurden in den 1960er Jahren entwickelt, aber sie entwickeln sich weiter. Großrechner werden häufig als Server eingesetzt.

Der Begriff Großrechner leitet sich von dem großen Schrank, dem so genannten Hauptrahmen, ab, in dem die Zentraleinheit und der Hauptspeicher der frühen Computer untergebracht waren. Später wurde der Begriff Großrechner verwendet, um kommerzielle High-End-Computer von weniger leistungsfähigen Maschinen zu unterscheiden.

Ein Großrechner (engl. mainframe computer) bzw. eine Großrechenanlage ist ein komplexes und umfangreiches Computersystem, das weit über die Kapazitäten eines Personal Computers und meist auch über die der typischen Serversysteme hinausgeht.

Typische Einsatzgebiete sind die hochzuverlässige Verarbeitung von Massendaten (z. B. Kundendaten von Versicherungen) oder unternehmenskritischen Daten (z. B. ERP-Systeme) oder Massentransaktionssysteme (z. B. Flugbuchungssysteme, Geldautomaten-Systeme). Großrechner unterscheiden sich von Supercomputern (Hochleistungsrechnern) in ihrem Aufgaben- und Einsatzgebiet und daraus folgend auch ihrer Konstruktion. Sie sind eher für die quasi-gleichzeitige Abarbeitung sehr vieler ähnlicher, einfacher Datenverarbeitungsvorgänge optimiert, etwa von Flugbuchungen, als für die schnelle Berechnung einer naturwissenschaftlichen oder technischen Aufgabe wie ein Supercomputer.

Großrechner treten zunehmend wieder in den Vordergrund im Rahmen von Server-Konsolidierungsmaßnahmen und Cloud Computing.

IBM-704-Großrechner (rechts) mit Bandlaufwerk (links) aus den späten 1950ern
Großrechner von Datasaab mit Peripherie aus den 1960ern

Entwurf

Das moderne Mainframe-Design zeichnet sich weniger durch die reine Rechengeschwindigkeit als vielmehr durch folgende Merkmale aus:

  • Redundante interne Technik, die eine hohe Zuverlässigkeit und Sicherheit gewährleistet
  • umfangreiche Eingabe-/Ausgabemöglichkeiten mit der Möglichkeit zur Auslagerung auf separate Rechner
  • Strikte Abwärtskompatibilität mit älterer Software
  • Hohe Hardware- und Rechnernutzungsraten durch Virtualisierung zur Unterstützung eines hohen Durchsatzes.
  • Hot-Swapping von Hardware, wie z. B. Prozessoren und Speicher.

Dank ihrer hohen Stabilität und Zuverlässigkeit können diese Maschinen über sehr lange Zeiträume hinweg ununterbrochen laufen, wobei die mittlere Zeit zwischen zwei Ausfällen (MTBF) in Jahrzehnten gemessen wird.

Mainframes haben eine hohe Verfügbarkeit, einer der Hauptgründe für ihre Langlebigkeit, da sie in der Regel in Anwendungen eingesetzt werden, bei denen ein Ausfall kostspielig oder katastrophal wäre. Der Begriff Zuverlässigkeit, Verfügbarkeit und Wartungsfreundlichkeit (RAS) ist ein definierendes Merkmal von Großrechnern. Um diese Eigenschaften zu verwirklichen, bedarf es einer angemessenen Planung und Implementierung. Außerdem sind Großrechner sicherer als andere Computertypen: Die NIST-Datenbank für Schwachstellen, US-CERT, stuft traditionelle Großrechner wie IBM Z (früher z Systems, System z und zSeries genannt), Unisys Dorado und Unisys Libra mit Schwachstellen im niedrigen einstelligen Bereich im Vergleich zu Tausenden von Schwachstellen bei Windows, UNIX und Linux als mit am sichersten ein. Software-Upgrades erfordern in der Regel die Einrichtung des Betriebssystems oder von Teilen davon und sind nur dann unterbrechungsfrei, wenn Virtualisierungseinrichtungen wie IBM z/OS und Parallel Sysplex oder Unisys XPCL verwendet werden, die die Aufteilung der Arbeitslast unterstützen, so dass ein System die Anwendung eines anderen übernehmen kann, während sie aktualisiert wird.

In den späten 1950er Jahren verfügten Mainframes nur über eine rudimentäre interaktive Schnittstelle (die Konsole) und nutzten Lochkarten, Papierbänder oder Magnetbänder zur Übertragung von Daten und Programmen. Sie arbeiteten im Stapelbetrieb, um Back-Office-Funktionen wie Gehaltsabrechnung und Kundenfakturierung zu unterstützen, die zumeist auf wiederholten bandbasierten Sortier- und Zusammenführungsvorgängen mit anschließendem Zeilendruck auf vorgedrucktem Endlospapier beruhten. Als interaktive Benutzerterminals eingeführt wurden, wurden sie fast ausschließlich für Anwendungen (z. B. Fluglinienbuchungen) und nicht für die Programmentwicklung verwendet. Schreibmaschinen- und Fernschreibgeräte waren bis Anfang der 1970er Jahre gängige Steuerkonsolen für Systembetreiber, wurden aber schließlich durch Tastatur-/Display-Geräte verdrängt.

Anfang der 1970er Jahre wurden viele Großrechner mit interaktiven Benutzerterminals ausgestattet, die als Timesharing-Computer arbeiteten und Hunderte von Benutzern gleichzeitig sowie die Stapelverarbeitung unterstützten. Die Benutzer erhielten Zugang über Tastatur-/Schreibmaschinen-Terminals und spezielle Textterminal-Röhrenbildschirme mit integrierten Tastaturen oder später über Personalcomputer, die mit Terminalemulationssoftware ausgestattet waren. In den 1980er Jahren unterstützten viele Mainframes zwar Grafikterminals und Terminalemulation, aber keine grafischen Benutzeroberflächen. Diese Form des Endbenutzer-Computings wurde in den 1990er Jahren durch das Aufkommen von Personalcomputern mit grafischen Benutzeroberflächen obsolet. Nach dem Jahr 2000 haben moderne Mainframes den klassischen "Green Screen"- und Farbbildschirmterminal-Zugang für Endbenutzer teilweise oder ganz zugunsten von Web-Benutzeroberflächen aufgegeben.

Die Anforderungen an die Infrastruktur wurden Mitte der 1990er Jahre drastisch gesenkt, als CMOS-Großrechner die ältere bipolare Technologie ersetzten. IBM behauptete, dass seine neueren Mainframes die Energiekosten für Strom und Kühlung in Rechenzentren senken und den Platzbedarf im Vergleich zu Serverfarmen verringern.

Merkmale

Das Innere eines IBM System z9-Großrechners

Moderne Mainframes können mehrere verschiedene Instanzen von Betriebssystemen gleichzeitig ausführen. Mit dieser Technik der virtuellen Maschinen können Anwendungen so ausgeführt werden, als befänden sie sich auf physisch getrennten Computern. In dieser Rolle kann ein einziger Mainframe höherfunktionale Hardware-Dienste ersetzen, die herkömmlichen Servern zur Verfügung stehen. Mainframes waren zwar die Vorreiter dieser Fähigkeit, doch ist die Virtualisierung heute auf den meisten Computersystemfamilien verfügbar, wenn auch nicht immer in gleichem Maße oder auf gleichem Niveau.

Mainframes können Systemkapazität hinzufügen oder im laufenden Betrieb austauschen, ohne die Systemfunktion zu unterbrechen, und zwar mit einer Spezifität und Granularität, die bei den meisten Serverlösungen nicht möglich ist. Moderne Mainframes, insbesondere die IBM zSeries-, System z9- und System z10-Server, bieten zwei Virtualisierungsebenen: logische Partitionen (LPARs, über die PR/SM-Funktion) und virtuelle Maschinen (über das z/VM-Betriebssystem). Viele Mainframe-Kunden betreiben zwei Maschinen: eine in ihrem primären Rechenzentrum und eine in ihrem Backup-Rechenzentrum - voll aktiv, teilweise aktiv oder auf Standby - für den Fall, dass das erste Gebäude von einer Katastrophe betroffen ist. Test-, Entwicklungs-, Schulungs- und Produktionsworkloads für Anwendungen und Datenbanken können auf einem einzigen Rechner ausgeführt werden, außer bei extrem hohen Anforderungen, bei denen die Kapazität eines Rechners begrenzt sein könnte. Eine solche Zwei-Mainframe-Installation kann einen kontinuierlichen Geschäftsbetrieb unterstützen und sowohl geplante als auch ungeplante Ausfälle vermeiden. In der Praxis setzen viele Kunden mehrere Mainframes ein, die entweder über Parallel Sysplex und gemeinsam genutzte DASD (im Falle von IBM) oder über gemeinsam genutzte, geografisch verteilte Speicher von EMC oder Hitachi verbunden sind.

Mainframes sind für die Verarbeitung sehr hoher Ein- und Ausgabevolumen (E/A) ausgelegt und legen den Schwerpunkt auf die Durchsatzberechnung. Seit den späten 1950er Jahren werden Mainframes mit Zusatzhardware (so genannte Kanäle oder periphere Prozessoren) ausgestattet, die die E/A-Geräte verwalten, so dass die CPU nur mit dem Hochgeschwindigkeitsspeicher arbeiten muss. In Großrechnersystemen ist es üblich, mit umfangreichen Datenbanken und Dateien zu arbeiten. Gigabyte- bis Terabyte-große Datensätze sind keine Seltenheit. Im Vergleich zu einem typischen PC verfügen Mainframes in der Regel über die hundert- bis tausendfache Menge an Online-Datenspeicher, auf den sie relativ schnell zugreifen können. Andere Serverfamilien verlagern auch die E/A-Verarbeitung und legen den Schwerpunkt auf Durchsatzberechnungen.

Die Investitionsrentabilität (ROI) von Mainframes hängt wie bei allen anderen Computerplattformen von der Skalierbarkeit, der Unterstützung gemischter Arbeitslasten, der Senkung der Arbeitskosten, der Bereitstellung unterbrechungsfreier Dienste für kritische Geschäftsanwendungen und verschiedenen anderen risikobereinigten Kostenfaktoren ab.

Mainframes verfügen auch über Ausführungsintegritätsmerkmale für fehlertolerantes Computing. So führen z900-, z990-, System z9- und System z10-Server ergebnisorientierte Befehle zweimal aus, vergleichen die Ergebnisse, gleichen etwaige Unterschiede aus (durch Befehlswiederholung und Fehlerisolierung) und verlagern dann Arbeitslasten "im Flug" auf funktionierende Prozessoren, einschließlich Ersatzprozessoren, ohne Auswirkungen auf Betriebssysteme, Anwendungen oder Benutzer. Diese Funktion auf Hardwareebene, die auch in den NonStop-Systemen von HP zu finden ist, wird als Lock-Stepping bezeichnet, da beide Prozessoren ihre "Schritte" (d. h. Anweisungen) gemeinsam ausführen. Nicht alle Anwendungen benötigen unbedingt die gesicherte Integrität, die diese Systeme bieten, aber viele schon, z. B. die Verarbeitung von Finanztransaktionen.

Aktueller Markt

IBM ist mit z Systems weiterhin ein wichtiger Hersteller auf dem Mainframe-Markt. Im Jahr 2000 hat Hitachi die zSeries z900 gemeinsam mit IBM entwickelt, um die Kosten zu teilen, und die neuesten Hitachi AP10000-Modelle werden von IBM hergestellt. Unisys stellt ClearPath Libra Mainframes her, die auf früheren Burroughs MCP-Produkten basieren, und ClearPath Dorado Mainframes, die auf Sperry Univac OS 1100 Produktlinien basieren. Hewlett-Packard vertreibt seine einzigartigen NonStop-Systeme, die es mit Tandem Computers erworben hat und die von einigen Analysten als Mainframes eingestuft werden. Groupe Bulls GCOS, Stratus OpenVOS, Fujitsu (ehemals Siemens) BS2000 und Fujitsu-ICL VME-Mainframes sind in Europa noch erhältlich, und Fujitsu (ehemals Amdahl) GS21-Mainframes weltweit. NEC mit ACOS und Hitachi mit AP10000-VOS3 unterhalten weiterhin Mainframe-Geschäfte auf dem japanischen Markt.

Der Umfang der Investitionen der Anbieter in die Mainframe-Entwicklung variiert mit dem Marktanteil. Sowohl Fujitsu als auch Hitachi verwenden weiterhin kundenspezifische S/390-kompatible Prozessoren sowie andere CPUs (einschließlich POWER und Xeon) für Systeme im unteren Segment. Bull verwendet eine Mischung aus Itanium- und Xeon-Prozessoren. NEC verwendet Xeon-Prozessoren für seine ACOS-2-Linie im unteren Preissegment, entwickelt aber den kundenspezifischen NOAH-6-Prozessor für seine ACOS-4-Serie im oberen Preissegment. IBM entwickelt ebenfalls kundenspezifische Prozessoren im eigenen Haus, wie den zEC12. Unisys stellt codekompatible Mainframe-Systeme her, die von Laptops bis hin zu schrankgroßen Mainframes reichen und sowohl selbst entwickelte CPUs als auch Xeon-Prozessoren verwenden. Außerdem gibt es einen Markt für Softwareanwendungen zur Verwaltung der Leistung von Mainframe-Implementierungen. Zu den wichtigsten Wettbewerbern auf dem Markt gehören neben IBM BMC, Maintec Technologies, Compuware und CA Technologies. Seit den 2010er Jahren ist das Cloud Computing eine kostengünstigere, besser skalierbare Alternative, die gemeinhin als Big Data bezeichnet wird.

  • AEG-Telefunken
  • Amdahl Corporation (1997 übernommen durch Fujitsu)
  • Bull/NEC für GCOS-/ACOS-basierte Mainframes
  • Control Data Corporation
  • Cray (größtenteils Supercomputer)
  • EMC
  • Hitachi
  • IBM
  • ICL (übernommen durch Fujitsu)
  • Fujitsu Technology Solutions
  • Unisys
  • Sun Microsystems (übernommen durch Oracle)
  • Robotron/ESER (historisch)

Geschichte

Bedienerkonsole für eine IBM 701

Mehrere Hersteller und ihre Nachfolger produzierten Großrechner von den 1950er Jahren bis ins frühe 21. Jahrhundert, wobei die Stückzahlen allmählich zurückgingen und ein allmählicher Übergang zur Simulation auf Intel-Chips anstelle proprietärer Hardware erfolgte. Die US-amerikanische Herstellergruppe war zunächst als "IBM und die sieben Zwerge" bekannt: in der Regel Burroughs, UNIVAC, NCR, Control Data, Honeywell, General Electric und RCA, obwohl die Listen teilweise variierten. Später, nach dem Ausscheiden von General Electric und RCA, sprach man von "IBM und der BUNCH". Die Vorherrschaft von IBM wurde durch die 700/7000er Serie und später durch die Entwicklung der 360er Mainframes begründet. Die letztgenannte Architektur hat sich zu den aktuellen zSeries-Mainframes weiterentwickelt, die zusammen mit den MCP-basierten und OS1100-Mainframes von Burroughs und Sperry (heute Unisys) zu den wenigen noch existierenden Mainframe-Architekturen gehören, die ihre Wurzeln in dieser frühen Zeit haben. Während die zSeries von IBM noch 24-Bit-System/360-Code ausführen kann, haben die 64-Bit-zSeries und die System z9 CMOS-Server physisch nichts mit den älteren Systemen gemein. Nennenswerte Hersteller außerhalb der USA waren Siemens und Telefunken in Deutschland, ICL im Vereinigten Königreich, Olivetti in Italien sowie Fujitsu, Hitachi, Oki und NEC in Japan. Die Sowjetunion und die Länder des Warschauer Paktes stellten während des Kalten Krieges enge Kopien von IBM-Großrechnern her; die BESM-Serie und Strela sind Beispiele für einen unabhängig entwickelten sowjetischen Computer.

Die schrumpfende Nachfrage und der harte Wettbewerb führten Anfang der 70er Jahre zu einer Marktbereinigung - RCA verkaufte an UNIVAC und GE verkaufte sein Geschäft an Honeywell; zwischen 1986 und 1990 wurde Honeywell von Bull aufgekauft; UNIVAC wurde eine Abteilung von Sperry, die später mit Burroughs fusionierte und 1986 die Unisys Corporation bildete.

Im Jahr 1984 überstieg der geschätzte Umsatz mit Desktop-Computern (11,6 Mrd. $) erstmals den mit Großrechnern (11,4 Mrd. $). IBM erhielt den überwiegenden Teil der Großrechnereinnahmen. In den 1980er Jahren wurden die auf Minicomputern basierenden Systeme immer ausgereifter und konnten das untere Ende der Großrechner verdrängen. Diese Computer, manchmal auch als Abteilungscomputer bezeichnet, wurden durch die VAX-Serie der Digital Equipment Corporation verkörpert.

1991 übernahm die AT&T Corporation kurzzeitig NCR. Im gleichen Zeitraum entdeckten die Unternehmen, dass Server, die auf Mikrocomputern basierten, zu einem Bruchteil des Anschaffungspreises eingesetzt werden konnten und den lokalen Benutzern angesichts der damaligen IT-Politik und -Verfahren eine viel größere Kontrolle über ihre eigenen Systeme boten. Die für die Interaktion mit Großrechnersystemen verwendeten Terminals wurden nach und nach durch Personalcomputer ersetzt. Infolgedessen ging die Nachfrage stark zurück, und neue Mainframe-Installationen beschränkten sich hauptsächlich auf Finanzdienstleistungen und Behörden. Anfang der 90er Jahre herrschte unter den Branchenanalysten ein grober Konsens darüber, dass der Mainframe ein aussterbender Markt sei, da Mainframe-Plattformen zunehmend durch Personal-Computer-Netzwerke ersetzt würden. Stewart Alsop von InfoWorld prophezeite bekanntermaßen, dass der letzte Mainframe 1996 den Stecker ziehen würde; 1993 zitierte er Cheryl Currid, eine Analystin der Computerindustrie, mit der Aussage, dass der letzte Mainframe "am 31. Dezember 1999 aufhören wird zu arbeiten", eine Anspielung auf das erwartete Jahr-2000-Problem (Y2K).

Dieser Trend begann sich in den späten 90er Jahren umzukehren, als die Unternehmen neue Verwendungsmöglichkeiten für ihre vorhandenen Großrechner fanden und die Preise für Datennetze in den meisten Teilen der Welt fielen, was den Trend zu einer stärker zentralisierten Datenverarbeitung förderte. Mit dem Wachstum des elektronischen Geschäftsverkehrs stieg auch die Zahl der von der Mainframe-Software verarbeiteten Back-End-Transaktionen sowie die Größe und der Durchsatz der Datenbanken drastisch an. Die Batch-Verarbeitung, wie z. B. die Fakturierung, wurde mit dem Wachstum des elektronischen Geschäftsverkehrs noch wichtiger (und größer), und Mainframes eignen sich besonders gut für das Batch-Computing in großem Maßstab. Ein weiterer Faktor für die zunehmende Nutzung von Großrechnern ist die Entwicklung des Linux-Betriebssystems, das 1999 auf IBM-Großrechnern eingeführt wurde und in der Regel in Gruppen oder auf bis zu 8.000 virtuellen Maschinen auf einem einzigen Großrechner ausgeführt wird. Linux ermöglicht es den Benutzern, die Vorteile von Open-Source-Software in Kombination mit Mainframe-Hardware-RAS zu nutzen. Die rasche Expansion und Entwicklung in den Schwellenländern, insbesondere in der Volksrepublik China, spornt auch zu umfangreichen Mainframe-Investitionen an, um außergewöhnlich schwierige Rechenprobleme zu lösen, z. B. die Bereitstellung einheitlicher, extrem umfangreicher Online-Transaktionsverarbeitungsdatenbanken für 1 Milliarde Verbraucher in verschiedenen Branchen (Banken, Versicherungen, Kreditauskunft, Behördendienste usw.). Ende 2000 führte IBM die 64-Bit z/Architektur ein, erwarb zahlreiche Softwareunternehmen wie Cognos und führte diese Softwareprodukte auf dem Mainframe ein. In den Quartals- und Jahresberichten von IBM in den 2000er Jahren wurden in der Regel steigende Mainframe-Einnahmen und Kapazitätsauslieferungen gemeldet. Das Mainframe-Hardware-Geschäft von IBM war jedoch nicht immun gegen den jüngsten allgemeinen Abschwung auf dem Server-Hardware-Markt oder gegen Modellzyklus-Effekte. Im 4. Quartal 2009 gingen beispielsweise die IBM System z-Hardwareumsätze im Vergleich zum Vorjahr um 27 % zurück. Die MIPS-Auslieferungen (Millionen Instruktionen pro Sekunde) stiegen jedoch in den letzten zwei Jahren um 4 % pro Jahr. Alsop ließ sich im Jahr 2000 fotografieren, als er symbolisch seine eigenen Worte aß ("Tod des Mainframes").

Im Jahr 2012 schaltete die NASA ihren letzten Großrechner, ein IBM System z9, ab. Das Nachfolgemodell des z9, der z10, veranlasste jedoch einen Reporter der New York Times vier Jahre zuvor zu der Feststellung, dass die Mainframe-Technologie - Hardware, Software und Dienstleistungen - nach wie vor ein großes und lukratives Geschäft für I.B.M. ist und Mainframes nach wie vor die Back-Office-Motoren der weltweiten Finanzmärkte und eines Großteils des globalen Handels sind". Im Jahr 2010 machte die Mainframe-Technologie zwar weniger als 3 % des IBM-Umsatzes aus, spielte aber weiterhin eine überragende Rolle in den Ergebnissen von Big Blue".

Im Jahr 2015 brachte IBM den IBM z13 auf den Markt, im Juni 2017 den IBM z14, im September 2019 den IBM z15 und am 5. April 2022 kündigte IBM sein neuestes Mainframe-System an, den IBM z16, der unter anderem einen "integrierten On-Chip-KI-Beschleuniger" und den neuen Telum-Mikroprozessor enthält.

Röhrencomputer stellten die erste Generation dar und lösten hauptsächlich militärische Aufgaben. Darauf folgende Großrechner hielten mit der Erfindung des Transistors Mitte der 1950er-Jahre zunächst hauptsächlich in Forschungseinrichtungen Einzug, etwa zur Lösung von Differentialgleichungen. Dort beanspruchten sie meist einen ganzen Raum für sich alleine, der klimatisiert werden musste, um der Hitzeentwicklung der Geräte entgegenzuwirken.

Beim Personal wurde unterschieden zwischen den Programmierern und den Operatoren. Letztere bedienten die Rechenanlage: Sie fütterten die Lochkartenleser, holten nach Anweisung des Konsolendruckers/-fernschreibers gewünschte Magnetbänder herbei und legten sie ein und brachten sie später wieder zurück, fütterten Drucker und Lochstreifenstanzer mit Papier und entnahmen produzierte Medien. Das konnte mehrere Personen gleichzeitig auslasten.

Diese Funktionsweise wurde als Batch- oder Stapelverarbeitung bezeichnet. Die Arbeitsabläufe waren damals beispielsweise wie folgt: Ein Operator brachte auf Lochkarten gestanzte Rechenaufgaben zu einem separaten Gerät, welches die Lochkarten einlas und die Daten auf einem Magnetband speicherte. Ein anderer Operator brachte dieses Magnetband zum eigentlichen Großrechner, der das Magnetband abarbeitete und die Ausgabe auf einem anderen Magnetband speicherte. Ein weiterer Operator brachte das Magnetband mit den Ergebnissen zu einem Drucker, welcher die Daten vom Magnetband auf Papier übertrug.

Mitte der 1960er-Jahre wurde das so genannte Multiprogramming (Mehrprogrammbetrieb) eingeführt. Man hatte festgestellt, dass zuvor die CPU selbst einen großen Teil der Zeit nicht benutzt wurde, da sie auf Ein- und Ausgabeoperationen der Bänder warten musste, bis sie ihren nächsten Auftrag abarbeiten konnte. Daher teilte man den Hauptspeicher in Teilbereiche auf und konnte so mehrere Bänder gleichzeitig bearbeiten.

Zu dieser Zeit hatten die meisten Computerhersteller zwei Systeme entwickelt:

  • wortorientierte Großrechner für den technisch-wissenschaftlichen Bereich
  • zeichenorientierte Großrechner für den kommerziellen Bereich

IBM vereinte als erster Hersteller beide Anwendungsbereiche in dem Betriebssystem OS/360.

Seit einigen Jahren versuchen auch Hersteller wie Sun oder Hewlett-Packard (mit dem „Superdome“), mit speziellen Systemen auf UNIX-Basis im Marktsegment von Großrechnern erfolgreich zu sein.

Seit 2007 werden Mainframes auch im Bereich der Online-Spiele eingesetzt. Hierbei steht vor allem der sehr hohe Datendurchsatz der Großrechner im Vordergrund – die nötige Rechenleistung zur Erzeugung des Spielflusses wird hingegen von dedizierten Servern erbracht. Die so resultierende Kombination wird auch als Gameframe bezeichnet.

Unterschiede zu Supercomputern

Ein Supercomputer ist ein Computer, der in Bezug auf die Rechengeschwindigkeit an der Spitze der Datenverarbeitungsmöglichkeiten steht. Supercomputer werden für wissenschaftliche und technische Probleme (High-Performance Computing) eingesetzt, die Zahlen und Daten verarbeiten, während Mainframes sich auf die Verarbeitung von Transaktionen konzentrieren. Die Unterschiede sind:

  • Mainframes sind so gebaut, dass sie für die Transaktionsverarbeitung (gemessen mit TPC-Metriken; für die meisten Supercomputing-Anwendungen nicht hilfreich), wie sie in der Geschäftswelt allgemein verstanden wird, zuverlässig sind: der kommerzielle Austausch von Waren, Dienstleistungen oder Geld. Eine typische Transaktion, wie sie vom Transaction Processing Performance Council definiert wird, aktualisiert ein Datenbanksystem für die Bestandskontrolle (Waren), Flugreservierungen (Dienstleistungen) oder Bankgeschäfte (Geld) durch Hinzufügen eines Datensatzes. Eine Transaktion kann sich auf eine Reihe von Operationen beziehen, darunter Lese- und Schreibvorgänge auf der Festplatte, Betriebssystemaufrufe oder irgendeine Form der Datenübertragung von einem Subsystem zu einem anderen, die nicht an der Verarbeitungsgeschwindigkeit der CPU gemessen wird. Die Transaktionsverarbeitung ist nicht auf Mainframes beschränkt, sondern wird auch von mikroprozessorbasierten Servern und Online-Netzwerken genutzt.
  • Die Leistung von Supercomputern wird in Fließkommaoperationen pro Sekunde (FLOPS) oder in überquerten Kanten pro Sekunde (TEPS) gemessen, Messgrößen, die für Mainframe-Anwendungen nicht sehr aussagekräftig sind, während Mainframes manchmal in Millionen von Anweisungen pro Sekunde (MIPS) gemessen werden, wobei die Definition vom gemessenen Anweisungsmix abhängt. Beispiele für Integer-Operationen, die mit MIPS gemessen werden, sind das Addieren von Zahlen, das Überprüfen von Werten oder das Verschieben von Daten im Speicher (während das Verschieben von Informationen in den und aus dem Speicher, die so genannte E/A, für Mainframes am hilfreichsten ist; und innerhalb des Speichers hilft sie nur indirekt). Bei Gleitkommaoperationen handelt es sich meist um Addition, Subtraktion und Multiplikation (von binären Gleitkommazahlen in Supercomputern; gemessen in FLOPS) mit ausreichender Genauigkeit, um kontinuierliche Phänomene wie Wettervorhersagen und Nuklearsimulationen zu modellieren (erst seit kurzem sind standardisierte dezimale Gleitkommazahlen, die in Supercomputern nicht verwendet werden, für monetäre Werte geeignet, wie sie für Mainframe-Anwendungen nützlich sind). In Bezug auf die Rechengeschwindigkeit sind Supercomputer leistungsfähiger.

Großrechner und Supercomputer sind nicht immer klar voneinander zu unterscheiden; bis Anfang der 1990er Jahre basierten viele Supercomputer auf einer Großrechnerarchitektur mit Supercomputererweiterungen. Ein Beispiel für ein solches System ist der HITAC S-3800, der mit dem Befehlssatz von IBM System/370-Mainframes kompatibel war und auf dem das Hitachi-Betriebssystem VOS3 (ein Fork von IBM MVS) laufen konnte. Der S-3800 ist also sowohl ein Supercomputer als auch ein IBM-kompatibler Großrechner.

Im Jahr 2007 führte eine Verschmelzung der verschiedenen Technologien und Architekturen für Supercomputer und Mainframes zu einem so genannten Gameframe.

Eigenschaften

In einem Großrechner sind aufeinander abgestimmte, robuste und hochgradig redundante Komponenten verbaut. Üblicherweise wird die Wartung dieser Rechner im laufenden Betrieb durchgeführt, auch Hardwareaustausch und Aufrüstungen führen zu keiner Beeinträchtigung oder gar Unterbrechung des Betriebs.

Ein Großrechner zeichnet sich vor allem durch seine Zuverlässigkeit und hohe Ein-Ausgabe-Leistung aus. Er kann im Online-Betrieb (Time Sharing) eine große Anzahl von Benutzern bedienen, im Batch-Betrieb aber auch komplizierte und aufwendige Aufgaben durchführen. Die Benutzer erhalten beim Online-Betrieb Zugang zu einem Großrechner über Computer-Terminals. Seit sich Personal Computer (PCs) durchgesetzt haben, werden solche Terminals meistens durch entsprechende Emulationen auf den PCs ersetzt.

Anwendungsbereich

Im Gegensatz zu Supercomputern, die auf hohe Rechenleistungen hin entwickelt werden, ist ein Großrechner auf Zuverlässigkeit und hohen Datendurchsatz ausgelegt. Die typischen Anwendungen eines Großrechners sind in Banken, Versicherungen, großen Unternehmen und in der öffentlichen Verwaltung gegeben. Ein relativ neues Einsatzgebiet für Großrechner stellt die Konsolidierung von Serverfarmen dar. Mit einem Großrechner und einem entsprechenden Betriebssystem ist es dabei möglich, viele virtuelle Server zu starten. So können Platz und Strom gespart und die Administration vereinfacht werden.

Für viele Aufgaben, bei denen erhöhte Zuverlässigkeit notwendig, ein Großrechner jedoch überdimensioniert oder technisch ungeeignet ist, wird auch sogenannte Mittlere Datentechnik benutzt, zum Beispiel auf der Basis von OS/400, VMS, UNIX und immer öfter auch Linux.

Eingesetzte Betriebssysteme

Auf Großrechnern wird als Betriebssystem unter anderem z/OS (inklusive USS), z/VM, z/VSE, Unicos, OS/360, OS/390, BS 3, BS2000, NOS, NOS/BE, Multics, KRONOS, Linux, MVS, Scope, TPF, UNIVAC 1100/2200, CMS, GCOS oder AIX (LPAR_Betrieb) eingesetzt.

Liste früher Großrechner

Computermodell Land Inbetriebnahme Gleitkomma-
arithmetik
Binär Elektronisch Programmierbar Turingmächtig
Zuse Z3 Deutschland Mai 1941 Ja Ja Ja Ja, mittels Lochstreifen Ja, ohne Praxis­nutzen
Atanasoff-Berry-Computer USA Sommer 1941 Nein Ja Ja Nein Nein
Colossus UK 1943 Nein Ja Ja Teilweise, durch Neu­ver­kabelung Nein
Mark I USA 1944 Nein Nein Nein Ja, mittels Lochstreifen Ja
Zuse Z4 Deutschland März 1945 Ja Ja Ja Ja, mittels Lochstreifen Ja, ohne Praxis­nutzen
um 1950 Ja Ja Ja Ja, mittels Lochstreifen Ja
ENIAC USA 1946 Nein Nein Ja Teilweise, durch Neu­ver­kabelung Ja
1948 Nein Nein Ja Ja, mittels Wider­stands­matrix Ja
Mark I, rechtes Segment