Neubeschaffung eines Rechnersystems für numerisch intensive Aufgaben

von Peter Marksteiner (Ausgabe 94/2, September 1994)

 

Ein wichtiges Aufgabengebiet des EDV-Zentrums ist die Betreuung von numerisch intensiven Applikationen. Die Benutzer solcher Anwendungen an der Universität Wien sind fast ausschließlich im Bereich der Naturwissenschaften zu finden - hauptsächlich in der Physik und der Chemie: Quantenchemie, Molekulardynamik, Festkörperphysik, klassische Dynamik und Astrophysik gehören zu den Fachgebieten, deren numerische Berechnungen und Simulationen sehr große Mengen an Rechenzeit und anderen Rechnerressourcen erfordern.

Vor über fünf Jahren wurde - primär für numerisch intensive Anwendungen - ein Vektorrechner des Typs IBM 3090-400E VF am EDV-Zentrum installiert. Dieses Ereignis wurde damals zu Recht als Einstieg Österreichs ins Supercomputer-Zeitalter gefeiert. Ein Großteil des Comment vom Oktober 1989 war dem neuen Rechner gewidmet und befaßte sich mit Themen wie "Supercomputer", "Numerisch intensives Computing", "Vektorisierung" usw. Allerdings hat in den letzten fünf Jahren eine stürmische Entwicklung stattgefunden, sodaß heute Benutzer numerisch intensiver Anwendungen vor einer völlig anderen Situation stehen:

  • Motor dieser Entwicklung ist die "RISC Revolution": Aufgrund rasanter Fortschritte in der Prozessor-Technologie ist es nunmehr möglich, Prozessoren zu bauen, deren Leistung bei einem Bruchteil der Kosten nahe an die Leistung der schnellsten Supercomputer-Prozessoren herankommt.
  • Auch bei numerischen Anwendungen kommt es zu immer größerer Dezentralisierung. In Summe übertrifft die Rechenleistung, die auf dezentralen Workstations (und manchmal sogar auf PCs) erbracht wird, oft die Leistung von zentralen Systemen.
  • Es gibt zwar noch immer einige Applikationen, die auf die schnellsten und teuersten Supercomputer angewiesen sind. Solche Anwendungen werden jedoch immer seltener. Damit verbunden ist auch ein gewisser Prestigeverlust des elitären "Supercomputing", sodaß man heute stattdessen meistens die neutralere Bezeichnung "High-performance Computing" verwendet.
  • Der niedrige Preis von RISC-Prozessoren legt es nahe, mehrere solcher Prozessoren zu koppeln, um die Rechenleistung zu erhöhen: Parallelrechner gewinnen immer mehr an Bedeutung.

Aufgrund dieser Entwicklung hat das EDV-Zentrum im November 1991 zur Befriedigung des ständig steigenden Bedarfes an Rechenleistung nicht nur den Zentralrechner auf eine Sechsprozessor-Anlage des Typs IBM ES/9000- 720 VF ausgebaut, sondern auch den Einstieg in die RISCWelt begonnen: Es wurden 20 Workstations vom Typ IBM RS/6000-550 angeschafft, die damals zu den schnellsten am Markt gehörten. Die meisten dieser Workstations wurden an ausgewählten Instituten aufgestellt, sechs von ihnen wurden zu einem Workstation-Cluster integriert.

Durch dieses Workstation-Projekt wurde nicht nur das Angebot an Rechenleistung drastisch erhöht, es wurden auch wertvolle Erfahrungen im Betrieb solcher Systeme gesammelt, wobei die meisten Erfahrungen durchaus positiv waren. Insbesondere ist es nach anfänglichen Schwierigkeiten gelungen, den Betrieb am Cluster recht stabil und für die Benutzer attraktiv zu machen, trotz des Fehlens geeigneter Werkzeuge zur Administration - Werkzeuge, wie sie etwa auf der Großrechenanlage selbstverständlicherweise zur Verfügung stehen.

In den nächsten Jahren wird das EDV-Zentrum bei der Versorgung mit Rechenleistung für numerisch intensive Anwendungen nach folgenden Prinzipien vorgehen:

  • Grundsätzlich ist und bleibt die Betreuung numerisch intensiver Anwendungen ein wichtiger Aufgabenbereich des EDV-Zentrums. Dies beschränkt sich nicht nur auf die Bereitstellung von Rechenleistung, sondern beinhaltet auch Beratung und Vermittlung von "Know-how".
  • Trotz des anhaltenden Trends zur Dezentralisierung wird das EDV-Zentrum weiterhin ein zentrales System für numerisch intensive Anwendungen betreiben. In beschränktem Ausmaß werden auch Workstations an den Instituten vom EDV-Zentrum betreut; die Aufstellung von Workstations des EDV-Zentrums an Instituten ist jedoch nicht mehr vorgesehen.
  • Es wird angestrebt, Neuanschaffungen in kürzeren Intervallen zu tätigen. Wenn alle fünf Jahre ein neues System angeschafft wird, so hat man unmittelbar nach der Anschaffung einen schnellen Rechner, der auch international konkurrenzfähig ist; nach vier Jahren ist er jedoch hoffnungslos veraltet und kann vermutlich gerade noch mit einem schnellen PC mithalten. Künftig soll alle zwei Jahre ein neues System angeschafft werden.
  • Auch wenn Rechner rasch veralten, so ist ihre sinnvolle Lebensdauer dennoch länger als zwei Jahre. Daher können zwei Systeme gleichzeitig betrieben werden, wenn das Intervall zwischen Neuanschaffungen zwei Jahre beträgt. Dies ermöglicht ein "sanftes" Migrieren auf das jeweils neueste System.
  • Auch in den nächsten Jahren wird es einen Zentralrechner (IBM oder kompatibel) geben. Solange die gegenwärtige Anlage IBM ES/9000-720 VF noch existiert - das ist voraussichtlich bis Ende 1995 - können selbstverständlich wie bisher die Vektoreinrichtungen, das Batchsystem usw. genutzt werden. Ein Nachfolgesystem wird jedoch ausschließlich für die Bedürfnisse der Bibliotheks- und Verwaltungsapplikationen ausgewählt werden und dann für numerisch intensive Anwendungen nicht mehr zur Verfügung stehen.

Nachdem die letzten Neuanschaffungen fast drei Jahre zurückliegen, ist nach den obigen Grundsätzen ein neues System bereits mehr als fällig. Der Workstation-Cluster ist voll ausgelastet - teilweise sogar überlastet -, und es sind bereits Prozessoren auf dem Markt, deren Rechenleistung bei geringerem Preis etwa das Dreifache eines RS/6000-550-Prozessors beträgt.

Die Vorbereitungen für die Anschaffung eines neuen Systems sind bereits in vollem Gange: Nach den neuen Vergaberichtlinien des Bundes muß bei Ausgaben dieser Größenordnung eine EU-weite Ausschreibung durchgeführt werden. Wenn keine Verzögerungen auftreten, kann die Bewertung der Angebote noch im vierten Quartal 1994 abgeschlossen werden, sodaß der neue Rechner im ersten Quartal 1995 den Betrieb aufnehmen kann.

Wie wird nun dieser neue Rechner aussehen? Obwohl der Trend im Supercomputing immer mehr in Richtung Parallelrechner geht, gibt es schwerwiegende Bedenken gegen einen dedizierten Parallelrechner:

  • Die Parallelrechner-Technologie ist noch nicht so ausgereift, daß sie einen stabilen Produktionsbetrieb garantieren könnte. Hierbei liegen die Mängel eher im Bereich der Software als im Bereich der Hardware. Automatisch parallelisierende Compiler halten in den seltensten Fällen, was sie versprechen, und auch andere Werkzeuge zur Parallelisierung lassen viel zu wünschen übrig.
  • Manche Anwendungen sind von Natur aus sehr leicht parallelisierbar, andere schwer oder überhaupt nicht. Benutzer mit nicht parallelisierbaren Applikationen sind somit gegenüber anderen schwer benachteiligt.
  • Ein Engpaß bei vielen parallelen Systemen ist die Kommunikation zwischen den Prozessoren. Dieser Engpaß läßt sich zwar durch den Einsatz schneller Koppelnetzwerke beseitigen, jedoch sind diese so teuer, daß ein solcher Parallelrechner kaum billiger ist als ein konventioneller Vektorrechner mit vergleichbarer Leistung.
  • Eine einzelne zeitkritische Applikation (z.B. Wettervorhersage) auf einem dedizierten Rechner kann man oft durch Parallelisieren erheblich beschleunigen. Es ist jedoch weit schwieriger, gleichzeitig verschiedenartige parallele Anwendungen unabhängiger Benutzergruppen sinnvoll durchzuführen.

Aus diesen Gründen wurde bei der Ausschreibung keine besondere Rechnerarchitektur festgelegt. Das Hauptkriterium, nach dem die Angebote beurteilt werden, ist die Durchsatzleistung. Der größte Teil des Durchsatzes soll in Form von seriellen Batchjobs erbracht werden. Es ist auch geplant, parallele Batchjobs zu unterstützen; die Unterstützung von Parallelverarbeitung (Software- Werkzeuge, Kommunikationsgeschwindigkeit usw.) ist jedoch ein sekundäres Kriterium bei der Auswahl des Rechners. Es kommen also verschiedenartige Architekturen in Frage. Zu den aussichtsreichsten Kandidaten gehören die folgenden:

Workstation-Cluster

Es wird eine große Zahl an einzelnen Workstations beschafft, und diese werden - sei es vom EDV-Zentrum, vom Anbieter oder von einem Dritten - zu einem Cluster integriert. Der Vorteil dieser Lösung ist das günstige Preis-Leistungs-Verhältnis; der größte Nachteil ist, daß ein solcher Cluster sehr umständlich und aufwendig zu administrieren ist.

"Distributed-memory"-Multiprozessoren

Von etlichen Herstellern werden Systeme angeboten, bei denen mehrere Workstation-Prozessoren zu einem Gesamtsystem integriert sind. Ein solches System kann man durchaus in ähnlicher Weise wie einen Workstation- Cluster betreiben, aufgrund der besseren Integration ist die Administration jedoch wesentlich einfacher. Selbstverständlich ist diese Integration nicht kostenlos, deshalb ist das Preis-Leistungs-Verhältnis meist etwas ungünstiger als bei Einzelworkstations.

Symmetrische Multiprozessoren

Diese Systeme kommen den klassischen Mainframe- Architekturen am nächsten. Mehrere Einzelprozessoren (sehr schnelle RISC-Prozessoren oder Vektorprozessoren) greifen alle auf einen gemeinsamen Hauptspeicher zu, wobei alle Prozessoren gleichberechtigt sind und keiner irgendwie ausgezeichnet ist - daher "symmetrisch". Systemverwaltung und Lastausgleich sind hier äußerst einfach. Die Kommunikation zwischen den Prozessoren erfolgt über den gemeinsamen Speicher und ist sehr schnell und effizient: Auch "feinkörnige" (fine-grained) Parallelisierung ist auf solchen Systemen möglich, während bei Systemen mit verteiltem Speicher meist nur "grobkörnige" (coarse-grained) Parallelisierung sinnvoll ist. Diese Vorteile mögen durchaus den höheren Preis rechtfertigen, den man für solche Systeme meistens bezahlen muß.

Unabhängig davon, welcher Rechner nun angeschafft werden wird: Es ist zu erwarten, daß die Durchsatzleistung des neuen Systems mindestens das Zehn- bis Zwanzigfache der Leistung des RS/6000-Clusters beträgt, und das EDV-Zentrum wird sich nach Kräften bemühen, auch auf dem neuen System einen stabilen Produktionsbetrieb aufrechtzuerhalten.