Die Rechenanlage Physik

(Ausgabe 94/3, Dezember 1994)

 

Während die im Comment 94/2 vorgestellte Rechenanlage Biochemie eine relativ junge Außenstelle des EDV-Zentrums ist, hat die Rechenanlage Physik eine lange Geschichte: Seit mehr als 20 Jahren steht diese Einrichtung den 15 Instituten aus den Bereichen Mathematik, Physik und Chemie im Gebäudekomplex Währinger Straße/Boltzmanngasse/Strudlhofgasse zur Verfügung. Auch einige Exposituren dieser bzw. verwandter Institute in benachbarten Gebäuden werden von der Außenstelle betreut. Die wichtigsten Aufgabenbereiche der Rechenanlage Physik sind:

  • das Betreiben von allgemein verfügbaren Rechnersystemen sowie die Beratung der lokalen Benutzer,
  • die Bereitstellung von Arbeitsplätzen und speziellen Geräten in einem Benutzerraum,
  • die Betreuung des lokalen Gebäudenetzwerks und
  • universitätsweite Unterstützung für Betreiber von DEC-Rechnern.

Rechnersysteme: Von den Anfängen ...

Am 23. Dezember 1970 wurde - aufgrund eines gemeinsamen Ansuchens der damaligen "Ständigen Kommission Physik", der zehn physikalische Lehrkanzeln angehörten - ein Digitalrechner PDP15/30 der Firma Digital Equipment Corporation (DEC) angeschafft. Dieser Ankauf wurde von der Österreichischen Nationalbank finanziert. Der Rechner besaß stolze 24 kWort (à 18 Bit) Kernspeicher, die in der damals üblichen Ringkerntechnik gefertigt waren. Dazu kamen noch 3 Magnetbandstationen mit 324 kB Kapazität, Lochstreifenleser und -stanzer, ein Speicherdisplay und eine Teletype (=Fernschreiber) als Konsole. Dieser Rechner wurde zur Prozeßsteuerung und Online-Datenerfassung bei verschiedenen physikalischen Experimenten, aber auch zur Datenauswertung und für allgemeine Berechnungen verwendet.

In den folgenden Jahren wurden zusätzlich zwei PDP11-Rechner angeschafft, die unter anderem als Terminalkonzentrator zum damaligen Großrechner an der TU Wien dienten. Ab 1980 wurden dann die Prozeßsteuerungsaufgaben auf Vorschaltrechner ausgelagert. Im Dezember 1982 wurde mit der Anschaffung eines DEC-Minicomputers VAX11/750 mit 3 MB Hauptspeicher und entsprechender Peripherie eine große Verbesserung der Verarbeitungsmöglichkeiten erreicht. Dieser Rechner war für die nächsten 10 Jahre Kern des gesamten lokalen Netzes, das sich in dieser Zeit über den Gebäudekomplex Währinger Straße/Boltzmanngasse/Strudlhofgasse ausdehnte und damit auch das Institut für Mathematik sowie die chemischen Institute in diesen Häusern versorgte.

In den späten 80er Jahren wurden drei MicroVAX-Systeme angeschafft, die unter dem Betriebssystem VAX/VMS zu einem "Local Area VAX Cluster" (LAVC), einem durch das Ethernet eng gekoppelten Rechnerverbund, verschmolzen wurden. Die Hardware der "Prozeßrechenanlage Physik" (wie sie bis vor kurzem genannt wurde) bestand somit im Dezember 1990 aus einem LAVC mit 4 Rechnern und 96 asynchronen Terminalanschlüssen, einer Ultrix-Workstation, die damals bereits das Internet-Nameservice stellte, und einem Ethernet-Netzwerk mit 8 Thin-Wire-Segmenten.

... zur aktuellen Ausstattung

Die Rechenanlage Physik betreibt traditionell Rechner der Firma Digital Equipment Corporation (DEC). Diese Rechner - vor allem die Computer der VAX-Serie unter dem Betriebssystem VMS - waren im naturwissenschaftlichen Bereich sehr verbreitet. Dementsprechend gab und gibt es zahlreiche Programme, die für diese Rechnerplattform zugeschnitten sind. Da in den letzten Jahren in den Naturwissenschaften ein starker Trend zu Unix-Systemen zu verzeichnen ist, bietet die Rechenanlage Physik nun auch Rechner mit diesem Betriebssystem an. Die Rechnersysteme der Außenstelle stehen generell allen Universitätsinstituten zur Verfügung.

Der VMS-Cluster APAP

Die VAX11/750 wurde im Frühjahr 1992 durch eine VAX4500 abgelöst. Im vergangenen Jahr konnte die Leistung des Clusters durch die Anschaffung einer Alpha-Workstation nochmals wesentlich erweitert werden - damit sind nun zwei Hardware-Architekturen unter einem Betriebssystem (OpenVMS) vereint. Der Hersteller DEC nennt diese Konstruktion "Mixed Architecture OpenVMS Cluster" oder kurz "VMS-Cluster".

Der heutige VMS-Cluster besteht im wesentlichen aus einigen Systemservern und "Satelliten". Obwohl jedes der derzeit 13 Systeme auch unabhängig von den anderen betrieben werden könnte, ist der VMS-Cluster eher als Einheit denn als lose Ansammlung von einzelnen Rechnern zu betrachten: Alle Maschinen sind miteinander über ein lokales, durch einen Netzwerk-Router von den anderen Netzen im Haus getrenntes Ethernet verbunden. Zusätzlich sind die VAX-Serversysteme durch zwei DSSI-Bus-Systeme (= Digital Storage Systems Interconnect) verbunden, um eine hohe Ausfallssicherheit für das Gesamtsystem zu gewährleisten.


Die Systeme werden von einem gemeinsamen Batchsystem mit Jobs beschickt, und zwar unter Berücksichtigung der unterschiedlichen Hardware und Software, sodaß jede Maschine ihrer Ausstattung gemäß eingesetzt wird. Die am VMS-Cluster angehängten Satelliten sind zum Großteil Workstations, die lokal im Gebäudekomplex Währinger Straße/Boltzmanngasse/Strudlhofgasse aufgestellt sind und die von den Serversystemen starten. Damit wird für VMS ein dezentraler Dienst angeboten, der es den Teilnehmern gestattet, ihre Workstations in einem Rechnerverbund zu betreiben. Der scheinbare "Autonomieverlust" der Eigentümer solcher Satelliten ermöglicht ein durch die Rechenanlage Physik zentralisiertes Management der Workstations und entbindet somit die Endanwender von diesen zeitaufwendigen Aufgaben.

Die Unix-Systeme Ariel und Merlin

Das Ultrix-System Ariel ist eine DEC 3100 RISC-Workstation mit 32 MB Memory, DAT-Magnetbandlaufwerk und ca. 4 GB Disk-Kapazität. (Ultrix ist eine DEC-Variante von Unix.) Auf diesem System wird der primäre Name- und Time-Server für die durch die Außenstelle betreuten Institute und Exposituren sowie ein sekundärer Mathematica-Lizenz-Server betrieben. Zusätzlich wird die Workstation Ariel intensiv für numerische Aufgaben und für eMail genützt.

Um den steigenden Bedarf an Unix an der Rechenanlage Physik zu befriedigen, wurde 1994 die unter dem Betriebssystem OSF/1 laufende, mit 3D-Graphikbeschleuniger ausgestattete DEC 3000/600 AXP-Workstation Merlin angeschafft. Das System ist mit 64 MB Memory und 3 GB Plattenplatz sowie einem DAT-Magnetbandlaufwerk ausgerüstet. Die Software auf der Workstation Merlin steht derzeit noch nicht in vollem Umfang zur Verfügung, es werden aber laufend Erweiterungen durchgeführt. Analog zum VMS-Cluster haben auch hier die lokalen Institute die Möglichkeit, mit Merlin unter OSF/1 einen Cluster zu bilden.

Der Benutzerraum

Um den Studenten der Institute im Bereich der Außenstelle zusätzliche Arbeitsplätze zur Erstellung ihrer Diplomarbeiten oder Dissertationen anbieten zu können, wurde der Computerraum seit der Gründung so weit wie möglich öffentlich zugänglich gehalten (Mo-Fr 8-18 h). Bedingt durch die 1994 durchgeführte Heizungsrenovierung des Gebäudes wurde der Computerraum in einen für Benutzer weiterhin frei zugänglichen "Benutzerraum" und einen versperrten "Maschinenraum" geteilt. Nach dem Abschluß der Umbauten ist der Benutzerraum nun wieder uneingeschränkt verfügbar und hat folgende PC-Ausstattung:

  • 1 PS/2 Modell 80/20 mit 14" VGA-Schirm
  • 1 PC 386SX/25 mit 16" VGA-Schirm
  • 1 PC 486/33
  • 1 PC 486/66, 16" SVGA, Digitizer, Scanner, CD-ROM

Der letztgenannte PC ist aufgrund seiner Hardware speziell für graphische Anwendungen geeignet. An diesen PC sind ein Digitizer (zur Verwendung unter AutoCad), ein Farbscanner und ein CD-ROM-Laufwerk angeschlossen. Zusätzlich wurde die OCR-Software "OmniPage-Professional" installiert, die es ermöglicht, eingescannte Textvorlagen in bearbeitbaren Text zu konvertieren. Die Ausgabe kann in den Formaten der gebräuchlichsten Textverarbeitungsprogramme erfolgen. Sofern die Qualität der Vorlage entsprechend gut ist, werden Formatierung, Absätze, Graphiken und Tabellen automatisch erkannt.

Zu den meisten angebotenen Softwareprodukten (siehe Liste am Ende dieses Artikels) steht im Benutzerraum auch die jeweilige Dokumentation zur Verfügung. Von allen PCs ist der Zugang zum Internet über TCP/IP möglich. Außerdem ist an einigen Geräten die X-Windows-Emulation HCL-eXceed installiert.

Im Benutzerraum sind u.a. folgende Drucker verfügbar:

  • 1 HP IID-PostScript-Laserprinter (300x300, doppelseitig)
  • 1 HP 4/4M PostScript/PCL5-Laserprinter (600x600)
  • 1 Lexmark Color-Jet-Printer 4079 PostScript/HPGL (360x360)
  • 1 DEC-LN03 Laserprinter (inkl. Regis und Tektronix Graphik, 300x300)

Zur Verwendung dieser Drucker ist allerdings eine Benutzungsbewilligung für den VMS-Cluster oder für die Unix-Rechner der Außenstelle erforderlich.

Selbstverständlich gibt es im Benutzerraum auch einen öffentlichen Zugang zu den Workstations Ariel (RISC / Ultrix), Merlin (Alpha AXP / OSF/1) und Ara (Alpha AXP / OpenVMS). Von den Bandstationen (8mm Exabyte, DAT, 9 Track Tape, TK50, TK70 und TK85) ist lediglich das 8mm Exabyte frei zugänglich; die anderen Einrichtungen werden wesentlich seltener benötigt und können auch aufgrund der beschränkten Aufstellungsmöglichkeiten nicht für einen direkten Zugang vorgesehen werden.

Das Gebäudenetzwerk

Von Ende 1989 bis Ende 1991 wurde im gesamten Gebäudekomplex eine flächendeckende Ethernetverkabelung für fünfzehn Institute und zwei Bibliotheken errichtet, sodaß der Netzwerkzugang mittels PC oder Workstation von jedem Arbeitsplatz aus möglich wurde. War zu Beginn der 90er Jahre eine wesentliche Aufgabe der Rechenanlage Physik die Planung und Errichtung des Netzwerks, so liegt ihre heutige Aufgabe in der Instandhaltung und Betreuung dieser Einrichtung sowie im Betreiben des Nameservice für den Bereich des Gebäudekomplexes.

Bemerkenswert ist die Geschwindigkeit, mit der der Ausbau erfolgte (km = Gesamtlänge des verlegten Ethernet-Kabels in km):

  • vor Verkabelung: ca. 0,6 km / ca. 50 angeschlossene Rechner
  • 1992: 11,8 km / 285 angeschlossene Rechner
  • 1993: ca. 12 km / 325 angeschlossene Rechner
  • 1994: 14,7 km / 500 angeschlossene Rechner

Davon sind heute 78% aller angeschlossenen Geräte PCs unter MS-DOS. Der Anteil der Unix-Workstations ist mit 13% stark im Steigen begriffen; die restlichen 9% entfallen auf VMS-Rechner (7%) und Macs (2%).

Das Netz wird in den nächsten Jahren größere Änderungen erfahren, da die Ressourcen auf den jeweiligen Ethernet-Netzen der Gebäude punktuell zu stark beansprucht werden. Obwohl der Router "Cerberus" die Netzwerke der einzelnen Häuser lastmäßig trennt und Daten nur dann in ein anderes Netz weiterleitet, wenn dies notwendig ist, kommt es immer wieder zu Netzwerküberlastungen in den einzelnen Häusern und damit zu drastischen Performance-Einbußen für die Benutzer. Daher wird man versuchen (wo es mit sinnvollem Aufwand möglich ist), diese lokalen Engpässe durch die logische Umstrukturierung von einem jeweiligen "Hausnetz" in hierarchisch angeordnete "Institutsnetze" zu beseitigen.

Seit Mitte Oktober 1994 sind die Rechenanlage Physik und die betreuten Institutionen über einen Lichtwellenleiter an das Neue Institutsgebäude (und somit an das Internet) angebunden. Damit konnte die Übertragungskapazität auf 10 Mbit/s (Ethernet) angehoben und ein lange existierendes "Nadelöhr" endlich beseitigt werden.

Unterstützung für die Betreiber von DEC-Rechnern

Die Rechenanlage Physik ist auch für die Unterstützung aller Betreiber von DEC-Rechnern mit den Betriebssystemen OpenVMS, OSF/1 und Ultrix an der Universität Wien verantwortlich. Das EDV-Zentrum der Universität Wien hat mit der Firma Digital Equipment Corporation den sogenannten DECCampus-Vertrag abgeschlossen, der es ermöglicht, DEC-Software für die genannten Betriebssysteme deutlich günstiger zu beziehen. Die Verteilung dieser Software erfolgt ebenfalls über die Rechenanlage Physik.

Projekte - ein Beispiel

Da die Aufgaben und Funktionen der Rechenanlage Physik traditionell sehr vielschichtig sind, wurden in Zusammenarbeit mit Wissenschaftern immer wieder verschiedene Projekte durchgeführt. Stellvertretend für viele Projekte, auf die wir nicht näher eingehen können, soll hier ein Beispiel zur Veranschaulichung gegeben werden:

Aerosole sind Systeme kleiner Teilchen in gasgetragenem Zustand und spielen als Teil der den Menschen umgebenden Biosphäre eine bedeutende Rolle. So wurde der Einfluß von Aerosolpartikeln auf meteorologische Vorgänge - Aerosole sind wichtige Reaktionspartner für Wasserdampf bei der Kondensation - bereits früh erkannt. Aerosole und ihre dynamischen Veränderungen haben einen unmittelbaren Einfluß auf das globale Klima. Aerosole können beispielsweise durch Kondensation in Abgasen oder durch photochemische Reaktionen entstehen. Sie können aber auch durch Regen aus der Atmosphäre ausgewaschen werden - etwa in Form sauren Regens. Eine wichtige Eigenschaft der Aerosolteilchen ist ihre Brown'sche Bewegung, aufgrund derer die Partikel auch untereinander zusammenstoßen und aneinander haften (koagulieren) können - dabei werden größere Aggregatpartikel gebildet. Eine weitere wesentliche Eigenschaft aerodisperser Systeme ist ihre zeitliche Instabilität.

Am Institut für Experimentalphysik der Universität Wien wurden unter der Leitung von Prof. Dr. P. E. Wagner Modellrechnungen und Experimente zur Untersuchung dieser Vorgänge durchgeführt. Einen Schwerpunkt bildeten umfangreiche numerische Modellrechnungen der Koagulation in atmosphärischen Aerosolen, um zu einer Klärung des Einflusses der Produktion von Aerosolpartikeln durch die Aktivitäten des Menschen in städtischen Gebieten beizutragen. Die Rate, mit der Aerosolpartikel erzeugt werden, ist dabei eine Funktion vieler Parameter; insbesondere kann ein Tag-Nacht-Rhythmus beobachtet werden. So laufen viele chemische Reaktionen in der Atmosphäre nur unter Einwirkung von UV-Licht ab, oder der Mensch erzeugt durch seine höhere Tagesaktivität (z.B. Verkehr) während des Tages mehr Aerosole und mehr gasförmige Verunreinigungen der Atmosphäre. Die Beschreibung dieser Vorgänge mit Hilfe numerischer Simulationen ist dementsprechend komplex: Es mußte ein Populationsbalancegleichungssystem von ca. 1000 gekoppelten Differentialgleichungen gelöst werden. Diese rechenzeitintensive Aufgabe wurde an der Rechenanlage Physik durchgeführt. Die Resultate konnten dort auch in einem Computertrickfilm dokumentiert werden.

Zur Veranschaulichung der Ergebnisse wurden Graphiken erzeugt, welche die die zeitliche Änderung von Anzahl-Größenverteilungsfunktionen zeigen - das sind Häufigkeitsverteilungen, in denen die Funktionshöhe die Wahrscheinlichkeit des Auftretens einer bestimmten Partikelgröße angibt. Diese Häufigkeiten wurden als Funktion des Partikelradius in Millionstel Millimeter [nm] (linke untere Achse) und der Zeit (rechte untere Achse) auf einer normierten Skala wiedergegeben. Es zeigte sich, daß tagsüber die Produktion von Aerosolen zu hohen Teilchenkonzentrationen mit Radien von etwa 15nm führt, obwohl gleichzeitig aufgrund der Koagulation das ungehinderte Ansteigen der Konzentrationen beschränkt und die mittlere Größe der Population zu größeren Partikeln hin verschoben wird. Während der Nacht hingegen werden im Vergleich dazu kaum nennenswerte Aerosolmengen erzeugt. Die Folge ist, daß die Teilchenkonzentration in dieser Phase stark absinkt und relativ große Teilchen gebildet werden. Die Ergebnisse der Simulationen gestatten eine Abschätzung der Aerosol-Produktionsraten in städtischen Gebieten aus Messungen atmosphärischer Aerosolkonzentrationen und können somit zur Identifizierung von Luftverunreinigungsquellen verwendet werden.


*****

Wie die kurzen Ausführungen zur Geschichte gezeigt haben, hat sich die Aufgabenstellung seit der Gründung der "Prozeßrechenanlage Physik" stark gewandelt: Ausgehend von einer Maschine zur Steuerung von einigen physikalischen Experimenten, betreut von wissenschaftlichen Hilfskräften der Institute, ist daraus eine mit drei Mitarbeitern besetzte Außenstelle mit vielfältiger Aufgabenstellung geworden. (Bemerkenswert dabei ist, daß zur Wahrnehmung dieser Aufgaben von den physikalischen Instituten zwei Dienstposten an das EDV-Zentrum abgetreten wurden.) Die Außenstelle bietet für alle Institute in diesem Bereich eine Vielzahl von Diensten an, insbesondere den Betrieb des VMS-Clusters, der lokalen Unix-Systeme und PCs (inklusive Softwarewartung und Datensicherung) sowie die Betreuung des Netzwerkes. Daher wird die Außenstelle nunmehr - analog zu den anderen Einrichtungen des EDV-Zentrums - als "Rechenanlage Physik" (RA-Physik) bezeichnet. Dieser Name bezieht sich selbstverständlich nur auf den Standort der Außenstelle - die angebotenen Services stehen wie bisher allen Instituten gleichermaßen zur Verfügung.

Softwareangebot der Rechenanlage Physik

Unter OpenVMS, OSF/1 und Ultrix stehen die folgenden Softwareprodukte zur Verfügung (es sind jedoch nicht alle Programme auf jeder Plattform vorhanden):

Compiler:

C, C++, Pascal, Ada, Fortran 77 & 90, LISP, PL/I, Modula 2

Numerische und graphische Bibliotheken, Applikationen, Symbolische Algebra:

NAG (+Graphik), Lapack, Linpack, CERNlib, HARlib, SLAM, Eispack, Slatec, LASO2, Extended Mathematical Library, Erlgraph, GKS, GKS3D, Phigs (inkl. PEX Extensions für Graphikbeschleuniger), mpeg_play, TeX, DECwrite, Mathematica, Reduce

Netzwerk, eMail:

Internet, EARN, DECnet, Datex-P, UNA-EARN-Gateway, Internet Name- und Timeservice für den lokalen Bereich; Tools: NetNews, Gopher, Mosaic (WWW) u.v.a.m.

Chemie-Datenbanken:

REACCS (Datenbank chemischer Reaktionen - mit besonders benutzerfreundlicher graphischer Oberfläche)

PC-Backup:

Backup-Service für PCs am Internet

Document-Server:

Online-Dokumentationsdienst für die an der Rechenanlage befindlichen Systemressourcen

Online-Dokumentation:

OpenVMS inkl. aller DEC-Applikationen über einen Info-Server; RISC / Ultrix bzw. Alpha AXP / OSF/1 inkl. aller DEC-Applikationen



Im PC-Bereich sind je nach Austattung der einzelnen Geräte folgende Anwendungen installiert:

Compiler:

Borland Turbo C++, Borland Turbo Pascal, Visual Basic

Applikationen, Symbolische Algebra:

MS-Windows, MS-Word für Windows, CorelDraw!, MS-Excel, AutoCad, OmniPage-Professional, Aldus Photo Styler, MS-Power Point, dBase, Mathematica, MathCad, Mosaic u.v.a.m.