HPC@HU
Der Computer- und Medienservice der HU stellt mit HPC@HU eine leistungsfähige High-Performance-Computing-Plattform bereit. Diese Infrastruktur unterstützt rechenintensive Aufgaben in den Bereichen Simulation, Data Mining, Maschinelles Lernen, Künstliche Intelligenz sowie in weiteren Anwendungsgebieten, die mit umfangreichen Datenmengen und komplexen Modellen arbeiten. Forschende und Lehrende der Universität können HPC@HU nutzen, um anspruchsvolle Berechnungen und Analysen durchzuführen.
HPC@HU bietet umfangreiche Ressourcen für High-Performance-Computing:
- 35 Server (je 2 x 64 Kerne/ 128 Threads, 1-4TB RAM)
- Nvidia GPUs (20 x Nvidia A100, 40 x L40)
- 1,6PetaByte Speicher (Lustre)
Auf dem Cluster läuft eine Virtualisierung (OpenStack), die es ermöglicht, Nutzenden einzelne virtuelle Rechner, aber auch komplette Infrastrukturen wie z.B. Kubernetes-Cluster zur Verfügung zu stellen (Infrastruktur-as-a-Service; IaaS). Die Softwarekomponente Azimuth vereinfacht die Benutzung des Systems, indem die Nutzenden über eine Weboberfläche unter verschiedenen Plattformen auswählen können und einen einfachen Zugang zum System erhalten. Des Weiteren wird von Azimuth auch ein Monitoring für die Plattformen eingerichtet, sodass die Nutzenden, z.B. die Auslastungen ihrer Plattformen im Blick behalten können.

Azimuth
Über Azimuth werden den Nutzenden verschiedenen Plattformen wie ein Desktop, JupyterHub, aber auch Kubernetes- und Slurm-Cluster angeboten. Zusätzlich stehen verschiedene Softwarepakete wie R-Studio, Matlab oder Ollama zur Verfügung. Durch dieses breite Angebot an Plattformen und Softwarepaketen kann der Service den unterschiedlichen Anforderungen aus den vielen Fachrichtungen der HU gerecht werden. Der Umfang der Ressourcen (CPU,RAM, Speicher) kann je nach Plattform beim Anlegen oder zur Laufzeit festgelegt bzw. geändert werden.
Desktop
Diese Plattform stellt dem Nutzenden eine VM mit Linux (Ubuntu) und graphischer Oberfläche zur Verfügung. Sie ermöglicht es, weitere Software zu installieren und zu nutzen. Der Umfang der VM (RAM, CPU, GPU) ist beim Anlegen der VM wählbar.
Kubenetes
Über Azimuth kann ein Kubernetes-Cluster erstellt werden, wobei die Anzahl und Größe der Knoten während der Erstellung und zur Laufzeit wählbar ist. Auf Wunsch wird dabei ein Monitoring (Prometheus/Grafana) zur Verfügung gestellt. Der Cluster kann über eine Weboberfläche oder mittels der Kuberneteskonfigurations (Config-File) über entsprechende Tools administriert werden.
In einem Kubernestes-Cluster können einzelne Container gestartet werden.
R-Studio
Diese Plattform bietet über eine Weboberfläche einen Zugang zu "R-Studio". Die Größe der CPU und die RAM-Größe ist beim Anlegen der Plattform wählbar.
Slurm
Slurm ist ein Job-Scheduler über welchen Rechnungen im Batch-Modus gestartet werden können. Die Plattform bietet neben einen Login-Knoten auch ein Zugang über eine Weboberfläche (OpenOnDemand) zur Verfügung. Über diese kann u.a. eine Desktop (Graphische Linux-Oberfläche) oder ein JupyterHub gestartet werden.
Zugang
Der HPC-Service steht allen Forschenden der HU zur Verfügung. Der Antrag auf einen Zugang erfolgt über eine Mail an hpc-support@hu-berlin.de. Diese Mail muss folgende Information enthalten:
- Account des Antragsstellenden
- Einrichtung bzw. Arbeitsgruppe des Antragsstellenden inkl. Name des/der LeiterIn
- Kurze Angabe zum Forschungsthema und Umfang der Ressourcen
Die Mail sollte zusätzlich in Kopie an die/den DV-Beauftragte(n) der Einrichtung gehen, sofern dieser bekannt ist.
Zu beachten
Der Zugriff auf den HPC-Service ist nur aus dem Netz der HU oder über das VPN möglich.
Der HPC-Service bietet den Nutzenden die Möglichkeit eigene VMs (z.B. Desktop) zu nutzen und zu administrieren. Sollte die VM jedoch zum Umsetzung eines einzelnen Services (z.B. Web-Dienst) genutzt werden, so ist dafür das Angebot der HU-Cloud zu nutzen.
Der JupyterHub der HU bietet zudem ein leicht zugängliches Angebot, welches insbesondere im Rahmen der Lehre zu nutzen ist.
Kontakt
E-Mail: hpc-support@hu-berlin.de
Anleitungen
Wiki: https://wikis.hu-berlin.de/hpc/
FAQ