Decommisioned CoolMUC
Als wesentliche Erweiterung der parallelen Tier-2 HPC-Infrastruktur am LRZ hat MEGWARE 2011 178 Knoten auf der Basis von Dual-Socket AMD Magny-Cours Knoten mit 8 Cores pro Sockel installiert; das Hochleistungs-Verbindungsnetzwerk basierte auf InfiniBand QDR-Technologie. Die aggregierte Spitzenleistung dieses Clusters betrug 22 TFlop/s. Dieses System diente auch als Forschungsplattform für Energieeffizienz und Kühlungstechnologien, da ein großer Teil davon auf der System Board-Ebene mit einer hohen Vorlauftemperatur (> 38 °C) wassergekühlt wurde; ein kleinerer Teil wurde durch Einsatz einer Adsorptionskältemaschine effizient luftgekühlt. Auf der Softwareseite wurde der SLURM Scheduler eingesetzt, um Benutzer-Jobs abzuarbeiten, und ParTec Parastation MPI unterstützte die Ausführung von großen parallelen, über die Rechenknoten verteilten Programmen.
CoolMUC: System Overview
| Hardware | |
| Number of nodes | 183 | 
| Number of cores | 2928 | 
| AMD Opteron 6128HE | |
| Cores per node (dual socket) | 16 | 
| Hyperthreads per core | 2 | 
| Core nominal frequency | 2.0 GHz | 
| Memory per node | 16 GB | 
| Bandwidth to interconnect per node | 13,64 GB/s (1 Link) | 
| Bisection bandwidth of interconnect (per island) | 3.5 TB/s | 
| Latency of interconnect | 2.3 µs | 
| Peak performance of system | 22.8 TFlop/s | 
| Infrastructure | |
| Electric power of fully loaded system | 45 kW | 
| Percentage of waste heat to warm water | 97% | 
| Inlet temperature range for water cooling | 30 … 50 °C | 
| Temperature difference between outlet and inlet | 4 … 6 °C | 
| Software (OS and development environment) | |
| Operating system | SLES15 SP1 Linux | 
| MPI | Intel MPI 2019, alternatively OpenMPI | 
| Compilers | Intel icc, icpc, ifort 2019 | 
| Performance libraries | MKL, TBB, IPP | 
| Tools for performance and correctness analysis | Intel Cluster Tools | 
 
        