Filter zurücksetzen
Icon loader

HPC in Deutschland - Wer? Was? Wo?

Filtern nach

Prozessor

Hersteller

Generation

Modell

Kerne
Kerne

 

GPU/ManyCore/FPGA

Hersteller

Modell

Stück
Stück

 

Arbeitsspeicher
GB
GB
GB

 

Tags
TB
Gb/s
TB

 

Tags
Tags
43 HPC-Systeme, 38 Dateisysteme, 4 Archive von 20 Organisationen

Center for Scientific Computing

Frankfurt am Main
Megware
Ebene 2 HPC-System GPU-Knoten MPP-System

823 TFlop/s (Gesamtleistung) , 69.00 TiB (Hauptspeicher)

848 Knoten (Unknown QDR-Infiniband, FDR-Infiniband) , 18.960 CPU-Kerne (Intel, AMD)

700 GPGPUs (AMD)

Mehr erfahren

Dateisysteme
CSC-LOEWE (FhGFS)
764 TB
Clustervision
Ebene 3 HPC-System MPP-System

41 TFlop/s (Gesamtleistung) , 18.00 TiB (Hauptspeicher)

358 Knoten (Unknown QDR-Infiniband) , 6.456 CPU-Kerne (AMD)

Mehr erfahren

Dateisysteme
FUCHS (FhGFS)
600 TB

Deutsches Elektronen Synchrotron

Hamburg
Ebene 3 HPC-System

16 TFlop/s (Gesamtleistung)

143 Knoten , 2.288 CPU-Kerne (Intel)

Mehr erfahren

Unknown -
Ebene 3 HPC-System GPU-Knoten MPP-System

2.321 TFlop/s (Gesamtleistung) , 393.00 TiB (Hauptspeicher)

764 Knoten , 26.732 CPU-Kerne (Intel, AMD)

282 GPGPUs (Nvidia)

Mehr erfahren

Deutsches Klimarechenzentrum GmbH

Hamburg
HPC-System Levante
Atos BullSequana XH2000
Ebene 2 HPC-System GPU-Knoten MPP-System SMP-Knoten

16.600 TFlop/s (Gesamtleistung) , 863.00 TiB (Hauptspeicher)

3.042 Knoten , 389.376 CPU-Kerne (AMD)

240 GPGPUs (Nvidia)

Mehr erfahren

Competence Center High Performance Computing (CC-HPC)

Kaiserslautern
Dell PowerEdge
Ebene 3 HPC-System GPU-Knoten MPP-System SMP-Knoten

67 TFlop/s (Gesamtleistung) , 14.00 TiB (Hauptspeicher)

198 Knoten (Unknown FDR-Infiniband) , 3.224 CPU-Kerne (Intel)

2 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
Beehive (BeeGFS)
240 TB
Ebene 3 HPC-System GPU-Knoten MPP-System Xeon-Phi-Knoten

35 TFlop/s (Gesamtleistung) , 6.00 TiB (Hauptspeicher)

90 Knoten (Unknown FDR-Infiniband, QDR-Infiniband) , 1.584 CPU-Kerne (Intel)

3 GPGPUs (Nvidia) , 2 Many-Core-Prozessoren (Intel)

Mehr erfahren

Dateisysteme
Seislab (BeeGFS)
600 TB
Ebene 3 HPC-System

23.00 TiB (Hauptspeicher)

1.450 Knoten , 11.600 CPU-Kerne (Intel)

Mehr erfahren

Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen

Göttingen
Sysgen GPU Cluster, Compute Cluster, Transtec Compute Cluster, DELTA Computer Compute Cluster, Atos Intel PCSD, Clustervision Compute Cluster
Ebene 3 HPC-System GPU-Knoten MPP-System

2.883 TFlop/s (Gesamtleistung) , 90.00 TiB (Hauptspeicher)

402 Knoten (Unknown QDR-Infiniband, FDR-Infiniband, Intel Omnipath, FDR-Infiniband) , 16.640 CPU-Kerne (Intel, AMD)

278 GPGPUs (Nvidia) , 302 Anwendungen (454 Versionen)

Mehr erfahren

Dateisysteme
Bioinformatics WORK (BeeGFS-Storage-Server)
243 TB
MPS WORK (Storage Server)
140 TB
SCC HOME (StorNext - LAN Client)
1900 TB
SCC HOME (Stor Next - NFS)
900 TB
SCC scratch2 (Storage Server)
110 TB
SCC scratch (MDC) (Storage Server)
1865 TB
Archive
SCC Archivspeicher (Scalar i6000)
22000 TB
Ebene 2 HPC-System MPP-System

8.261 TFlop/s (Gesamtleistung) , 487.00 TiB (Hauptspeicher)

1.473 Knoten (Intel Omnipath) , 116.152 CPU-Kerne (Intel)

12 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
HLRN-IV Work (EXAScaler)
9412 TB
HLRN-IV Home (GRIDScaler)
340 TB
Archive
HLRN Archivspeicher (Scalar i6000)
7037 TB

Hochschulrechenzentrum

Darmstadt
Intel Cascadelake
Ebene 2 HPC-System GPU-Knoten SMP-Knoten

3.148 TFlop/s (Gesamtleistung) , 245.00 TiB (Hauptspeicher)

643 Knoten ( HDR100-Infiniband) , 61.824 CPU-Kerne (Intel, AMD)

56 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
GLOBAL (DSS)
4000 TB

Höchstleistungsrechenzentrum Stuttgart

Stuttgart
HPC-System Hawk
Hewlett Packard Enterprise (HPE) Apollo,
Ebene 1 HPC-System GPU-Knoten MPP-System

26.000 TFlop/s (Gesamtleistung) , 1.00 PiB (Hauptspeicher)

5.656 Knoten (Mellanox HDR200-Infiniband) , 723.968 CPU-Kerne (AMD)

192 GPGPUs (Nvidia)

Mehr erfahren

Cray CS-Storm, CS500
Ebene 3 HPC-System GPU-Knoten

9.00 TiB (Hauptspeicher)

16 Knoten , 608 CPU-Kerne (Intel)

64 GPGPUs (Nvidia)

Mehr erfahren

NEC
Ebene 3 HPC-System GPU-System

100.00 TiB (Hauptspeicher)

466 Knoten , 13.856 CPU-Kerne (Intel)

81 GPGPUs (Nvidia, AMD)

Mehr erfahren

IT Center der RWTH Aachen University

Aachen
NEC HPC1812-Rg-2
Ebene 2 HPC-System GPU-Knoten MPP-System SMP-Knoten

678 TFlop/s (Gesamtleistung) , 86.00 TiB (Hauptspeicher)

633 Knoten (Intel Omnipath) , 16.152 CPU-Kerne (Intel)

20 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
HPCWORK (Claix 16) (Lustre)
3000 TB
HOME / WORK (NFS)
1500 TB
HPCWORK (Claix 18) (Lustre)
10000 TB
HPC-System CLAIX-2018
Ebene 2 HPC-System GPU-Knoten MPP-System SSD Speicher

4.965 TFlop/s (Gesamtleistung) , 245.00 TiB (Hauptspeicher)

1.307 Knoten (Intel Omnipath) , 62.736 CPU-Kerne (Intel)

96 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
HPCWORK (Claix 16) (Lustre)
3000 TB
HOME / WORK (NFS)
1500 TB
HPCWORK (Claix 18) (Lustre)
10000 TB

Jülich Supercomputing Centre (JSC)

Jülich
Supercomputer JUWELS am Jülich Supercomputing Centre
Atos BullSequana X1000
Ebene 1 HPC-System GPU-Knoten MPP-System SMP-Knoten

85.000 TFlop/s (Gesamtleistung) , 749.00 TiB (Hauptspeicher)

3.515 Knoten (Mellanox EDR-Infiniband, HDR200-Infiniband) , 168.208 CPU-Kerne (Intel, AMD)

3956 GPGPUs (Nvidia)

Mehr erfahren

HPC-System JURECA
Atos BullSequana XH2000
GPU-Knoten MPP-System SMP-Knoten

18.520 TFlop/s (Gesamtleistung) , 444.00 TiB (Hauptspeicher)

780 Knoten (Mellanox HDR100-Infiniband) , 99.840 CPU-Kerne (AMD)

768 GPGPUs (Nvidia)

Mehr erfahren

Zuse-Institut Berlin

Berlin-Dahlem
Foto HPC-System Lise
Atos Bull Intel cluster
Ebene 2 HPC-System MPP-System

7.907 TFlop/s (Gesamtleistung) , 444.00 TiB (Hauptspeicher)

1.146 Knoten (Intel Omnipath) , 110.016 CPU-Kerne (Intel)

Mehr erfahren

Dateisysteme
HLRN-IV WORK (DDN EXAScaler)
8192 TB
HLRN-IV HOME (DDN GRIDScaler)
340 TB
Archive
Archivspeicher (StorageTEK SL8500)
25000 TB

Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften

Garching bei München
Lenovo ThinkSystem SD 650 DWC, ThinkSystem SD650-I V3
Ebene 1 HPC-System GPU-Knoten MPP-System SMP-Knoten

54.860 TFlop/s (Gesamtleistung) , 822.00 TiB (Hauptspeicher)

6.720 Knoten (Intel Omnipath, Mellanox HDR200-Infiniband) , 337.920 CPU-Kerne (Intel)

960 GPGPUs (Intel)

Mehr erfahren

Max Planck Computing & Data Facility

Garching
HPC System COBRA
Atos Intel Compute Module HNS2600BPB24, Lenovo
Ebene 2 HPC-System GPU-Knoten MPP-System SMP-Knoten

12.720 TFlop/s (Gesamtleistung) , 518.00 TiB (Hauptspeicher)

3.424 Knoten (Intel Omnipath) , 136.960 CPU-Kerne (Intel)

368 GPGPUs (Nvidia)

Mehr erfahren

Lenovo ThinkSystem SD650 V2
Ebene 2 HPC-System GPU-Knoten MPP-System SMP-Knoten

24.800 TFlop/s (Gesamtleistung) , 517.00 TiB (Hauptspeicher)

1.784 Knoten , 128.448 CPU-Kerne (Intel)

768 GPGPUs (Nvidia)

Mehr erfahren

Paderborn Center for Parallel Computing

Paderborn
Arbor Workstation 2HE C612 INTEL
Ebene 3 HPC-System FPGA-Knoten

512.00 GiB (Hauptspeicher)

8 Knoten , 32 CPU-Kerne (Intel)

16 FPGAs (Alpha Data)

Mehr erfahren

Cray CS500
Ebene 3 HPC-System GPU-Knoten MPP-System

835 TFlop/s (Gesamtleistung) , 51.00 TiB (Hauptspeicher)

274 Knoten (Intel Omnipath) , 10.960 CPU-Kerne (Intel)

18 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
Scratch (Cray ClusterStor)
720 TB
Atos Bull Sequana XH2000, Nvidia DGX -A100
Ebene 2 HPC-System FPGA-Knoten GPU-Knoten MPP-System

7.100 TFlop/s (Gesamtleistung) , 347.00 TiB (Hauptspeicher)

1.121 Knoten (Mellanox HDR100-Infiniband) , 143.488 CPU-Kerne (AMD)

136 GPGPUs (Nvidia) , 80 FPGAs (Bittware, AMD XILINX)

Mehr erfahren

Dateisysteme
Scratch (DDN Exascaler 7990X with NVMe accelerator)
6000 TB

Regionales Hochschulrechenzentrum Kaiserslautern-Lindau (RHRZ)

Kaiserslautern
HPC-Cluster Elwetritsch II der TUK
Dell PowerEdge R, NEC HPC1812Rh-1, Nvidia DGX-2, DGX-1
Ebene 3 HPC-System GPU-Knoten GPU-System MPP-System SMP-Knoten SSD Speicher Xeon-Phi-Knoten

3.072 TFlop/s (Gesamtleistung) , 52.00 TiB (Hauptspeicher)

489 Knoten (Unknown QDR-Infiniband, Intel Omnipath) , 10.520 CPU-Kerne (Intel, AMD)

56 GPGPUs (Nvidia) , 56 Anwendungen (228 Versionen)

Mehr erfahren

NEC HPC2824Ri-2

64.00 TiB (Hauptspeicher)

242 Knoten ( Omnipath) , 3.872 CPU-Kerne (AMD)

48 GPGPUs (Nvidia)

Mehr erfahren

Regionales Rechenzentrum der Universität zu Köln

Köln
Bull bullx S
Ebene 3 HPC-System MPP-System SMP-Knoten

100 TFlop/s (Gesamtleistung) , 35.00 TiB (Hauptspeicher)

841 Knoten (Unknown QDR-Infiniband) , 9.712 CPU-Kerne (Intel)

Mehr erfahren

Dateisysteme
CHEOPS (Lustre)
500 TB

Scientific Computing Center

Karlsruhe
bwUniCluster 2.0 Stufe 1
Hewlett Packard Enterprise (HPE) ProLiant, Lenovo ThinkSystem

155.00 TiB (Hauptspeicher)

837 Knoten ( HDR200-Infiniband) , 40.608 CPU-Kerne (Intel)

196 GPGPUs (Nvidia)

Mehr erfahren

HoreKa
Lenovo ThinkSystem

242.00 TiB (Hauptspeicher)

769 Knoten ( HDR200-Infiniband) , 58.444 CPU-Kerne (Intel)

668 GPGPUs (Nvidia)

Mehr erfahren

Steinbuch Centre for Computing

Eggenstein-Leopoldshafen

Zentrum für Datenverarbeitung

Mainz
Megware
Ebene 2 HPC-System GPU-Knoten MPP-System

379 TFlop/s (Gesamtleistung) , 88.00 TiB (Hauptspeicher)

570 Knoten (Unknown QDR-Infiniband) , 35.760 CPU-Kerne (Intel, AMD)

52 GPGPUs (Nvidia) , 8 Many-Core-Prozessoren (Intel)

Mehr erfahren

Dateisysteme
Lustre (Lustre)
7394 TB
Transtec
Ebene 3 HPC-System MPP-System

106 TFlop/s (Gesamtleistung) , 10.00 TiB (Hauptspeicher)

320 Knoten (Unknown QDR-Infiniband) , 5.120 CPU-Kerne (Intel)

Mehr erfahren

Megware MiriQuid, NEC NEC Cluster, Intel NEC Cluster
Ebene 2 HPC-System MPP-System SSD Speicher

3.125 TFlop/s (Gesamtleistung) , 190.00 TiB (Hauptspeicher)

1.948 Knoten (Intel Omnipath) , 52.248 CPU-Kerne (Intel)

188 GPGPUs (Nvidia, NEC)

Mehr erfahren

Dateisysteme
Mogon (GPFS)
1024 TB
Lustre (Lustre)
7394 TB

Zentrum für Informationsdienste und Hochleistungsrechnen

Dresden
NEC HPC 22S8Ri-4

5.443 TFlop/s (Gesamtleistung) , 34.00 TiB (Hauptspeicher)

34 Knoten ( HDR200-Infiniband) , 1.632 CPU-Kerne (AMD)

272 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
Taurus (Lustre)
44 TB
home + interact (ES200NVX2)
1000 TB
Eviden XH2000

315.00 TiB (Hauptspeicher)

630 Knoten ( HDR100-Infiniband) , 65.520 CPU-Kerne (Intel)

Mehr erfahren

Dateisysteme
horse (ES400NVX2)
20000 TB
home + interact (ES200NVX2)
1000 TB
NEC Gigabyte

94.00 TiB (Hauptspeicher)

188 Knoten , 24.064 CPU-Kerne (AMD)

Mehr erfahren

Dateisysteme
home + interact (ES200NVX2)
1000 TB
IBM IBM Power9

13.00 TiB (Hauptspeicher)

30 Knoten , 1.320 CPU-Kerne (IBM)

180 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
horse (ES400NVX2)
20000 TB
home + interact (ES200NVX2)
1000 TB
Hewlett Packard Enterprise (HPE) Superdome Flex

48.00 TiB (Hauptspeicher)

25.088 CPU-Kerne (Intel)

Mehr erfahren

Dateisysteme
horse (ES400NVX2)
20000 TB
home + interact (ES200NVX2)
1000 TB

Zentrum für nationales Hochleistungsrechnen Erlangen (NHR@FAU)

Erlangen
Megware Linux-Cluster
Ebene 3 HPC-System MPP-System

511 TFlop/s (Gesamtleistung) , 46.00 TiB (Hauptspeicher)

728 Knoten (Intel Omnipath) , 14.560 CPU-Kerne (Intel)

21 Anwendungen (61 Versionen)

Mehr erfahren

Dateisysteme
Global (GPFS/NFS)
50 TB
Saturn (HPE Apollo 4510 Gen10)
450 TB
Titan (HPE Apollo 4510 Gen10)
450 TB
Fundus-Disk (GPFS)
6000 TB
Atuin (PowerEdge XE7100/XE7440)
1000 TB
Archive
Fundus-Tape (IBM TS4500)
15000 TB
Sysgen GPU-Nodes II, GPU-Nodes III, GPU-Nodes V, Supermicro 2124GQ-NART, Nvidia GPU-Nodes IV, TRADEX SYSTEMS Sp. z o.o. Gigabyte G481-H80
Ebene 3 HPC-System GPU-Knoten GPU-System

5.00 TiB (Hauptspeicher)

45 Knoten , 1.392 CPU-Kerne (Intel, AMD)

208 GPGPUs (Nvidia) , 3 Anwendungen (8 Versionen)

Mehr erfahren

Dateisysteme
Global (GPFS/NFS)
50 TB
Saturn (HPE Apollo 4510 Gen10)
450 TB
Titan (HPE Apollo 4510 Gen10)
450 TB
Fundus-Disk (GPFS)
6000 TB
Atuin (PowerEdge XE7100/XE7440)
1000 TB
Archive
Fundus-Tape (IBM TS4500)
15000 TB
Megware Supermicro X10DRH, RaidMedia Gigabyte H262-Z66

22.00 TiB (Hauptspeicher)

47 Knoten , 2.484 CPU-Kerne (Intel, AMD)

Mehr erfahren

Dateisysteme
Global (GPFS/NFS)
50 TB
Saturn (HPE Apollo 4510 Gen10)
450 TB
Titan (HPE Apollo 4510 Gen10)
450 TB
Fundus-Disk (GPFS)
6000 TB
Atuin (PowerEdge XE7100/XE7440)
1000 TB
Archive
Fundus-Tape (IBM TS4500)
15000 TB
HPC-System Alex
Megware GPGPU Cluster, GPU-Cluster, NF5488A5
Ebene 2 HPC-System Ebene 3 HPC-System GPU-Knoten GPU-System

6.080 TFlop/s (Gesamtleistung) , 78.00 TiB (Hauptspeicher)

82 Knoten (Mellanox HDR200-Infiniband, HDR200-Infiniband) , 10.496 CPU-Kerne (AMD)

656 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
Global (GPFS/NFS)
50 TB
Saturn (HPE Apollo 4510 Gen10)
450 TB
Titan (HPE Apollo 4510 Gen10)
450 TB
Fundus-Disk (GPFS)
6000 TB
Atuin (PowerEdge XE7100/XE7440)
1000 TB
Fritz (Lustre)
3700 TB
Archive
Fundus-Tape (IBM TS4500)
15000 TB
HPC-System Fritz
Megware D50TNP
Ebene 2 HPC-System Ebene 3 HPC-System MPP-System

5.450 TFlop/s (Gesamtleistung) , 248.00 TiB (Hauptspeicher)

992 Knoten (Mellanox HDR100-Infiniband) , 71.424 CPU-Kerne (Intel)

Mehr erfahren

Dateisysteme
Global (GPFS/NFS)
50 TB
Saturn (HPE Apollo 4510 Gen10)
450 TB
Titan (HPE Apollo 4510 Gen10)
450 TB
Fundus-Disk (GPFS)
6000 TB
Atuin (PowerEdge XE7100/XE7440)
1000 TB
Fritz (Lustre)
3700 TB
Archive
Fundus-Tape (IBM TS4500)
15000 TB