HPC-Statuskonferenz 2024
Hoch- und Höchstleistungsrechnen in Deutschland

Go to first section
24. bis 26. April 2024
Konferenz
Mommsenstraße 13
01069 Dresden
Vom 24. bis zum 26. April 2024 veranstalten die Gauß-Allianz und das Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) der TU Dresden in Kooperation mit dem BMBF die 13. HPC-Statuskonferenz auf dem Campus der TU Dresden.

Als Plattform für den interdisziplinären Austausch und zur Netzwerkbildung thematisiert die dreitägige Veranstaltung aktuelle Entwicklungen, Projekte und Fragestellungen im Hoch- und Höchstleistungsrechnen. Neben den Zielen und ersten Ergebnissen der nationalen Vorhaben der aktuellen SCALEXA- sowie GreenHPC-Förderung des BMBF in den Bereichen Infrastrukuren, Methoden und Anwendungen werden auch die EuroHPC-Projekte mit nationaler Beteiligung auf der Statuskonferenz vertreten sein. Die zahlreichen intensiven Bezüge der HPC-Community und der KI-Forschung in Deutschland werden auf der Konferenz ebenfalls thematische Akzente setzen.

Prof. Dr. Wolfgang E. Nagel
Vorstandsvorsitzender Gauß-Allianz e. V.
Direktor Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH), TU Dresden
Registrierung
Der Konferenzbeitrag beträgt 170 Euro (inkl. 19% MwSt.). Dieser wird vom lokalen Veranstalter zur Deckung der Unkosten im Rahmen der Ausrichtung der HPC-Statuskonferenz vereinnahmt und verantwortet. Die Gauß-Allianz hat im Zusammenhang mit dieser Veranstaltung keine Einnahmen und auch kein finanzielles Interesse.

Bitte melden Sie sich bis spätestens Montag, den 15. April 2024, in der Veranstaltungsregistrierung des ZIH und ScaDS.AI an.

Organisatorische Fragen richten Sie bitte an zih-veranstaltungen@tu-dresden.de. Für alle anderen Fragen stehen wir Ihnen unter der Adresse service@gauss-allianz.de zur Verfügung.
Hotelkontingent
Für die Veranstaltung stehen verschiedene Hotelkontingente zur Verfügung. Zu den angegebenen Preisen wird zusätzlich noch eine Beherbungssteuer in Höhe von 6% erhoben. Bitte geben Sie dafür bei der Buchung jeweils den Vermerk HPC an.

Hotel Premier Inn Dresden (1,7 km entfernt)

  • Einzelbettzimmer: 95,90 € (inkl. Frühstück 16,90 €/Person)
  • Doppelbettzimmer: 129,70 € (inkl. Frühstück 16,90 €/Person)
  • Check-In: ab 15 Uhr
Die Zimmer können bis zum 3. April 2024 per E-Mail Dresden.PragerStrasse@premierinn.com abgerufen werden. Zur Buchung wird eine Kreditkarte benötigt.

Adresse
Ferdinandstraße 14
01069 Dresden
Webseite Hotel PremierInn Dresden

Ibis Hotel Dresden (1,6 km entfernt)

  • Einzelbettzimmer: 95,00 € (inkl. Frühstück 6,00 €)
  • Doppelbettzimmer: 115,00 € (inkl. Frühstück 6,00 €)
  • Ckeck-In: ab 15 Uhr
  • Kostenfreie Stornierung: bis zum Anreisetag
Die Zimmer können bis zum 18. April 2024 (Tel.: 0351 48564856 / Fax: 0351 48562999 / reservierung@ibis-dresden.de) abgerufen werden.

Adresse
Prager Straße 5
01069 Dresden
Webseite Ibis Hotel Dresden

Hotel Pullmann Newa (1,6 km entfernt)

  • Einzelbettzimmer: 119,00 € (inkl. Frühstück 6,00 €)
  • Doppelbettzimmer: 144,00 € (inkl. Frühstück für 2 Personen)
  • Check-In: ab 15 Uhr
  • Kostenfreie Stornierung: bis 48h vor Anreise
Die Zimmer können bis zum 8. April 2024 (Tel.: +49 351 4814-109/ info@pullmandresden.com) abgerufen werden.

Adresse
Prager Strasse 2c
01069 Dresden
Pullmann
Programm
Mittwoch, 24. bis Freitag, 26. April 2024 13 Uhr


Registrierung
Entwicklungen im nationalen HPC
10:30
10'
Grußwort
Prof. Dr. Lars Bernard
Chief Digitalization and Information Management Officer, Technische Universität Dresden
About Prof. Dr. Lars Bernard
Lars Bernard ist Professor für Geoinformatik, promovierter Geoinformatiker und Diplom-Geograph. Von 1995 bis 2001 war er als wissenschaftlicher Mitarbeiter, seit 2001 als wissenschaftlicher Assistent und ab 2003 mit einer Vertretungsprofessur für Geoinformatik an der Universität Münster tätig. Neben Forschung und Lehre in Geoinformatik beteiligt er sich in dieser Zeit aktiv am Aufbau der GDI NRW. 2003 wechselt er zur Gemeinsamen Forschungsstelle der Europäischen Kommission (Ispra, Italien). In der Abteilung Spatial Data Infrastructures unterstützt er dort die Entwicklung Europäischer Geodateninfrastrukturen, insbesondere der Initiative INSPIRE und koordiniert Forschungsarbeiten zur Entwicklung von Softwarearchitekturen für verteilte Anwendungen zur Analyse und Prozessierung von Geodaten. 2007 hat Lars Bernard die Professur GIS und 2015 die Professur Geoinformatik im Fachbereich Geowissenschaften der Technischen Universität Dresden angetreten. In Forschung und Lehre vertritt er hier fachbereichsübergreifend die Geoinformatik mit den Schwerpunkten GIS, GDI und GI-Dienste für die raum-zeitliche Simulation. Lars Bernard hat eine Vielzahl wissenschaftlicher Publikationen (mit-)verfasst, zahlreiche nationale und internationale Konferenzen (mit-)organisiert und ist Mitglied einer Reihe von nationalen und internationalen Gremien. Seit 2019 ist Lars Bernard Sprecher der NFDI4Earth als der nationalen Forschungsdateninfrastruktur für die Erdsystemwissenschaften. Seit 2020 ist er Chief Digitalization and Information Management Officer der Technischen Universität Dresden und Mitglied des erweiterten Rektorats.
Dülfersaal, Alte Mensa
10:40
20'
High-Performance Computing @ CIDS, ZIH
Prof. Dr. Wolfgang E. Nagel
ZIH, CIDS, Technische Universität Dresden
Dülfersaal, Alte Mensa
11:00
15'
Grußwort
Dr. Michael Rafii
Bundesministerium für Bildung und Forschung
Dülfersaal, Alte Mensa
11:15
25'
Status und Ausblick des Gauss Centre for Supercomputing
Dr. Bastian Koller
HLRS @ Gauss Centre for Supercomputing
Dülfersaal, Alte Mensa
Description
Im Vortrag wird eine Übersicht über die aktuellen Entwicklungen des Gauss Centre for Supercomputing (GCS) sowie der drei Zentren Höchstleistungsrechenzentrum Stuttgart (HLRS), Jülich Supercomputing Centre (JSC) und Leibniz Rechenzentrum (LRZ) sowohl auf nationaler als auch auf europäischer Ebene gegeben.
11:40
25'
Status und Ausblick des NHR-Verbunds
Prof. Dr. Gerhard Wellein
Verein für Nationales Hochleistungsrechnen - NHR-Verein e.V., Vorstand
Dülfersaal, Alte Mensa
12:05
25'
NFDI Die Nationale Forschungsdateninfrastruktur und NFDI-Basisdienste vis-à-vis HPC und NHR
Prof. Dr. Lars Bernard
Chief Digitalization and Information Management Officer, Technische Universität Dresden
About Prof. Dr. Lars Bernard
Lars Bernard ist Professor für Geoinformatik, promovierter Geoinformatiker und Diplom-Geograph. Von 1995 bis 2001 war er als wissenschaftlicher Mitarbeiter, seit 2001 als wissenschaftlicher Assistent und ab 2003 mit einer Vertretungsprofessur für Geoinformatik an der Universität Münster tätig. Neben Forschung und Lehre in Geoinformatik beteiligt er sich in dieser Zeit aktiv am Aufbau der GDI NRW. 2003 wechselt er zur Gemeinsamen Forschungsstelle der Europäischen Kommission (Ispra, Italien). In der Abteilung Spatial Data Infrastructures unterstützt er dort die Entwicklung Europäischer Geodateninfrastrukturen, insbesondere der Initiative INSPIRE und koordiniert Forschungsarbeiten zur Entwicklung von Softwarearchitekturen für verteilte Anwendungen zur Analyse und Prozessierung von Geodaten. 2007 hat Lars Bernard die Professur GIS und 2015 die Professur Geoinformatik im Fachbereich Geowissenschaften der Technischen Universität Dresden angetreten. In Forschung und Lehre vertritt er hier fachbereichsübergreifend die Geoinformatik mit den Schwerpunkten GIS, GDI und GI-Dienste für die raum-zeitliche Simulation. Lars Bernard hat eine Vielzahl wissenschaftlicher Publikationen (mit-)verfasst, zahlreiche nationale und internationale Konferenzen (mit-)organisiert und ist Mitglied einer Reihe von nationalen und internationalen Gremien. Seit 2019 ist Lars Bernard Sprecher der NFDI4Earth als der nationalen Forschungsdateninfrastruktur für die Erdsystemwissenschaften. Seit 2020 ist er Chief Digitalization and Information Management Officer der Technischen Universität Dresden und Mitglied des erweiterten Rektorats.
Dülfersaal, Alte Mensa
Description
Der Beitrag skizziert Motivation und Weg zur NFDI, der Nationalen Forschungsdateninfrastruktur.
Er gibt Überblick zum aktuellen Entwicklungsstand der NFDI und speziell zu Base4NFDI, dem NFDI Verbund zur Entwicklung NFDI-weiter Basisdienste.
Abschließend werden (potenzielle) Anknüpfungen und Kooperationsachsen zu den nationalen HPC-Angeboten adressiert.
12:30
60' Mittagspause
Dülfersaal, Alte Mensa
13:30
60'
Keynote: Wie HPC in die Cloud kam und den Weg für LLMs bereitete
Chris Schlaeger
Director Kernel and Operating Systems, AWS
Dülfersaal, Alte Mensa
GreenHPC
Moderation: Dr. Korbinian Schreiber
14:30
15'
Einführung in die GreenHPC-Förderung
Dr. Korbinian Schreiber
VDI/VDE Innovation + Technik GmbH
Dülfersaal, Alte Mensa
14:45
15'
Netzwerkgekoppelte Beschleuniger für energieeffizientes heterogenes Rechnen
Prof. Dr. Bettina Schnor
Betriebssysteme und Verteilte Systeme, Institut für Informatik und Computational Science Universität Potsdam
Dülfersaal, Alte Mensa
Description
Im Vortrag werden die Projektziele und der aktuelle Status des NAAICE-Projekts vorgestellt.
15:00
15'
SeqAn@FPGA : Engineering Meets Biomedicine
Prof. Dr. Knut Reinert
Algorithmische Bioinformatik, Institut für Informatik, FU Berlin
Dülfersaal, Alte Mensa
Description
Die Analyse hochvolumiger Next Generation Sequencing (NGS) Daten in der bioinformatischen Forschung und im klinischen Bereich benötigt heute HPC-Ressourcen. Das Projekt ”SeqAn on FPGA: Energieoptimierte Genomsequenzierungsbibliothek für energieeffiziente programmierbare Mikroelektronik” beschäftigt sich mit der Implementierung zentraler Datenstrukturen für die bioinformatische Sequenzanalyse, a) des Hierarchical Interleaved Bloom Filter (HIBF) und b) des FM-Index auf FPGAs. Diese werden in die weitverbreitete SeqAn C++ Bibliothek für biologische Datenanalyse integriert werden. Die Implementierung auf FPGA wird den SYCL- Standard (Intel oneAPI Toolchain mit DPC++) verwenden, um weitgehend herstellerunabhängig und nachhaltig zu sein.
In dem Vortrag stellen wir kurz die Datenstrukturen sowie den Stand der Arbeiten vor.
15:15
15'
STXDemo - Energieeffiziente HPC Systeme ‘Made in Germany’
Dr. Jens Krüger
Fraunhofer ITWM
Dülfersaal, Alte Mensa
Description
Sei es für Simulationen in den Ingenieurswissenschaften, in Chemie, Medizin oder im Bereich Cloud-Systeme und KI: Supercomputingsysteme gewinnen kontinuierlich an Bedeutung. Um die Wirklichkeit möglichst genau digital abzubilden werden zunehmend leistungsfähigere Supercomputer benötigt. Bei immer kleiner werdenden Technologien in der Chipentwicklung erhöht sich die Leistungsaufnahme dieser Systeme; die schnellsten liegen bereits bei über 25 MW Leistungsaufnahme. Beschleunigerhardware bietet Leistungs- und Effizienzvorteile für parallele Anwendungen. Mit der Entwicklung des Stencil- und Tensorbeschleuniger (STX) Systems arbeitet das Fraunhofer ITWM zusammen mit den Instituten IIS und IZM an einem Architekturansatz, der hohe Leistung mit sehr guter Energieeffizienz und realistischen Kosten für die Entwicklung verbindet. Das System wird mit einem Faktor von 3 bis 4 effizienter als GPU basierte Systeme sein und soll demnächst in Pilotsystemen zur Verfügung stehen. Im Projekt STXDemo kooperieren die Fraunhofer Institute mit der Zollner AG und den Rechenzentren der Rheinland-Pfälzischen Technischen Universität Kaiserslautern-Landau (RPTU) sowie dem FZJ, um eine auf PCI Gen5 basierende Beschleunigerkarte und das Systemkonzept umzusetzen. Ihr Ziel: Erste Pilotsysteme mit Schlüsselanwendungen aus der Quantenchromodynamik sowie der Strömungsdynamik in 2025. Weitere Informationen: https://www.itwm.fraunhofer.de/stx .
15:30
15'
WindHPC: Energy Efficiency and Renewable Energy for Distributed High-Performance Computing
Dr. Christoph Niethammer
Höchstleistungsrechenzentrum Stuttgart
Dülfersaal, Alte Mensa
15:45
30' Kaffeepause
Dülfersaal, Alte Mensa
16:15
15'
ESN4NW – Energieoptimierte Supercomputer-Netzwerke durch die Nutzung von Windenergie
Dr. Gunnar Schomaker
Universität Paderborn
Dülfersaal, Alte Mensa
Description
Der Vortrag zeigt Einblicke und Erkenntnisse aus einen Forschungsvorhaben das sich zum Ziel gesetzt hat die Infrastruktur und die Ressourcenbedarfe von HPC Rechenzentren in ein Energienetz aus nachhaltigen Energieerzeugern zu integrieren - verteilt, nicht zentral und mit möglichst wenig CO2 Emissionen. Im Fokus der Fragestellungen stehen die Infrastruktur, die Energieformen und insbesondere der Erzeuger Windenergieanlage. Ein spannender Aspekt wird neben der Systembetrachtung des Vorhabens der regulatorische Einfluss auf die Aufgabenstellungen und das Zielsystem bieten.
16:30
15'
Making the best of a bad situation - Durch Heterogenität zu energieeffizienten Klimasimulationen
Dr. Robert Schöne
ZIH, CIDS, Technische Universität Dresden
Dülfersaal, Alte Mensa
16:45
15'
Energieoptimiertes High-Performance Computing für Finite-Elemente-Simulationen in der Produktentwicklung (ENSIMA)
Prof. Dr. Kai Diethelm
GNS mbH
Dülfersaal, Alte Mensa
Description
In-process optimization typically requires very large amounts of computing time on HPC systems. ENSIMA develops AI methods to improve and accelerate the determination of design parameters, and combines appproximate and heterogeneous computing to reduce the execution time of the simulation process itself. In consequence, the increase in efficiency of the simulation workflow enables a significant increase in the quality of the overall workflow results. This talk will provide an overview about the ENSIMA project and present first results for the sheet metal forming process in the vehicle industry.

15'
EE-HPC: Quelloffene Lösungsansätze für Monitoring und Systemeinstellungen für energieoptimierte Rechenzentren
Dr. Jan Eitzinger
Erlangen National High Performance Computing Center (NHR@FAU), Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU)
Dülfersaal, Alte Mensa
Description
Ziel des Vorhabens ist die automatisierte Optimierung der Energieeffizienz von HPC-Systemen. Ein innovatives Monitoringsystem soll zur Reduzierung des Energieverbrauchs bei gleichzeitiger Steigerung der Rechenleistung beitragen. Dieses Ziel soll durch neue softwarebasierte Regelungsmechanismen von Systemparametern erreicht werden. Der Kurzvortrag wird einen kurzen Überblick des aktuellen Projektstatus und Anpassungen im Projektplan geben.

15'
Digital twin for energy efficient data centers (IT-Zauber)
Dr. Christian Terboven
IT Center, RWTH Aachen University
Dülfersaal, Alte Mensa
Description
IT-Zauber develops a holistic control system for computing and cooling resources in data centers. Since the cooling capacity is responsible for a considerable part of the total energy demand, efficiency improvements have a great leverage effect at this point. The digital twin approach processes real-time, model-based data from the data center to enable precise and dynamic forecasts and adjustments. Central to this is the complex integration of data, both on HPC operations and on energy and plant technology, into a new type of overall model. This presentation will present the project and its progress towards productive operation.
17:30
60'
Interaktive Paneldiskussion: Kann HPC überhaupt grün sein?
Dr. Korbinian Schreiber (Moderator)
VDI/VDE Innovation + Technik GmbH
Prof. Dr. Bettina Schnor
Betriebssysteme und Verteilte Systeme, Institut für Informatik und Computational Science Universität Potsdam
Dr. Christian Terboven
IT Center, RWTH Aachen University
Prof. Dr. Knut Reinert
Algorithmische Bioinformatik, Institut für Informatik, FU Berlin
Dülfersaal, Alte Mensa
KI & HPC
Moderation: Prof. Dr. Wolfgang E. Nagel
08:30
60'
Keynote: Generative AI for biomedical research
Prof. Dr. Dr. Fabian J. Theis
Head of the Computational Health Center at Helmholtz Munich, Scientific Director of Helmholtz AI, Associated Faculty at the Wellcome Sanger Institute, and Full Professor at the School of Computation, Information and Technology & School of Life Sciences, Technical University Munich
Dülfersaal, Alte Mensa
Description
In modern high-throughput biomedicine, huge and complex data sets are being generated, in particular from the 'omics and imaging fields. The analysis and integration of these data sets is daunting but crucial not only for research but also for envisioned clinical use e.g. for precision medicine. The vision of a truly data-based medicine is thus enabled by data science techniques, in particular machine learning and artificial intelligence. With generative AI revolutionizing many fields of science by allowing researchers to explore uncharted territories, generate novel hypotheses, and simulate complex phenomena, we ask how it has been enabling biomedical research in general, and cellular representations in particular.

In this talk I will give an overview of applications from more classical supervised prediction to unsupervised machine learning and generative problems. I will draw examples mostly from my research on cellular assays, explaining interpretable generative modeling of perturbations, in particular effect of drug responses as well as multiscale readouts such as disease state across patients. I will finish with an outlook towards foundation models and their potential impact in spatial omics and more generally biomedical representation, and discuss challenges in compute, scaling and data engineering.
SCALEXA
Moderation: Dr. Marian Moldenhauer
09:30
60'
Multi-skalen Codes mit gekoppelten Ebenen
Prof. Dr. Philipp Neumann
Helmut-Schmidt-Universität Hamburg
Nils Kohl
Department of Earth and Environmental Sciences - Geophysics, Ludwig-Maximilians-Universität München
Dr. Ivo Kabadshow
Jülich Supercomputing Centre, Research Centre Jülich
Prof. Dr. Marcus Müller
Georg-August-Universität Göttingen
Dülfersaal, Alte Mensa
Description
Das gemeinsame Ziel dieser SCALEXA Projekte ist die Erweiterung und Effizienzsteigerung von extrem großen Simulationen mit Foki auf u.a. Partikelsimulationen unter Berücksichtigung komplexer Wechselwirkungen oder der Kopplung an Kontinuumsmodelle. In allen Fällen wird durch die Forschungsarbeit sowohl eine fundamentale Erweiterung hin zur Nutzung von Exascale-Computern als auch die realistische Beschreibung von synthetischen oder anwendungsnahen (bspw. biomolekular, geodynamisch) Prozessen angestrebt.

Das Projekt "3xa: Simulationssoftware für Exascale-Supercomputer zur Berechnung von Dreikörperwechselwirkungen" erforscht in einem interdisziplinären, holistischen Ansatz von Core- bis Supercomputer-Ebene skalierbare Methoden für Dreikörperwechselwirkungen in Partikelsystemen. Insgesamt werden Dreikörperwechselwirkungen in drei verschiedenen Partikelcodes mit verschiedenen Einsatzgebieten eruiert.

Die Black-Box Auto-Tuning Partikelbibliothek AutoPas, welche u.a. in der Molekulardynamiksimulation ls1 mardyn für NVT-Ensembles genutzt wird, wurde um ein Interface für kurzreichweitige Dreikörperwechselwirkungen erweitert. Verschiedene Backends, insbesondere Shared-Memory-Implementierungen für den Linked Cell-Algorithmus als auch ein Verlet-Listen-Verfahren, wurden bereits implementiert.
Ebenfalls in ls1 mardyn wurde eine erste Version des Adaptive Resolution-Schemas entwickelt, welches es ermöglicht, lokal zwischen günstigen und sehr rechenintensiven Potenzialmodellen umzuschalten.
Mit der Software ms2, die die Untersuchung verschiedener thermodynamischer Ensembles ermöglicht, und unter Nutzung des Axilrod-Teller-Muto-Potenzials wurden bereits Äquilibriumseigenschaften und Selbstdiffusionskoeffizienten von Krypton erfolgreich berechnet.
Performanzoptimierungen auf Core-, Knoten- und Inter-Knotenebene in einer Monte Carlo-Simulation für hoch komplexe Dreikörperinteraktionspotenziale führten zu signifikanten Laufzeitreduktionen.

Zusammen mit darüber hinaus gehenden Untersuchungen zu MPI4.0-Features wie bspw. Partitioned Communication werden diese Arbeiten in hocheffiziente Simulationssoftware auf massiv parallelen Systemen münden.

CoMPS: Ziel des Vorhabens ist die Entwicklung einer Simulationsumgebung für die Modellierung physikalischer Phänomene in der Geodynamik über mehrere Größenskalen hinweg. Dafür sollen mehrere hochskalierbare Simulationsprogramme miteinander gekoppelt werden, die sowohl auf kontinuierlichen als auch auf diskreten Modellen beruhen. Neben der Entwicklung neuartiger Techniken zur Codegenerierung liegt der methodische Schwerpunkt auf der Untersuchung von fortschrittlichen numerischen Algorithmen mit variabler Berechnungsgenauigkeit. Dies ermöglicht effiziente Lösungen für komplexe physikalische Schnittstellenprobleme.

Website: terraneo.fau.de

Ziel des FlexFMM Projektes ist die Durchführung hoch-realistischer MD
Simulationen unter Verwendung einer flexiblen fast multipole-basierten
Elektrostatik in GROMACS. Damit werden Biomoleküle in komplexen
chemischen Umgebungen äußerst realistisch modelliert, indem sie
dynamische Protonierungen mittels Kopplung an einen konstanten pH-Wert
erlaubt. Zudem ermöglicht die Verwendung der FMM neue Anwendungen dank
gitterfreier Darstellung inhomogener und nicht-periodischer Systeme.
Zusammen mit Sipearl wird im Co-Design prototypische Exascale Hardware
der ARM-Architektur mit SVE-Vektoreinheiten und HBM-Speicher im
Entwicklungszyklus berücksichtigt. Das Projekt erlaubt damit ein
tiefgreifenderes Verständnis biomolekularer Prozess und die
Beschleunigung biomedizinische Entwicklungen auf modernsten,
europäischen HPC Systemen.

MExMeMo: Marcus Müller, Institut für Theoretische Physik, Georg-August-Universität Göttingen (Vortrag GA Tagung), Volker Abetz, Institut für Physikalische Chemie, Universität Hamburg, Christian Cyron, Institut für Werkstoffsystem-Modellierung, Helmholtz-Zentrum Hereon GmbH, Geesthacht, Andreas Herten, Jülich Supercomputing Centre, Forschungszentrum Jülich, Simon Pickartz, ParTec AG, Jülich und München

Herstellungsverfahren weicher Materialien – hier: isoporöser Polymermembrane – mittels digitaler Zwillinge rechnergestützt zu planen und zu optimieren ist eine große Herausforderung da komplexe Nichtgleich-gewichtsprozesse von der makromolekularen Struktur bis zur Membranmorphologie auf der Skala von Mikrometern gekoppelt sind [1,2]. Unser Projektziel ist es, unser teilchenbasiertes Simulationsprogramm SOMA mit einer Kontinuumsbeschreibung und Machine-Learning Techniken nahtlos und effizient zu koppeln, um damit die großen Zeit- und Längenskalen der Membranmorphologie zu erfassen und gleichzeitig den durch das Teilchenmodell hergestellten und für das Materialdesign essentiellen Bezug zu molekularen Eigenschaften beizubehalten. Einerseits ermöglichte die Erweiterung und Optimierung von SOMA, die Prozesse der Lösemittelverdampfung [1,2] und der Nichtlösemittel-induzierten Phasenseparation [2] zu untersuchen. Andererseits wurde die Kopplung zwischen dieser teilchenbasierten Simulation und einer Kontinuumsbeschreibung anhand des Beispiels einer sich bewegenden Ordnungsfront in einer Kopolymerschmelze erprobt. Beide, Teilchen- und Kontinuumsmodell, stellen unterschiedliche Anforderungen an die Computer-Hardware. Dies ist ein idealtypischer Anwendungsfall für das Konzept der modularen Supercomputerarchitektur (MSA), wie dem JUWELS-Cluster-Booster-System in Jülich. Ein Koordinator orchestriert die Kopplung der beiden Modellierungsebenen und verwaltet die Zuteilung der Ressourcen auf der MSA. Der Informationsaustausch erfolgt via MPI im hdf5-Format. Über die konkrete Anwendung hinaus wird der Koordinator eine effiziente Nutzung von MSA-Systemen und einen vereinfachten Zugang durch minimalen Portierungsaufwand der zu koppelnden Anwendungen ermöglichen.

[1] Evaporation-induced self-assembly of diblock copolymer films in an electric field: a simulation study, O. Dreyer, L. Schneider, M. Radjabian, V. Abetz, and M. Müller, Macromolecules 56, 6880 (2023)
[2] Simulation of membrane fabrication via solvent evaporation and nonsolvent induced phase separation,N. Blagojevic and M. Müller, ACS Appl. Mater. Interfaces 15, 57913 (2023) Err 16, 12115 (2024)
10:30
30' Kaffeepause
Dülfersaal, Alte Mensa
11:00
45'
Synergie bei CFD/matrixfreien Algorithmen
Dr. Johannes Holke
Forschungsgruppenleiter „skalierbare adaptive Gitter“, Institut für Softwaretechnologie, Deutsches Zentrum für Luft- und Raumfahrt (DLR)
Prof. Dr. Martin Kronbichler
Angewandte Numerik, Fakultät für Mathematik, Ruhr-Universität Bochum
Prof. Dr. Stefan Turek
Angewandte Mathematik und Numerik, Fakultät für Mathematik, Technische Universität Dortmund
Dülfersaal, Alte Mensa
Description
The collaborative research project PDExa aims to advance algorithms for solving partial differential equations on exascale supercomputers, with the main focus on developing efficient iterative solvers for challenging application problems in fluid dynamics discretized with high-order finite element methods. The talk will present progress of the project along three pillars. Fast matrix-free evaluation of the discretized PDE, computing the cell and face integrals on general curved meshes on the fly with sum-factorization techniques, implements the action of linear or non-linear operators. For competitive iterative solvers, a second ingredient are preconditioners that balance low iteration counts with fast operator evaluation, for which either matrix-free and matrix-based ingredients are both attractive, including multigrid, fast diagonalization algorithms and incomplete matrix factorizations. As a third pillar, node-level performance engineering results will be shown to make good use of modern GPU and CPU hardware. Our research builds on three main libraries developed in the project, the deal.II library for finite element abstractions and HPC abstractions, Ginkgo for preconditioners and batched linear algebra, and ExaDG as our CFD application solver.
11:45
45'
Ansätze zur Nutzung von heterogener Hardware und smarten Netzwerken
PD. Dr. Josef Weidendorfer
Future Computing Group, Leibniz Rechenzentrum der Bayerischen Akademie der Wissenschaften (LRZ)
Dr. Christian Terboven
IT Center, RWTH Aachen University
Dr. Gregor Olenik
Scientific Computing Center, Karlsruher Institut für Technologie
Dülfersaal, Alte Mensa
Description
ScalNEXT - the project explores novel ways to take advantage of recent smart network devices for HPC, with the idea to put the control of HPC applications into these devices. This talk will present the strategies we explore, as well as a status update of ongoing work.

targetDART: Dynamically adaptive and reactive task distribution on heterogeneous exascale architectures

The project targetDART explores a task-based approach that extends the widely adopted MPI+OpenMP programming model to mitigate non-predictable load imbalances on heterogeneous supercomputing architectures. It has developed a runtime that employs dynamically adaptive and reactive (re-)distribution of tasks between compute nodes. We extended OpenMP's omp target functionality by allowing to define migratable tasks that may be dynamically scheduled on CPUs or GPUs on local or remote compute nodes. In this presentation, we will present the targetDART runtime extensions and demonstrate first results achieved with benchmark applications.

EXASIM: This talk will present recent updates of the EXASIM project. In particular updates on the implementation and performance results of the Ginkgo linear solver integration into OpenFOAM via OGL using Ginkgos distributed capabilities are presented. Additionally, first steps towards offloading the matrix assembly process to GPUs via a modern OpenFOAM core implementation named NeoFOAM are discussed.
12:30
60' Mittagspause
Dülfersaal, Alte Mensa
KI & HPC
Moderation: Dr. René Jäkel • Prof. Dr. Wolfgang E. Nagel
13:30
30'
High-Performance Computing Revolutionizes Therapeutic Development
Prof. Dr. Jens Meiler
Institut für Wirkstoffentwicklung, Universität Leipzig
About Prof. Dr. Jens Meiler
Jens Meiler studierte Chemie an der Universität Leipzig bevor er sich an der Johann-Wolfgang-Goethe Universität in Frankfurt im Labor von Christian Griesinger mit der Arbeit „Mathematische Verfahren zur Aufklärung der Struktur, Dynamik und biologischen Aktivität von Molekülen unter Verwendung von NMR Spektroskopischen und Empirischen Parametern“ promovierte. Im Jahre 2001 begann er seine postgraduale Ausbildung an der Washington Universität in Seattle. In der Arbeitsgruppe von David Baker war er an der Entwicklung der Protein Modellierungssoftware Rosetta beteiligt. Im Jahre 2005 wurde er an die Vanderbilt Universität in Nashville berufen. In seiner Forschung verbindet er computergestützte Verfahren mit experimentellen Methoden um Proteine und deren Wechselwirkungen mit Wirkstoffen und anderen Biomolekülen besser zu verstehen. Jens Meiler entwickelt computergestützte Verfahren auf drei Gebieten: Strukturbestimmung von Membranproteinen, computergestützte Wirkstoffforschung, und dem Design neuer Proteintherapeutika. Jens Meiler erhielt zahlreiche Ehrungen, unter anderem den Chancellor Faculty Award der Vanderbilt Universität und den Friedrich-Wilhelm-Bessel Preis der Humboldt Stiftung. Anfang 2020 übernahm Jens Meiler mit einer Humboldt Professur die Leitung des neu gegründeten Instituts für Wirkstoffentwicklung an der Universität Leipzig. Gleichzeitig führt er sein Labor an der Vanderbilt Universität in Nashville weiter. Seine Arbeitsgruppe besteht aus circa 60 Studenten und wissenschaftlichen Mitarbeitern. Er publizierte über 350 Manuskripte (Zitate >25 000, H-index >74).
Dülfersaal, Alte Mensa
14:00
30'
Large Language Models and Knowledge Graphs for Advanced Scientific Discovery
Prof. Dr. Michael Färber
ScaDS.AI Dresden / Leipzig
Dülfersaal, Alte Mensa
Description
The high publication rate in science and the resulting information overload for researchers makes research increasingly haphazard and unmanageable, while it brings at the same time the great potential to mine publications for AI-assisted research. However, the scientific key information (e.g., methods, datasets) is hidden in the unstructured full-texts of publications, making an explicit modeling, an interlinking to other databases, as well as a recommendation of this information challenging. Existing scholarly information systems typically allow users to search for publications given keywords or to ask for publications as recommendations. In both cases, the systems only provide the publications’ full-texts, requiring the users to skim through a vast amount of publications. In addition, state-of-the-art recommender systems are based on opaque deep neural networks, which hinders their applicability in science as a field with a high need for transparency. In this talk, I present how knowledge graphs and language odels can be used for solving these issues, paving the way toward AI-assisted research that allows researchers to obtain comprehensive overviews and hidden links between research topics.
14:30
30'
The evolution of storage requirements in AI focused HPC environment: ML Cloud use case
Dr. Kristina Kapanova
Universität Tübingen
Dülfersaal, Alte Mensa
Description
AI based workloads are focused primarily on small size I/O which is often bottleneck of the system. We are noticing a change in the workload of researchers which affects planning for new storage system and I/O patterns. We present the case of the ml cloud and how researchers workflow influences our storage configuration decisions.
15:00
30' Kaffeepause
Dülfersaal, Alte Mensa
15:30
30'
Automated Algorithm Selection: Effiziente Optimierung via Benchmarking und HPC
Prof. Dr. Pascal Kerschke
Professur für Big Data Analytics in Transportation, Institut für Wirtschaft und Verkehr, Technische Universität Dresden • ScaDS.AI Dresden / Leipzig
Dülfersaal, Alte Mensa
Description
In der Optimierungsforschung werden regelmäßig neue Methoden und Algorithmen entwickelt, die zu einer gegebenen Instanz eines Optimierungsproblems (Routenoptimierung, kontinuierliche Optimierung, Hyperparameter-Optimierung, etc.) möglichst effizient das jeweils inhärente Optimum ermitteln. Auf Grund der vielfältigen Strukturen der betrachteten Probleme, gibt es dabei für gewöhnlich nicht einen dominanten Optimierungsalgorithmus pro Problemklasse, der stets am schnellsten die ideale Lösung ermittelt. Die Wahl des "richtigen" Algorithmus hat somit einen großen Einfluss auf die Rechenressourcen, die erforderlich sind, um das entsprechende Optimum zu ermitteln. Daraus ergibt sich ein weiteres, vorgelagertes Problem der Algorithmenauswahl, welches sich jedoch dank maschineller Lernverfahren stark automatisieren lässt. Das zugehörige Forschungsgebiet "Automated Algorithm Selection" basiert auf umfangreichen HPC-Benchmark-Studien und ermöglicht deutliche Effizienzsteigerungen.
Im Rahmen des Vortrags wird ein Einblick in das Themengebiet "Automated Algorithm Selection" gegeben und es wird exemplarisch aufgezeigt, in welchen Bereichen dieses Forschungsfelds HPC-Studien erforderlich sind, um letztlich möglichst performante Algorithmenselektoren zu erhalten.
16:00
30'
Open-Source-Netzwerk LAION: Chancen und Herausforderungen
Christoph Schuhmann
About Christoph Schuhmann
Christoph Schuhmann ist Mitbegründer des Open-Source-Netzwerks LAION (Large-Scale Artificial Intelligence Open Network), das es sich zur Aufgabe gemacht hat, Entwicklungen im Bereich des maschinellen Lernens und der künstlichen Intelligenz quelloffen voranzutreiben. Bei LAION engagiert er sich ehrenamtlich als Organizational Lead. Er ist Lehrer für Physik und Informatik und hat einen Hintergrund in reformorientierter Bildung.
Dülfersaal, Alte Mensa
16:30
30'
Success-Stories und Ausblick der nationalen KI-Servicezentren in Deutschland
Prof. Dr. Julian Kunkel
Professur für Hochleistungsrechnen, Georg-August-Universität Göttingen
Dülfersaal, Alte Mensa
17:00
30'
Pseudo Spectral Methods in HPC: Where AI meets Numerics
Prof. Dr. Michael Hecht
Center for Advanced Systems Understanding (CASUS) • Mathematical Institute, University Wrocław
Dülfersaal, Alte Mensa
Description
In 2000 the SIAM Guest-Editors Jack Don-Garra and Francis Sullivan put together a list they call the “Top Ten Algorithms of the Century.” It is no surprise that two algorithms of that prominent list are the heart of fast (pseudo) spectral methods:

Fast Fourier Transform (FFT) 1965: James Cooley and John Tukey
Fast Multipole Methods (FMMs) 1987: Leslie Greengard and Vladimir Rokhlin

The article closes by: ”What new insights and algorithms will the 21st century bring? The complete answer obviously won’t be known for another hundred years. One thing seems certain, however.”...”The new century is not going to be very restful for us, but it is not going to be dull either!”

In this talk, I will present recent developments in the field of pseudo-spectral methods and show how these techniques accelerate and extend classical HPC and AI simulation techniques, contributing to the 21st-century endeavor of freeing sciences from their computational limitations.
Abendveranstaltung (Social Event) – Pulverturm
19:00
270'
Abendveranstaltung (Social Event) – Pulverturm
KI & HPC
Moderation: Prof. Dr. Thomas Ludwig
08:30
30'
Large Language Models for Bio-image Analysis
Dr. Robert Haase
ScaDS.AI Dresden / Leipzig
Dülfersaal, Alte Mensa
09:00
30'
Scalable Computer Architectures for AI
Prof. Dr. Diana Göhringer
Technische Universität Dresden
Dülfersaal, Alte Mensa
Quantencomputing
Moderation: Prof. Dr. Thomas Ludwig
09:30
60'
Keynote: Software for Quantum Computing -- The Bridge between the HPC Community and Actual Platform Providers
Prof. Dr. Robert Wille
Lehrstuhl für Design Automation, Technische Universität München • Software Competence Center Hagenberg GmbH
Dülfersaal, Alte Mensa
Description
Quantum computers are one of the most promising new technologies that may significantly affect the HPC community. In order to develop proper quantum algorithms, dedicated software tools and, eventually, software stacks are required. In the conventional realm, corresponding solutions are standard and well-established. In the quantum realm, however, developments are at the beginning (although great accomplishments have been made in the recent years). In this talk, we discuss how software can and must provide a "bridge" between end users as well as the HPC community on one side and platform providers as well as actual quantum computers on the other. To this end, we use examples from the Munich Quantum Toolkit (https://www.cda.cit.tum.de/research/quantum/ ) and well as developments towards the Munich Quantum Software Stack.
10:30
30' Kaffeepause
Dülfersaal, Alte Mensa
SCALEXA
Moderation: Dr. Marian Moldenhauer
11:00
45'
Speichersysteme für das Exascale
Dr. Tilman Dannert
Max Planck Computing and Data Facility
Prof. Dr. Julian Kunkel
Professur für Hochleistungsrechnen, Georg-August-Universität Göttingen
Patrick Vogler
Höchstleistungsrechenzentrum Stuttgart
Dülfersaal, Alte Mensa
Description
Die in großen Simulationen benötigten Datenmengen tragen immer mehr zu Performanceproblemen bei. Große Datenmengen sind nicht nur bei I/O problematisch, sondern auch während der Simulationsläufe, z.B. in MPI-Kommunikationsroutinen. Darüber hinaus bevorzugt die auf KI fokussierte Hardwareentwicklung kleinere Datenformate mit einfacher oder auch halber Präzision, im Gegensatz zur derzeit im wissenschaftlichen Rechnen üblichen doppelten Präzision. Im DaREXA-F Projekt werden, basierend auf Simulationsprogrammen für die Fusionsforschung (gyrokinetische Plasmaturbulenz mit GENE) Datenkomprimierungstechniken innerhalb der Simulationsläufe sowie der Einsatz von Datenformaten mit geringerer Präzision untersucht. Wir fokussieren dabei auf die Auswirkung auf die Genauigkeit der statistischen Eigenschaften der Turbulenz, auf die Stabilität der Algorithmen und die Performancegewinne auf verschiedenen Hardwarearchitekturen (CPU, GPU, FPGA, SmartNICs).

Im MCSE Projekt wird Hauptspeicher und nichtflüchtiger Speicher in einem verteilten Rechensystem unter einer einheitlichen Schnittstelle zusammengeführt. Dieser Vortrag fokussiert auf der Vorstellung der IO-Verbs, eine alternative (low-level) Schnittstelle, welche explizit Parallelität abbildet. Verschiedene Anwendungsbeispiele und deren Umsetzung werden zur Illustration vorgestellt.

Das vom Bundesministerium für Bildung und Forschung geförderte Projekt TopIO hat zum Ziel, die Lese- und Schreibgeschwindigkeiten des Open-Source-Bodensystemmodells MPAS (Model for Prediction Across Scales) zu optimieren. Zu diesem Zweck soll ein Auto-Tuning-Ansatz verfolgt werden, um die Komplexität mehrerer I/O-Schichten vor den Nutzern zu verbergen und die I/O-Leistung zu verbessern. Darüber hinaus werden Komprimierungsverfahren angewandt, um eine deutliche Reduzierung der Datenmenge ohne signifikanten Informationsverlust zu erreichen. Unter der Leitung des HLRS wurde bisher eine Analyseumgebung unter Verwendung bestehender Profiler-Tools wie Darshan und Vampire eingerichtet und Kennzahlen zur I/O-Leistung der UHOH-Anwendung ausgewertet. Darüber hinaus wurde eine API für die am HLRS entwickelte Kompressionsbibliothek formalisiert und eine Fehler- und Kompressionsartefaktanalyse bei Verwendung verlustbehafteter Kompressionsverfahren durchgeführt.
11:45
30'
Weiterentwicklungen des ICON-Modells
Dr. Maximillian Witte
Deutsches Klimarechenzentrum (DKRZ)
Dr. Fabian Senf
Leibniz-Institut für Troposphärenforschung e. V.
Dülfersaal, Alte Mensa
Description
Die ICON-Software ist der zentrale Baustein der nationalen Initiative für Erdsystemmodellierung und wird sowohl vom Deutschen Wetterdienst (DWD) für die operationelle Wettervorhersage als auch zur Erstellung von Klimaprognosen sowie generell in der Forschung verwendet. Das vom DWD und dem Max Planck Institut für Meteorologie gemeinsam entwickelte ICON-Modell basiert auf physikalischen Grundlagen für die Beschreibung der Atmosphäre und der Ozeane und spannt dafür ein Netz aus Dreiecksgittern um die Erde. So divers wie die besonders gesellschaftsrelevanten Anwendungsfelder von ICON sind auch die verschiedenen HPC-Architekturen, auf denen ICON Anwendung findet. Daraus entstehen für die erfolgreiche Zusammenarbeit zwischen den Computerwissenschaften und der geowissenschaftlichen Forschung besondere Herausforderungen. Die SCALEXA Projekte IFCES2 und ExaOcean tragen zur Bewältigung dieser bei und zielen darauf ab, mit neuartigen Ansätzen die Performanz des ICON Modells auf zukünftigen Exascale-Rechnern sicherzustellen. IFCES2 implementiert und optimiert zu diesem Zwecke neuartige Methoden der parallelen Ausführung, Kommunikation und der dynamischen Lastbalancierung für ICON. ExaOcean kombiniert numerische Algorithmen mit Techniken des Maschinellen Lernens in einem “super-resolution” Ansatz, um effektiv hohe Auflösung auch mit größeren Gitterweiten zu erzielen und somit den Durchsatz des Modells zu verbessern. Die entwickelten Techniken sind eine notwendige Voraussetzung für die effiziente Nutzung zukünftiger Exascale-Rechner, ermöglichen eine erhebliche Erhöhung des Detailgrades von Erdsystemmodellen und tragen damit zur Verringerung der Unsicherheiten zukünftiger Klimaprojektionen bei.
12:15
15'
Schlusswort
Dr. Michael Rafii
Bundesministerium für Bildung und Forschung
Prof. Dr. Wolfgang E. Nagel
Gauß-Allianz e. V.
Dülfersaal, Alte Mensa
 
 
Anfahrt und Veranstaltungsort
Technische Universität Dresden
Alte Mensa
Dülfersaal

Mommsenstraße 13
01069 Dresden

Weitere Informationen zur Anfahrt und zum Veranstaltungsort erhalten Sie in den Veranstaltungshinweisen des ZIH .