Diese GCSnews als pdf-Datei herunterladen
Die Internationale Supercomputing Conference (ISC), die größte internationale Veranstaltung aus dem Bereich des High-Performance Computing, wurde wegen der weltweiten Covid-19-Pandemie in diesem Jahr erneut in digitaler Form ausgetragen. Das GCS hatte für die vom 24. Juni bis 2. Juli stattfindende Konferenz „ISC High Performance 2021 Digital“ eine dedizierte Website erstellt, die die zahlreichen Aktivitäten, an denen sich Repräsentanten der drei GCS-Zentren beteiligten, in übersichtlicher Form präsentierte. Die ISC-Website des GCS umfasste zudem einen virtuellen Messestand in 3D und 360°, der Besucherinnen und Besuchern ermöglichte, Informationen zu den HPC-Themen und aktuellen Projekten der drei GCS-Zentren in einer 3D-Umgebung interaktiv abzurufen. Die auf der ISC21 angebotenen Vorträge (Präsentationen und Videos) sind auf der ISC-Website für registrierte Teilnehmende bis Ende 2021 verfügbar. Als Vorsitzender des wissenschaftlichen Programms der ISC 2021 Digital agierte Prof. Dr. Martin Schulz, Mitglied des Direktoriums des Leibniz-Rechenzentrums, Garching, und Professor an der Technischen Universität München. (Weitere Informationen)
Am Eröffnungstag der ISC2021 Digital wurde die inzwischen 57. Ausgabe der TOP500 publiziert, die die größten High-Performance Computing (HPC) Systeme der Welt anhand ihrer mit dem High-Performance Linpack (HPL) Benchmark erzielten Leistung führt. Das JUWELS-Booster-System des Jülich Supercomputing Centre (JSC) ist demzufolge weiterhin der schnellste Supercomputer Europas. Mit seiner theoretischen Spitzenleistung von 71 Petaflops rangiert das von Atos gelieferte Jülicher Rechnersystem in den aktuellen TOP500 auf Rang 8. Zudem belegt der JUWELS-Booster in der Green500-Liste, die die TOP500-Supercomputer anhand ihrer Energie-Effizienz sortiert (gemessen in GFLOPS pro Watt), im weltweiten Vergleich den 7. Platz. Unter den weltweit 20 größten Systemen nimmt der JUWELS-Booster sogar Rang 2 in der Green500 ein. Auch die Rechnersysteme des Leibniz-Rechenzentrums in Garching, SuperMUC-NG (Platz 17), und des Höchstleistungsrechenzentrums Stuttgart, Hawk (Platz 18), konnten sich unter den besten 20 Systemen der Welt behaupten. Alle GCS-Höchstleistungsrechner sind vom Bundesministerium für Bildung und Forschung (BMBF) und den Wissenschaftsministerien der Länder Bayern, Baden-Württemberg und Nordrhein-Westfalen finanziert.
An der Spitze der TOP500 gab es keine Änderung: Der weltweit leistungsfähigste Supercomputer ist weiterhin der von Riken und Fujitsu mitentwickelte Supercomputer Fugaku am japanischen RIKEN Center for Computational Science mit einem HPL-Benchmarkwert von 442 Petaflops. (Weitere Informationen)
Svenja Schulze, Bundesministerin für Umwelt, Naturschutz und nukleare Sicherheit, machte auf ihrer Sommerreise am 28. Juni 2021 Station im Forschungszentrum Jülich. Am Jülich Supercomputing Centre (JSC) informierte sie sich über energieeffizientes Supercomputing und den Einsatz Künstlicher Intelligenz (KI) für den Klima- und Umweltschutz. Begrüßt wurde die Ministerin von den neuen Vorständinnen am Forschungszentrum, Dr. Astrid Lambrecht und Prof. Frauke Melchior. Forschende des JSC, allen voran die Projektleiterin Dr. Scarlet Stadtler, gaben Einblicke in das KI:STE-Projekt (KI-Strategie für Erdsystemdaten), das vom BMU gefördert wird. Ziel des Projekts ist es, Deep-Learning-Methoden für die fundierte Analyse von Umweltdaten zu nutzen – unter anderem, um Risiken durch Naturgefahren abzuschätzen, die infolge des Klimawandels vermehrt auftreten. Dies soll es beispielsweise ermöglichen, bei extremen meteorologischen Ereignissen frühzeitig präventive Maßnahmen einzuleiten. Zusammen mit den Projektpartnern sollen zudem die technischen Voraussetzungen geschaffen werden, um leistungsstarke KI-Anwendungen für Umweltdaten portabel zur Verfügung zu stellen. Prof. Thomas Lippert, Leiter des JSC, erläuterte anschließend die Arbeiten am JSC zum energieeffizienten Supercomputing, auch im Hinblick auf die Entwicklung künftiger Exascale-Systeme. Die Bundesumweltministerin zeigte sich beeindruckt von den Jülicher Forschungsaktivitäten.
Das LRZ überführt seinen Höchstleistungsrechner SuperMUC-NG in die Phase 2. Das aktuelle System soll dazu in Kooperation mit Intel und Lenovo ausgebaut werden: Künftig sollen neben Höchstleistungen bei Berechnungen und Simulationen zusätzlich auch Künstliche Intelligenz (KI) und Verfahren des Deep Learning unterstützt werden. Dafür wird das System mit skalierbaren Intel-Xeon-Prozessoren der nächsten Generation (Codename „Sapphire Rapids“) ausgestattet sein. Des Weiteren wird die künftige GPU „Ponte Vecchio“ von Intel zum Einsatz kommen – basierend auf der Xe-HPC-Mikroarchitektur für HPC und KI. Um den Zugriff auf große Datenmengen zu beschleunigen, wird das Speichersystem über einen verteilten asynchronen Objektspeicher (DAOS) verfügen. Dieser besteht aus Intel-Xeon-Scalable-Prozessoren der 3. Generation und nutzt Intel® OptaneTM Persistent Memory. Wie SuperMUC-NG Phase 1 wird auch die aktuelle Ausbauphase zu gleichen Teilen vom Freistaat Bayern und vom Bundesforschungsministerium im Rahmen des Gauss Centre for Supercomputing (GCS) finanziert. Die Rechenkapazitäten werden speziell qualifizierten Forschungsprojekten bundesweit in einem wissenschaftlichen Auswahlverfahren zur Verfügung gestellt. (Weitere Informationen)
Am 1. Mai 2021 begann für die Nutzer der drei HPC-Systeme des GCS – Hawk am Höchstleistungsrechenzentrum Stuttgart (HLRS), JUWELS am Jülich Supercomputing Centre (JSC) und SuperMUC-NG am Leibniz-Rechenzentrum (LRZ) in Garching bei München – die neueste Runde von nationalen Großprojekten für Simulation, Modellierung und Künstliche Intelligenz, die neben einem Großkontingent an Rechenzeit auch intensive Anwenderunterstützung durch die HPC-Experten der drei GCS-Zentren erfordern. Im Rahmen des 25. Calls for Large-Scale Projects genehmigte das GCS in Summe 1,6 Milliarden CPU-Stunden für insgesamt 14 Forschungsvorhaben, die die strengen Qualifikationskriterien des GCS-Rechenzeitkomitees erfüllten. Die Vorhaben kommen aus den Bereichen Fluiddynamik, Bioinformatik, Chemie, theoretische Physik der kondensierten Materie und Elementarteilchenphysik. Eine detaillierte Übersicht aller genehmigten Projekte, die mit einer Laufzeit von zwölf Monaten veranschlagt sind, ist auf der GCS-Website verfügbar. (Weitere Informationen)
Der Chip-Designer Arm und das Forschungszentrum Jülich arbeiten künftig gemeinsam an der Portierung und Optimierung wissenschaftlicher Anwendungen für Höchstleistungsrechner auf Arm-basierten Architekturen. Ein entsprechender Kooperationsvertrag hierzu wurde im Mai d. J. unterzeichnet. Von Arm stammt die Architektur der Chips, die in praktisch allen Smartphones, den weitaus meisten Tablet-Computern und zunehmend auch in Superrechnern Verwendung finden. Zudem ist das Arm-Design die Basis für die Entwicklung der ersten europäischen HPC-Prozessoren innerhalb der europäischen Prozessor-Initiative (EPI Projekt), an der sich das JSC beteiligt. Die Zusammenarbeit konzentriert sich auf die Analyse und Optimierung exemplarischer Codes für Superrechner auf Arm-basierten Supercomputer-Systemen. Das gemeinsame Team führt Performance-Analysen und Code-Engineering durch und nutzt dabei die spezifischen Eigenschaften der Arm-basierten Hardware, um die Anwendungsleistung weiter zu verbessern. Die dabei identifizierten Code-Anforderungen sollen bei der Entwicklung zukünftiger Technologien und Systeme für Höchstleistungsrechner helfen. (Weitere Informationen)
Das Myon ist ein Elementarteilchen, ein kurzlebiger Cousin des Elektrons. Seit etwa 20 Jahren stimmt die Berechnung seines magnetischen Moments nicht mehr mit seiner Messung überein, was darauf hindeutet, dass ein noch nicht bekanntes Teilchen oder eine Kraft das Myon beeinflussen könnte. Kürzlich hat ein Experiment am Fermi National Accelerator Laboratory in den USA diese rätselhafte Diskrepanz eklatant bestätigt. Neue ab-initio-Rechnungen mit der Beteiligung Jülicher Wissenschaftler stellen jedoch die Ergebnisse bisheriger Berechnungen in Frage und bringen die theoretische Vorhersage näher an den experimentellen Wert heran. Diesen neuen Erkenntnissen zufolge sind keine neuen Kräfte oder Teilchen notwendig, um die experimentellen Messungen zu erklären. Die Ergebnisse des internationalen Forschungsteams aus Wissenschaftlerinnen und Wissenschaftlern der Universität Wuppertal, des Jülich Supercomputing Centre, des CNRS Marseille, der Eötvös-Loránd-Universität Budapest und der Pennsylvania State University wurden im April 2021 in Nature veröffentlicht (DOI: 10.1038/s41586-021-03418-1). Die Berechnungen wurden auf GCS-Supercomputern durchgeführt, vorwiegend auf JUQUEEN und JUWELS am JSC, aber auch auf Hawk am HLRS und SuperMUC-NG in Garching. Weitere Informationen: Pressemitteilung Forschungszentrum Jülich; Interview mit Prof. Szabo
Das HLRS leitet ein neues Projekt mit dem Namen ENRICH (Energie, Nachhaltigkeit, Ressourceneffizienz in IT und Rechenzentren), um die Zukunft der Digitalisierung in Baden-Württemberg zu untersuchen und Möglichkeiten zu identifizieren, Rechenzentren nachhaltiger zu gestalten. Das zweijährige Projekt wird vom Ministerium für Umwelt, Klimaschutz und Energiewirtschaft des Landes Baden-Württemberg gefördert. Beteiligt sind außerdem Mitarbeiter des Instituts für Energiewirtschaft und Rationelle Energieanwendung (IER) der Universität Stuttgart, der DIALOGIK gGmbH und der Universität Ulm sowie Hewlett Packard Enterprise (HPE), Hersteller des HLRS-Supercomputers Hawk. In ENRICH werden die aktuellsten Entwicklungen im Bereich der Informationstechnologien und der Rechenzentren auf Ressourceneffizienz und deren Nachhaltigkeitspotential hin untersucht. Die innovationsgetriebene Geschwindigkeit der Entwicklung von Hardware und Anwendungen für Rechensysteme steigt seit Jahrzehnten unverändert intensiv. Die gleichzeitig zunehmende Komplexität der Technologien erhöht den Verständnisanspruch von Maßnahmen zur nachhaltigen Verbesserung der Umweltleistung. Hierzu sollen in dem Projekt die aktuellsten Megatrends der IT-Technologien, die nachhaltige Beschaffung, die Entwicklung bewährter und neuartiger Energieeffizienzmaßnahmen – einschließlich Abwärmenutzung – beispielhaft untersucht werden. Die Integration der Anwenderperspektive ist maßgeblich dafür, dass die vorgeschlagenen Lösungen trotz erhöhter Komplexität dem Menschen nutzen. Das HLRS wird sich vorrangig mit der Analyse von Lieferketten für IT-Hardware, dem Einsatz von KI für höhere Energie- und Ressourceneffizienz und dem Betrieb digitaler Infrastrukturen, einschließlich effizienter Programmierung, effizientem Rechenzentrumsbetrieb und der Nutzung intelligenter Netze beschäftigen. (Weitere Informationen)
Künstliche Intelligenz (KI) braucht Rechenkraft. Deshalb bringen das Leibniz-Rechenzentrum (LRZ) und das Munich Centre for Machine Learning (MCML) jetzt Wissen und Technik zusammen und schaffen gemeinsam mehr Rechenpower für die Grundlagenforschung zu KI. Am LRZ in Garching wurde dafür MUNICH.ai (Mcml UNIversal Cluster for High-performance AI), ein Cluster basierend auf 8 DGX-A100-Knoten von NVIDIA mit insgesamt 64 Graphics Processing Units (GPU) in Betrieb genommen. Das System bringt es auf 40 AI Petaflops. „Die zusätzlich installierte Hardware repräsentiert den neuesten Stand der Technik und garantiert einen Standard, wie ihn nur die führenden KI-Zentren Deutschlands bieten können“, erklärt Professor Thomas Seidl, Inhaber des Lehrstuhls für Datenbanksysteme und Data Mining an der Ludwig-Maximilians-Universität (LMU), Direktor des MCML und des LRZ. (Weitere Informationen)
Zweimal im Jahr vergibt die NIC-Rechenzeitkommission den Titel „NIC-Exzellenzprojekt“ an herausragende Simulationsprojekte. Im April 2021 verlieh die Kommission diese Auszeichnung Prof. Szabolcs Borsanyi (Bergische Universität Wuppertal) für seine Arbeiten zur Bestimmung der starken Wechselwirkung aus dem Standardmodell der Teilchenphysik mit dem besonderem Fokus auf der Bestimmung des magnetischen Moments des Myons. Das Standardmodell der Teilchenphysik beschreibt sämtliche uns bekannten Elementarteilchen und deren Wechselwirkung. So konnte beispielsweise die Existenz des Higgs-Bosons mit diesem Modell erfolgreich vorhergesagt werden; eine Leistung, die 2013 mit dem Nobelpreis für Physik gewürdigt wurde. Jedoch ergeben sich zudem immer wieder – auch vermeintliche – Diskrepanzen zwischen der Theorie und dem Experiment; so beispielsweise bei der Bestimmung des magnetischen Moments des Myons. Die Arbeiten von Prof. Borsanyi et al. konnten diese Diskrepanz dadurch auflösen, dass die Wechselwirkung der beteiligten Teilchen ohne Zuhilfenahme experimenteller Daten ausschließlich mit Hilfe des Standardmodells berechnet wurde. Weiterhin würdigt das NIC die Arbeiten zur Berechnung von Schwerionen-Experimenten unter Verwendung des Standardmodells. Hierbei sind extreme physikalische Bedingungen zu berücksichtigen; eine hohe Anforderung an die Theorie und das Experiment. (Weitere Informationen)
Der Computer-Hardware-Hersteller AMD hat dem HLRS zehn Serversysteme aus seinem „COVID-19 High Performance Computing“ Fonds gespendet. Die im April gelieferten Systeme werden für die Forschung im Zusammenhang mit der Coronavirus-Pandemie sowie weiteren globalen Herausforderungen eingesetzt. Zuvor hatte das HLRS gemeinsam mit dem Bundesinstitut für Bevölkerungsforschung (BiB) ein Berechnungsmodell für die Auslastung von Intensivstationen in Deutschland entwickelt, mit dem sich der Bedarf an Intensivbetten bis zu acht Wochen vorhersagen lässt. Auf der gespendeten Infrastruktur wird künftig ein täglicher Bericht über die Auslastung von Krankenhäusern berechnet, zudem können die Berechnungen politische Entscheidungen, wann, wo und welche Maßnahmen notwendig sind, unterstützen. Auch für das EU-geförderte Projekt HiDALGO und das vom Land Baden-Württemberg geförderte Projekt bwHPC-S5 sind die Serversysteme einsetzbar. Jeder der neuen AMD-Knotenpunkte, die in den HLRS-Cluster Vulcan integriert werden, enthält einen AMD-EPYC™-Prozessor und acht AMD-Instinct™-Beschleuniger, die für Anwendungen mit maschinellem Lernen, Deep Learning und künstlicher Intelligenz optimiert wurden. Das Serversystem mit 530 TeraFlop/s und 64-bit Gleitkomma-Leistung wurde von der Firma Penguin Computing gebaut. (Weitere Informationen)
Das Modul JURECA-DC − DC steht für datenzentriert − ist ein Supercomputer mit innovativer Unterstützung für datenintensive Anwendungen. Pünktlich zu Beginn der neuen Rechenzeitperiode wurde am 1. Mai 2021 die zweite Phase dieses Moduls am JSC in Betrieb genommen. JURECA-DC besteht nun aus insgesamt 480 CPU-Knoten des Typs AMD EPYC Rome mit je 512 GB Speicher, 96 CPU-Knoten mit je 1024 GB Speicher sowie 192 GPU-Knoten mit 512 GB Speicher und je vier A100-GPUs. Die Compute-Knoten und Login-Server sind über ein Nvidia Mellanox InfiniBand HDR-Netzwerk miteinander verbunden. Die theoretische Spitzenleistung beträgt 18,52 Petaflops, davon 14,98 Petaflops auf den GPUs und 3,54 Petaflops auf den CPUs. Damit hat das JURECA-DC-Modul die 8-fache Leistung seines Vorgängers, dem JURECA-Cluster-Modul, und steht auf Platz 44 der aktuellen TOP500-Liste (Juni 2021). Innerhalb JURECA-DC stehen zusätzliche Features zur Verfügung, wie ein lokales, über das Netzwerk zugängliches NVMe-basiertes Speichersystem, zusätzliche Profiling-Funktionen und ein Energieoptimierer. Beschafft wurde das Modul im Rahmen des von der EU geförderten Projekts PPI4HPC. Ein Teil der Ressourcen wird europäischen Forschenden zugänglich sein. Überwiegend wird die Rechenzeit auf JURECA-DC jedoch an Wissenschaftlerinnen und Wissenschaftler der Helmholtz-Zentren vergeben, insbesondere auch an jene am Forschungszentrum Jülich.
Vom 8. bis 10. Juni diskutierten Wissenschaftlerinnen und Wissenschaftler beim digital veranstalteten Status- und Results-Workshop des LRZ über ihre mit SuperMUC-NG erzielten Ergebnisse. Bis zu 160 Interessierte loggten sich hierzu in Spitzenzeiten ein. Seit dem Start 2019 rechneten die 311.040 Rechenknoten des LRZ-Supercomputers knapp 30 Milliarden Stunden. Sie erledigten dabei in 840 Forschungsprojekten rund 195.000 Jobs, modellierten das Geschehen in Turbulenzen, in Luft- und Wasserströmungen und sogar in Feuer. Besonders rechenintensiv sind Anwendungen aus der Physik und Thermodynamik, da hier besonders viele Daten erzeugt werden. So modellierte ein Team des Max-Planck-Instituts für Astrophysik unter der Leitung von Prof. Volker Springel aus einem Datenvolumen von 25 Terabyte die Materieverteilung im Universum über zwei Milliarden Lichtjahre hinweg. Auch die Ingenieur-, Bio- oder Umweltwissenschaften sowie Pharmazie und Medizin setzen auf HPC. SuperMUC-NG simulierte die Auswirkungen von Erdbeben sowie von Verkehrsemissionen aufs Klima und den Blutfluss: Die Forschungsgruppe CompBioMed visualisierte auf SuperMUC-NG, wie Blut durch die Adern im Unterarm gepumpt wird: Damit können Mediziner lernen und besser behandeln. Mehr Projekte, für die SuperMUC-NG rechnete, finden sich im neu erschienenen Berichtsband HPC in Science and Engineering (2020). 17 der 26 Workshop-Vorträge sind auf YouTube verfügbar.
Das HLRS hat im Juni seinen Jahresbericht von 2020 auf Deutsch und Englisch veröffentlicht. Er bietet einen Rundumschlag an Informationen zu den Ereignissen und Aktivitäten des Höchstleistungsrechenzentrums im vergangenen Jahr. Zu den Highlights zählen unter anderem Artikel über die Forschung im Zusammenhang mit dem Coronavirus (siehe „Höchstleistungsrechnen im COVID-19-Jahr“), die Einweihung des neuen Supercomputers Hawk, die Umweltzertifikate EMAS und Blauer Engel, mit denen die Bemühungen des Zentrums im Umwelt- und Energiemanagement gewürdigt wurden, ein Interview zum Thema „Flexiblere Robotik durch Künstliche Intelligenz“ mit Prof. Marco Huber vom Fraunhofer IPA, sowie Berichte über den Beginn einiger vom HLRS koordinierter EU-Projekte aus dem HPC-Bereich. Darüber hinaus beinhaltet der Jahresbericht Beiträge zu neuen Kooperationen, Programmen und Technologien des Zentrums sowie Forschungsberichte. Die beiden Sprachversionen stehen zum Download auf der HLRS-Webseite bereit. (Weitere Informationen)
Jüngste Erfolge haben das Potenzial der parallelen Zeitintegration als leistungsstarkes algorithmisches Paradigma zur Erschließung der Leistung von Exascale-Systemen etabliert. Allerdings wurden diese Erfolge hauptsächlich in einem eher akademischen Umfeld erzielt, Das EuroHPC-Projekt TIME-X wird den nächsten Schritt in der Entwicklung und dem Einsatz dieses vielversprechenden neuen Ansatzes für massiv-parallele HPC-Simulationen machen und eine effiziente parallele Zeitintegration für reale Anwendungen ermöglichen. Finanziert durch das EuroHPC Joint Undertaking und nationale Regierungen wird das Konsortium aus 10 Institutionen aus Belgien, Frankreich, Deutschland und der Schweiz Software und neuartige algorithmische Konzepte für die parallele Zeitintegration auf aktuellen und zukünftigen HPC-Architekturen entwickeln. Die Partner werden das Potenzial in drei unterschiedlichen und anspruchsvollen Anwendungsfeldern mit hoher gesellschaftlicher Bedeutung demonstrieren: Wetter und Klima, Medizin und Fusion. Um dies zu erreichen, vereint das inhärent interdisziplinäre TIME-X-Konsortium alle relevanten Akteure auf europäischer Ebene aus der numerischen Analysis und angewandten Mathematik, der Informatik und den ausgewählten Anwendungsdomänen in einer gemeinsamen strategischen Forschungsanstrengung. Das Projekt wird von der KU Leuven (Belgien) geleitet. Das Jülich Supercomputing Centre (JSC) wird hauptsächlich innerhalb der Arbeitspakete "HPC & Implementation" und "Impact Maximisation" arbeiten. JSC plant Schulungen und Tutorials sowie zusammen mit der Technischen Universität Hamburg-Harburg ein Promotionsprojekt über fehlertolerante, robuste Zeitintegratoren. Das Projekt startete am 1. April und hat eine Laufzeit von drei Jahren. (Weitere Informationen)
Der Schlüssel zum Verständnis und letztlich zur Verbesserung der Leistung von HPC-Anwendungen ist die Leistungsmessung. Leider setzen viele HPC-Systeme ihre Jobs einer erheblichen Menge an Störungen − auch Rauschen genannt (auf Englisch: Noise) − aus, was zu erheblichen Schwankungen von Lauf zu Lauf führt. Dies macht Leistungsmessungen im Allgemeinen nicht reproduzierbar und erschwert die Leistungsanalyse und -modellierung erheblich. Bei verrauschten Systemen müssen Performance-Analysten in der Regel Performance-Messungen mehrmals wiederholen und dann statistisch auswerten, um Trends zu erfassen. Das ist erstens teuer und zweitens ist die Extraktion von Trends aus einer begrenzten Reihe von Experimenten alles andere als trivial, da das Rauschen recht unregelmäßigen Mustern folgen kann. Diesem Problem widmen sich nun Prof. Felix Wolf von der TU Darmstadt, Dr. Bernd Mohr vom Jülich Supercomputing Centre und Drs. Dmitry Nikitenko und Konstantin Stefanov von der Moskauer Staatsuniversität in einem gemeinsamen Projekt namens ExtraNoise. Es wird von der Deutschen Forschungsgemeinschaft (DFG) und der Russischen Stiftung für Grundlagenforschung (RFBR) gefördert. Darüber hinaus bringt Prof. Torsten Hoefler von der ETH Zürich seine Expertise als assoziierter Partner ein. Ziel ist es, nicht nur die Performance-Analyse rauschresistenter zu machen, sondern auch ein besseres Verständnis dafür zu erlangen, wie Anwendungen generell auf Rauschen reagieren und welche Designentscheidungen ihr aktives und passives Störpotenzial erhöhen oder senken. Das Projekt mit einer Laufzeit von drei Jahren wird von der TU Darmstadt koordiniert.
Ein Team der Technischen Universität München (TUM) und des Max-Planck-Instituts für Biochemie hat die Angriffstaktik des Corona-Virus erschlossen und zeigt auf, wie es für seine Vermehrung auf mehreren Ebenen Proteine in menschlichen Zellen verändert. „Dieses Wissen hilft, das Virus besser zu verstehen und Ansatzpunkte für neue Medikamente zu finden“, erklärt Dr. Andreas Pichlmair, Professor für Immunpathologie am Institut für Virologie der TUM. An der Forschung beteiligt war außerdem der Linux-Cluster des Leibniz-Rechenzentrums (LRZ): In knapp 6,5 Millionen Rechenstunden wurden daran Massenspektrometrie-Daten von rund 1200 Experimenten ausgewertet. Von April bis Oktober 2020 erledigte das Cluster insgesamt 166 Jobs. Das Ergebnis kann sich sehen lassen: Eine offen zugängliche Datenbank gibt nun Auskunft darüber, wo Covid-19 Zellen angreift – Wissen, das Pharmakologen jetzt nutzen können, um Medikamente gegen die Symptome von Corona zu entwickeln und Impfstoffe zu verbessern. Die Untersuchungen von Pichlmair und Mann gehörte 2020 zu den Projekten, denen das LRZ 2020 im Kampf gegen Corona beschleunigten Zugang zu seinen Rechenkapazitäten gewährte. Die Ergebnisse wurden im April im NATURE Magazin veröffentlicht.
Als der Lockdown im März das HLRS traf, bot das HLRS zusammen mit seinen GCS-Partnern Wissenschaftlern, die das neuartige SARS-CoV-2-Virus untersuchen, beschleunigten Zugang zu seinen Systemen an. Acht COVID-19-bezogene Projekte nutzten das HLRS-System im Laufe des Jahres. In mehreren Vorhaben erforschten Wissenschaftler den physischen Aufbau des Virus. Dies umfasste die Forschung zur Modellierung des COVID-19-Spike-Proteins, das eine Infektion auslöst, wenn es mit dem menschlichen ACE2-Rezeptor auf der Zelloberfläche interagiert. Andere setzten auf einen Ansatz namens Molekulardynamik, um mit extrem hoher Auflösung zu simulieren, wie Proteine auf der Oberfläche des Virus ihre Form verändern. Ein besseres Verständnis dieser Phänomene könnte helfen, Medikamente zu entdecken, die die Interaktion zwischen Virus und Mensch beim Eindringen in die Zellen hemmen könnten. Da diese Probleme so komplex sind, erwiesen sich die HLRS-Rechnersysteme als unverzichtbar für diese Forschung. Zusätzlich zur Bereitstellung von Rechenzeit für die Forschung arbeitet das HLRS auch in Projekten zur Bekämpfung der Pandemie mit. In dem neuen EU-geförderten Projekt ORCHESTRA beispielsweise trägt das HLRS zur Entwicklung eines wichtigen Management-Tools für die öffentliche Gesundheit während Pandemien bei. Auch vor Ort wirkte sich die COVID-Krise auf den HLRS-Alltag aus: Selbst Ende 2020 waren nur wenige Mitarbeiter täglich vor Ort am HLRS, die meisten arbeiteten von zu Hause aus und vernetzten sich per E-Mail und Videokonferenz. Die umfassenden HPC-Schulungen wurden schon nach wenigen Wochen auf ein Online-Format umgestellt und über die Videokonferenz-Plattform Zoom abgehalten. Das Zentrum konnte dadurch einen wesentlichen Rückgang der normalen Teilnehmerzahlen vermeiden und sogar ein geographisch breiteres Publikum erreichen. (Weitere Informationen)
Mit der Car-Parrinello-Molekular-Dynamik (CPMD) berechnen und modellieren Supercomputer in der Physik, Chemie oder Materialforschung die räumlichen Bewegungen von Atomen und Molekülen. Dabei erweist sich die Kommunikation zwischen den Rechenknoten in den parallelen Computersystemen zunehmend als Bremse bei der Implementierung des Algorithmus auf alle Rechenknoten und deren Arbeit. In Zusammenarbeit mit dem Leibniz-Rechenzentrum (LRZ) ist es einem Team der Friedrich-Alexander-Universität (FAU) Erlangen nun gelungen, das CPMD-Programm enorm zu beschleunigen und auf die weiter wachsende Zahl von Rechenknoten moderner paralleler Systeme anzupassen: CPMD kann jetzt schneller auf dem SuperMUC-NG und anderen aktuellen Supercomputern integriert und ausgeführt werden – eine Erleichterung beim Berechnen von Formeln und der Entwicklung neuer Materialien. Einen Kurzbericht über den angepassten Algorithmus finden Sie auf der Website des LRZ https://www.lrz.de/presse/ereignisse/2021-06-02-CPMD-Algorithmus/.
Im April d. J. stand die Wahl des neuen GCS-Vorstands an, der – gemäß Statuten – alle zwei Jahre neu zu berufen ist. In einer turnusmäßig anberaumten Mitgliedsversammlung des Gauss Centre for Supercomputing (GCS) wurde Prof. Thomas Lippert zum neuen GCS-Vorstandsvorsitzenden gewählt. Prof. Lippert, Leiter des Jülich Supercomputing Centre, tritt die Nachfolge von Prof. Dieter Kranzlmüller (Leibniz-Rechenzentrum, LRZ) an, der für die kommenden zwei Jahre gemeinsam mit Prof. Michael M. Resch (Höchstleistungsrechenzentrum Stuttgart, HLRS) als stellvertretender Vorstandsvorsitzender fungiert. (Weitere Informationen)
Zum vierten Mal in Folge stellten Studentinnen und Studenten der Universität Heidelberg ihre internationale Klasse im Bereich des Höchstleistungsrechnens unter Beweis. Angetreten als Team Heidelbears – einziger deutscher Vertreter im internationalen Studentencluster-Wettbewerb, der jährlich im Zuge der internationalen Supercomputing Conference (ISC) ausgetragen wird – boten die Heidelberger Studierenden eine solide Performance und erkämpften sich im sehr stark besetzten internationalen Teilnehmerfeld unter 12 Teams einen soliden 7. Rang. Zum Abschneiden der Heidelbears, die mit Aksel Alpay und Alexander Haller von zwei Mitarbeitern des Universitätsrechenzentrums (URZ) Heidelberg, Servicebereich Future IT - Research & Education (FIRE) auf den Wettbewerb vorbereitet worden waren, gratulierte nicht nur die GCS-Geschäftsführung sondern in einer Pressemeldung des Ministeriums für Wissenschaft, Forschung und Kunst Baden-Württemberg auch Frau Ministerin Theresia Bauer. Als Sieger des Wettbewerbs – der pandemiebedingt in diesem Jahr erneut digital ausgetragen wurde - ging mit Team Diabolo von der Universität Tsinghua wie im Vorjahr eine Mannschaft aus China hervor. (Weitere Informationen)