GCSnews 29/2020 (Oktober 2020) Gauss Centre for Supercomputing e.V.

PUBLICATIONS

GCSnews 29/2020 (Oktober 2020)


Diese GCSnews als pdf-Datei herunterladen

Online statt On-site: Das digitale Trainings- und Workshop-Angebot des GCS

Die im März 2020 in Europa angekommene COVID-19-Pandemie traf auch die am GCS Verantwortlichen für Fortbildung und Training ohne Vorwarnung. Von einem Tag auf den anderen sah man sich mit einer niemals erwarteten Situation konfrontiert. Öffentliche Einrichtungen mussten geschlossen, alle direkt anstehenden Seminare, Kurse und Workshops storniert werden. Um die Aus- und Weiterbildungsveranstaltungen an den GCS-Zentren so schnell wie möglich fortführen zu können, bedurfte es einer Alternativlösung, die rasch gefunden und umgesetzt werden musste. Fieberhaft wurde daran gearbeitet, die HPC-Kurse und -Workshops in Online-Veranstaltungen umzugestalten, und nach nur kurzer Pause stand das Konzept. Trotz der weitgehenden Einschränkungen durch die Corona-Pandemie konnten in den GCS-Zentren der Großteil der geplanten Schulungen und Veranstaltungen in digitaler Version angeboten werden. Die Online-Versionen der Schulungen und Workshops des HLRS, JSC und LRZ – wie auch die in der Rolle von GCS als PRACE Training Centre (PTC) abgehaltenen Kurse - finden ausgesprochen regen Zuspruch. Seit seiner Initiierung haben Hunderte von Teilnehmern aus Deutschland und Europa das digitale Trainings- und Workshop-Angebot des GCS in Anspruch genommen, das in der jetzt angebotenen virtuellen Form auf absehbare Zeit fortgeführt und weiterentwickelt wird. (Weitere Informationen)

To top

FF4EuroHPC - HPC für europäische KMUs

Das HLRS übernimmt ab Herbst 2020 die Koordination eines weiteren europäischen HPC-Projekts. FF4EuroHPC ist das Nachfolgeprojekt der erfolgreich abgeschlossenen EU-Projekte Fortissimo und Fortissimo 2, die den Einsatz von HPC in der Industrie durch sogenannte Testläufe bzw. Experimente förderten. Die „Lessons Learned“ und „Best Practices“ wurden in einem Anwendungs-Portfolio zusammengetragen und stehen interessierten Unternehmen zur Verfügung. FF4EuroHPC setzt – mit dem Fokus auf kleine und mittlere Unternehmen (KMUs) in Europa – auf diese Erkenntnisse auf und bietet Einführung, Beratung und Unterstützung für HPC, High-Performance Datenanalyse (HPDA) sowie Künstliche Intelligenz (KI) und Deep Learning (DL). Das Projektziel ist, dass teilnehmende KMUs optimierte Design- und Entwicklungsprozesse ableiten, somit bessere Produkte und Dienstleistungen generieren und dadurch ihre Wettbewerbsfähigkeit erhöhen. Erfolgreiche Maßnahmen werden anschließend als Erfolgsgeschichten veröffentlicht, um die Vorteile von HPC und verwandter Technologien wie KI oder HPDA einem noch breiteren Kreis von KMUs nahe zu bringen. KMUs mit Vorschlägen für Probeprojekte können sich für Rechenzeitkontingente bewerben. Offizieller Starttermin für FF4EuroHPC war der 1. September 2020. (Weitere Informationen)

To top

JSC am Exzellenzzentrum für Verbrennung (CoEC) beteiligt

Das "Center of Excellence in Combustion (CoEC)" ist ein von der EU gefördertes Projekt, das am 1. Oktober 2020 mit einem Gesamtbudget von rund 5,6 Millionen Euro startete. Es vereint elf europäische Partner mit Expertise in der numerischen Simulation der Verbrennung mit dem Ziel, eine dem Industriesektor zugängliche Hochleistungssoftware für den Entwurf innovativer Verbrennungstechnologien zu entwickeln. Die Simulation der turbulenten Verbrennung in echten Anlagen, wie Motoren und Gasturbinen, ist rechnerisch äußerst anspruchsvoll und gehört stets zu der Gruppe der Anwendungen, die einen großen Teil der verfügbaren Rechenzeit auf Tier-0-Maschinen nutzen können. Das Exzellenzzentrum will den Übergang der europäischen Verbrennungscodes zum Exascale-Computing fördern und neue Durchbrüche auf dem Weg zur Dekarbonisierung ermöglichen. Das Projekt gliedert sich in vier Hauptaktivitäten: Recheneffizienz, Modellierung, Datenverarbeitung und Zukunftstechnologien. Das Jülich Supercomputing Centre ist für das Arbeitspaket "Datenverarbeitung und -analyse" verantwortlich, das sich den Herausforderungen und Möglichkeiten widmet, die sich aus der zunehmenden Menge der in den Simulationen verfügbaren Daten ergeben.

To top

Projekt AlphaNumerics Zero zur Künstlichen Intelligenz

Das Projekt „AlphaNumerics Zero“ (ɑN0), das vom JSC zusammen mit Forschern des Steinbuch-Centers für Computing am KIT geleitet wird, hat zum Ziel, numerische Methoden auf Hochleistungsrechnern neu zu überdenken. Traditionell wird viel Aufwand in den Entwurf, die Implementierung und Optimierung von Lösern für Differentialgleichungen, numerischen Bibliotheken usw. gesteckt. Neue Ideen sind dringend erforderlich, da die Entwicklung von Methoden für die kommenden extrem skalierenden Supercomputer immer schwieriger wird. Geplant ist der Einsatz von Reinforcement-Learning-Techniken, so dass der Computer die im Durchschnitt optimale numerische Lösungsmethode für ein gegebenes Simulationsproblem selbst lernt. Die Arbeitsergebnisse des Projekts sollen ein funktionierendes Framework und die Demonstration in einem Anwendungsfall unter Verwendung einer zeitabhängigen partiellen Differentialgleichung umfassen. Das Projekt wird für 30 Monate aus dem Impuls- und Vernetzungsfonds der Helmholtz-Gemeinschaft gefördert.

To top

NFDI4Cat - Nationale Forschungsdateninfrastruktur für Katalyse

Das HLRS ist Mitglied eines neuen Konsortiums namens NFDI4Cat, das mit dem Aufbau einer nationalen Forschungsdateninfrastruktur für katalysebezogene Wissenschaften beauftragt wurde. Ziel des Konsortiums, das unter der Leitung der DECHEMA (Gesellschaft für Chemische Technik und Biotechnologie e.V.) steht, ist es, Infrastruktur-, Software- und insbesondere Datenmanagementstandards für die nächste Generation der chemisch-technischen Forschung zu entwickeln. Als Mitglied der NFDI4Cat-Koordinierungsgruppe wird das HLRS ein dediziertes Datenrepository erstellen und hosten, darüber hinaus wird es ein Portal für den Austausch und den Zugriff auf an verteilten Orten gespeicherten Daten bereitstellen. Zudem übernimmt das HLRS eine tragende Rolle bei der Entwicklung standardisierter Metadaten und Ontologien für die Katalyseforschung, wodurch die Kompatibilität unterschiedlicher Datensätze sichergestellt, deren Verwendbarkeit verbessert und ihre potenziellen Auswirkungen auf den wissenschaftlichen Fortschritt verstärkt werden soll. Das von Oktober 2020 bis September 2025 terminierte Vorhaben wird vom Bund und den Ländern im Rahmen der NFDI-Initiative mit einer Gesamtsumme von 10 Millionen Euro gefördert. (Weitere Informationen)

To top

Ein skalierbarer Ansatz für die Analyse riesiger Zeitreihen

Amir Raoofy, wissenschaftlicher Mitarbeiter am Lehrstuhl für Rechnerarchitektur und parallele Systeme von Prof. Martin Schulz an der TU München, arbeitet mit Daten, die tausende Sensoren aus Supercomputern oder aus den Überwachungssystemen von Kraftwerken über Wochen oder sogar Jahre liefern. Ihn interessiert, wie SuperMUC-NG und CoolMUC-3 am LRZ mit den riesigen Datenmengen umgehen. Wer wissen will, unter welchen Bedingungen eine Gasturbine zuverlässig läuft und wann die ersten Komponenten reparaturanfällig werden, sollte viele Daten prüfen können. Die Rechenleistung und Fähigkeiten von Supercomputern ermöglichen solche Analysen erst im Verein mit skalierbaren Algorithmen. Raoofy und Kollegen entwickelten den nun preisgekrönten skalierbaren Ansatz (MP)N. Dieser kann auf bis zu 256.000 Rechnerkernen, das sind rund 86 Prozent der Rechenressourcen des SuperMUC-NG, effizient ausgeführt werden. Dass er exakte Berechnungen liefert, wurde mit Leistungsdaten des SuperMUC-NG getestet.

Zurzeit wird der Algorithmus zur Analyse von Daten, die zwei Gasturbinen der Stadtwerke München liefern, eingesetzt. TurbO heißt das Projekt, das die Bayerische Forschungsstiftung fördert. "In unseren Experimenten haben wir das schnellste und größte jemals berechnete mehrdimensionale Matrixprofil durchgeführt", berichtet Raoofy. Die Arbeit von Raoofy und seinen Kollegen wurde mit dem diesjährigen Hans Meuer Award auf der ISC2020 ausgezeichnet. Die Veröffentlichung „Time Series Mining at Petascale Performance“ ist online verfügbar.

To top

Blauer Engel für das HLRS

Das HLRS hat für den nachhaltigen Betrieb seiner Einrichtung das Umweltzeichen „Blauer Engel“ erhalten. Diese vom Bundesumweltministerium getragene Auszeichnung ist die jüngste von diversen Zertifikaten für Nachhaltigkeit und ökologische Verantwortung, die das HLRS im Laufe eines Jahres erworben hat. Theresia Bauer, Ministerin für Wissenschaft, Forschung und Kunst des Landes Baden-Württemberg, gratulierte dem HLRS zu diesem Erfolg: „Die Zertifizierung mit dem Blauen Engel ist eine eindrucksvolle Bestätigung für die Nachhaltigkeitsstrategie des Höchstleistungsrechenzentrums. In bewundernswerter Weise setzen sich die Mitarbeiterinnen und Mitarbeiter am Höchstleistungsrechenzentrum für Nachhaltigkeit, Klimaschutz und Energieeffizienz ein, auch beim Betrieb der Supercomputer.“ Die umfangreichen Nachhaltigkeitsmaßnahmen am HLRS wurden im Rahmen des Projekts "Nachhaltigkeit in HPC-Zentren" durchgeführt, das vom baden-württembergischen Ministerium für Wissenschaft, Forschung und Kunst unterstützt wurde. (Weitere Informationen)

To top

Neues HLRS-Projekt: Vertrauen in Informationen

Forschungsergebnisse sind nicht nur Gegenstand öffentlicher Kontroversen – sie werden im Rahmen von Desinformationskampagnen untergraben. Die aktuelle Debatte über die Ausbreitung des Corona-Virus zeigt diese Problematik deutlich auf. Der Hintergrund ist ein allgemeiner: Individuen in Informationsgesellschaften müssen sich zu zahlreichen Themen verhalten, die nur wenige aus eigener Erfahrung kennen und bewerten können (Ursachen des Klimawandels, Dynamik einer Pandemie, Transformation von Energiemärkten usw.). Dabei spielen Vertrauen und Misstrauen in Informationen eine zentrale Rolle. Wird Informationen grundlos misstraut oder aber blind vertraut, schwächt dies aufgeklärte und demokratische Prozesse. In diesem Kontext starten Michael Resch und Andreas Kaminski am HLRS ein neues Forschungsprojekt: „Vertrauen in Informationen. Bewertungsstrategien der Glaubwürdigkeit computerbasierter Informationen, Modelle und Methoden“. In sechs Teilprojekten sollen praktische Probleme aufgegriffen werden, die von Deep Fakes und KI-Methoden zur Bekämpfung von Desinformation bis zu Vertrauen in computerunterstützte Methoden in der Medizin, Kriminologie und Stadtplanung reichen. Gefördert wird das Forschungsprojekt vom MWK in Baden-Württemberg. (Weitere Informationen)

To top

Wissenschaftsminister Sibler am LRZ

Mitte Juli besuchte der bayerische Staatsminister für Wissenschaft und Kunst, Bernd Sibler, mit Abgeordneten seines Ministeriums das Leibniz-Rechenzentrum (LRZ). Sie diskutierten mit Wissenschaftlern der Ludwig-Maximilians-Universität (LMU), der Technischen Universität München (TUM) sowie dem Walter Meißner-Institut (WMI) über Quantencomputing und mögliche Standorte im Freistaat Bayern: „Besuch im Leibniz-Rechenzentrum, unserer IT-Kathedrale“, notierte Sibler anschließend in sein Online-Tagebuch auf Facebook. „Große Debatte zur Quantenstrategie des Freistaates Bayern. Großartige Perspektive für den Standort Bayern.“ Das Foto zeigt vor dem LRZ (vorne v. l.) Dieter Kranzlmüller, Leiter des LRZ und Informatikprofessor an der LMU, Bernd Sibler, bayerischer Staatsminister für Wissenschaft und Kunst, Professor Immanuel Bloch, Quantenoptik LMU und Max-Planck-Institut für Quantenphysik (MPQ), Professor Ignacio Cirac, Theoretische Quantenoptik TUM und MPQ, (hinten v. l.) Ministerialdirigent Michael Greiner, Professor Rudolf Gross, TUM und WMI, Ministerialdirigent Dr. Johannes Eberle.

To top

Computermodell ermöglicht schonendere Beatmung

Eine künstliche Beatmung kann Leben retten, nicht nur bei schweren Verläufen einer Covid-19-Erkrankung. Gleichzeitig ist die Druckbeatmung aber auch eine extreme Belastung für das Lungengewebe. Besonders bei vorgeschädigter Lunge kann dies tödliche Folgen haben. Ein digitales Modell der Lunge, entwickelt von einem Team um Prof. Wall an der Technischen Universität München (TUM) mithilfe der Höchstleistungsrechner SuperMUC und SuperMUC-NG am LRZ, ermöglicht eine schonendere Beatmung und könnte so die Überlebenschancen deutlich erhöhen. In einem Podcast der Bayerischen Akademie der Wissenschaften spricht Prof. Wall darüber.

To top

GCS-Zentren auf der virtuellen Supercomputing Conference 2020

Aufgrund der Covid-19-Pandemie wird die Supercomputing Conference 2020 (SC20), die internationale Konferenz für Supercomputing-, Netzwerk-, Speicher- und Analysetechnologien, in virtueller Form abgehalten. Die Veranstaltung, die ursprünglich im Kongresszentrum von Atlanta, GA (USA) stattfinden sollte, läuft jetzt unter dem Titel SC 20 Is Everywhere We Are (9. - 25. November 2020). Das GCS und die drei GCS-Zentren unterstützen das virtuelle Event durch diverse digitale Outreach- und gemeinschaftlich abgestimmte Social-Media-Aktivitäten unter den Hashtags #MoreThanHPC #SC20 #HPCforGermany. – Anstelle ihrer geplanten Auftritte vor Ort präsentieren sich das HLRS, JSC und LRZ diesmal auf virtuellen Messeständen. Dort können SC-Besucher weiterführende Informationen zu verschiedenen, zentrumsspezifischen Schwerpunktthemen aus der Welt des High-Performance Computing abrufen. Zudem bereichern Vertreter der drei GCS-Zentren mit diversen Beiträgen in Tutorials, Workshops und Poster Sessions die Agenda der digitalen Konferenz. Mit Prof. Dr. Arndt Bode, ehemaliges Mitglied des Direktoriums und früherer Leiter des LRZ, gehört ein Repräsentant der deutschen HPC-Gemeinde erneut zum Komitee des Gordon-Bell-Preises, der von der Association for Computing Machinery (ACM) jährlich auf der SC für eine herausragende Arbeit aus dem Bereich des Höchstleistungsrechnens vergeben wird. Alle SC20-Aktivitäten der GCS-Zentren können hier eingesehen werden, das gesamte Konferenzprogramm steht auf der SC20-Website zur Verfügung.

To top

GCS sponsert SCC-Team deFAUlt der SC20

Analog zur virtuellen SC20 findet dieses Jahr auch der im Rahmen der SC ausgetragene Studentencluster-Wettbewerb (SCC) nur online statt. Für die Studenten des Teams deFAUlt, die die Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) im SCC 2020 als einziger deutscher Vertreter repräsentieren, war dies eine herbe Enttäuschung, ist doch die Aussicht auf eine Teilnahme an einem realen HPC-Ereignis - noch dazu in den USA - ein großer Motivationsfaktor. Umso erfreulicher ist es, dass die sechs FAU-Studenten um Coach Dr. Johannes Hofmann unbeirrt ihre Vorbereitung auf den Wettbewerb fortsetzen, der nun in der Microsoft-Cloud stattfindet. Die Regelung ist, dass alle 19 SCC-Studententeams identische Budgets für die MS-Cloud erhalten. Es gilt dieses Jahr also nicht, die beste Systemleistung bei einem Powerlimit von 3000W zu erzielen, sondern das Cloud-Budget so aufzuteilen, dass für die einzelnen Benchmarks und die aktuell noch unbekannten Applikationen („mystery applications“) die beste Leistung herausgeholt wird. Dem GCS ist es ein großes Anliegen, junge Talente aus den MINT-Studiengängen für das High-Performance Computing (HPC) zu begeistern. Deshalb hält es sich an seine Zusage, deutsche Studententeams zu fördern, um ihnen die Teilnahme an (internationalen) HPC-Wettbewerben zu ermöglichen. Das GCS unterstützt Team deFAUlt mit einem finanziellen Zuschuss, der dieses Jahr für die technische Ausrüstung der Studenten eingesetzt wird sowie zur Mitfinanzierung der MS-Cloud-Nutzung in der Vorbereitungsphase. Für den SCC-Wettbewerb wünscht das GCS-Team den Studenten aus Franken viel Erfolg, viel Spaß und hoffentlich zahlreiche erfreuliche Wettkampf-Erlebnisse und -Erkenntnisse! (Weitere Informationen)

To top

Virtual Reality-Umgebung für das Homeoffice

Ene unter der Federführung des HLRS im Projekt KoLab-BW entwickelte Virtual Reality- (VR) Software macht es an verteilten Standorten platzierten Anwendern möglich, sich unter Nutzung von kommerziell verfügbaren VR-Brillen und Controllern direkt von ihrem Arbeitsplatz oder vom Homeoffice aus in einem virtuellen Meeting-Raum zu treffen. Repräsentiert durch Avatare interagieren die Nutzer in diesem virtuellen Raum miteinander und analysieren gemeinsam 3D-Visualisierungen. Die neue Technologie soll dazu beitragen, wissenschaftliche Erkenntnisse zu beschleunigen oder die Einführungszeit neuer Produkte am Markt deutlich zu verkürzen—und das nicht nur in Szenarien, die ein persönliches Zusammenkommen erschweren. Zudem kann die neue Software z. B. im Bereich von Schulung und Training die Ausbildung von Studierenden maßgeblich unterstützen oder kann für moderne Methoden des Distance Learning eingesetzt werden. Am KoLab-BW-Projekt beteiligt sind neben dem HLRS das Visualisierungsinstitut der Universität Stuttgart (VISUS), die Universität Ulm, das Kompetenzzentrum Virtuelle Realität der Hochschule Mannheim (KVE), die Hochschule Albstadt-Sigmaringen sowie die Hochschule Ravensburg-Weingarten. Gefördert wird das Projekt durch das Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg. (Weitere Informationen)

To top

Neues Modell für landkreisbezogene Corona-Vorhersagen

Neuroinformatiker der Universität Osnabrück und Datenspezialisten des Forschungszentrums Jülich stellen täglich neue Modellergebnisse zur Vorhersage der Covid-19-Infektionen bereit. Die Ergebnisse enthalten tagesaktuelle Schätzungen der gemeldeten Neu-Infektionen und eine 5-Tages-Vorhersage für jeden deutschen Landkreis. Die Prognosen beruhen auf Daten des Robert Koch-Instituts, die mit einem neuen, wahrscheinlichkeitsgewichteten Modell der Osnabrücker Neuroinformatiker auf Höchstleistungsrechnern des Jülich Supercomputing Centre (JSC) statistisch analysiert werden. Das „COVID-19 Bayesian Modelling for Outbreak Detection“, kurz BSTI-Modell, besitzt zwei wesentliche Merkmale, die es von anderen Methoden unterscheidet: Zum einen liefert die neue Methode einen Vorhersagehorizont, der es ermöglicht, die Verlässlichkeit der Prognosen zu beurteilen. Weiterhin wird der Einfluss vom örtlich benachbarten Infektionsgeschehen aus den angrenzenden Regionen mit einbezogen. Die Prognosen sind auf der Website https://covid19-bayesian.fz-juelich.de abrufbar. (Weitere Informationen)

To top

Euronews-Video über CompBioMedD

Der Fernsehsender Euronews besuchte das Leibniz-Rechenzentrum im Juli, jetzt ist der Beitrag über das EU-Projekt CompBioMed veröffentlicht. In der Mediathek stehen die beiden Filme in Deutsch und Englisch zur Verfügung, in denen Moderatorin Katharina Rabillon von Futuris den Sinn und Nutzen der digitalen Zwillinge in der Medizin erklärt: Die Algorithmen und Software, die bei CompBioMed entwickelt wurden, verarbeiten unter anderem Daten aus Computer- und Magnetresonanz-Tomografen (CT, MRT) und Röntgenscans sowie aus Organen und Genomen. Mit ihnen lassen sich virtuelle Menschen simulieren, um Behandlungen und Medikamente individuell abzustimmen, aber auch um Gesundheitsrisiken, etwa Krebserkrankungen zu prognostizieren. Ein Riesenfortschritt in der Medizin, der ohne Supercomputing nicht möglich wäre. „Die Rechenleistung des SuperMUC-NG von heute haben wir zukünftig auf Tablets und Smartphones“, zitiert Euronews Professor Dieter Kranzlmüller, Leiter des LRZ. „Wir versuchen heute zu simulieren, was die personalisierte Medizin in 15, 20 Jahren direkt im Krankenhaus einsetzen wird.“ (Weitere Informationen)

To top

LEXIS: Big Data geht auf Reisen

Von Italien über Garching nach Tschechien und zurück: Die effiziente Ausführung mehrteiliger Simulationen („Workflows“) auf verteilten Cloud- und High-Performance-Computing-Systemen hat sich das EU-Projekt LEXIS zum Ziel gesetzt. Wissenschaft und Unternehmen entwickeln dafür Programme und Infrastruktur. Das Team Forschungsdaten-Management des Leibniz-Rechenzentrums (LRZ) fokussiert sich bei LEXIS auf den Datenaustausch, der verteilte Simulationen erst ermöglicht. Das tschechische Supercomputing-Zentrum IT4Innovations leitet LEXIS. Das Projekt integriert Angebote der European Open Science Cloud (EOSC)sowie Open-Source-basierte Lösungen wie B2HANDLE, B2SAFE und B2STAGE von EUDAT („European Data“) zum Datenmanagement. Als erstes Testobjekt diente eine Waldbrand-Simulation auf Basis aktueller Wetterdaten, die in Ligurien von der CIMA-Foundation konzipiert und vom dortigen Umweltamt (ARPAL) genutzt werden. Der Workflow startete auf einer virtuellen Maschine in der LRZ Compute Cloud, auf der Wetterdaten zusammengetragen und für Transfer und Simulation vorbereitet wurden. Danach griffen die Systeme des IT4I darauf zu, errechneten kleinskalige Wetterphänomene und die Waldbrandgefahr und speicherten diese Daten wieder zurück ins LRZ-System. Dort können die Resultate jetzt heruntergeladen und weiterverarbeitet oder visualisiert werden. Tools für das Datenmanagement sorgen auf beiden Seiten dafür, dass die Nutzung der Forschungsdaten dokumentiert, deren Unversehrtheit überprüft und die aktuellen Arbeitsergebnisse sicher abgespeichert werden. (Weitere Informationen)

To top

Thomas Lippert zum Professor an der Goethe-Universität Frankfurt ernannt

Prof. Thomas Lippert, Leiter des Jülich Supercomputing Centre, ist zum Professor an der Goethe-Universität Frankfurt ernannt worden und wird dort den neu geschaffenen Lehrstuhl für "Modulares Supercomputing und Quantencomputing" am Institut für Informatik innehaben. Diese Berufung wird er anstelle seiner bisherigen Professur an der Bergischen Universität Wuppertal ausüben. Der neue Lehrstuhl unterstützt das Center for Scientific Computing (CSC) an der Goethe-Universität bei der Weiterentwicklung zu einem nationalen Hochleistungsrechenzentrum. Unter Beibehaltung seiner Position am JSC freut sich Lippert besonders über die Einrichtung von zwei neuen Forschungsgruppen in Frankfurt, die sich mit der Entwicklung und praktischen Anwendung von modularen Supercomputern und Quantencomputern befassen werden. Gleichzeitig mit seiner Berufung wurde Prof. Lippert zum Senior Fellow am Frankfurt Institute for Advanced Studies (FIAS) ernannt.

Supercomputing-Akademie vergibt die ersten Weiterbildungs-Zertifikate

In diesem Sommer stellte die Supercomputing-Akademie erstmals zwei Kursteilnehmern die höchste Auszeichnung – „HPC Experte" - aus. Die Empfänger schlossen fünf Schulungsmodule erfolgreich ab, die sich auf die wesentlichen Fähigkeiten von HPC-Entwicklern konzentrieren. Die 2018 ins Leben gerufene Supercomputing-Akademie erstellte ein Curriculum, mit dem Nutzer von Höchstleistungsrechnern, Programmierer und IT-Administratoren in der Industrie wesentliche Kompetenzen in HPC erwerben können. Das HPC-Weiterbildungsangebot nutzt ein Blended-Learning-Format, um es Fachleuten in der Industrie zu erleichtern, parallel zu ihrer normalen Arbeit Expertenwissen über HPC zu erwerben. In den letzten Monaten führte die Supercomputing-Akademie außerdem zwei neue Kursmodule ein - "Visualisierung" und "Daten: Management und Analyse" – und erweiterte so das Repertoire an Modulen, die den Fokus auf Simulation, Performance Optimierung, Paralleles Programmieren und weitere Themenfeldern setzen.

To top

Smartphones als Spiegel der Persönlichkeit

Ein Team um Prof. Markus Bühner (LMU München) hat die Smartphone-Nutzung von 624 Studierenden untersucht und u.a. mit maschinellem Lernen auf Hochleistungsrechnern ausgewertet. Wie ihre Veröffentlichung im renommierten PNAS-Magazin zeigt, lassen sich durch die automatisierte Analyse der Daten zumindest für die meisten wichtigen Persönlichkeitsdimensionen Rückschlüsse auf die Persönlichkeit ziehen. Im Fokus standen dabei die in der Psychologie bekannten ‚Big Five‘: Offenheit, Gewissenhaftigkeit, Extraversion, Verträglichkeit und Emotionale Stabilität. Für Forscher sind die Ergebnisse von großem Wert, vor allem weil in der Psychologie bislang Persönlichkeitsdiagnostik fast ausschließlich auf Selbstbeschreibungen beruht. Die Studie ist online verfügbar.

To top

LRZ: DEKRA-Zertifizierung erneuert

Die Prüfgesellschaft DEKRA hat vor Kurzem die Weiterentwicklung der Managementsysteme für IT-Service und Informationssicherheit am LRZ nach den ISO/IEC-Normen 20000 und 27001 überprüft und für gut befunden. Diese Systeme wurden 2019 erstmals durch die DEKRA zertifiziert. Die damals berichteten Nebenabweichungen wurden weitgehend behoben, so dass es jetzt nur zwei Nebenabweichungen sowie 20 Empfehlungen gab, ein sehr gutes Ergebnis.

To top

Gletscher im Hochleistungsrechner

Carlo Licciulli, Gletscherforscher und wissenschaftlicher Mitarbeiter der Bayerischen Akademie der Wissenschaften, wurde vor Kurzem mit dem Graham Cogley Award der International Association for Cryospheric Sciences und der International Glaciological Society für die beste Publikation eines Nachwuchswissenschaftlers ausgezeichnet. Die Publikation im Journal of Glaciology basiert auf seiner Dissertation und wurde aus 70 Publikationen ausgewählt. Seit 2018 berechnet und modelliert Carlo Licciulli das Verhalten des Gletschers Vernagtferner in den Ötztaler Alpen auf der Basis von Messdaten, um den Rückzug des Eises besser erklären zu können. Er setzt dafür mittlerweile auch auf Rechenressourcen am Leibniz-Rechenzentrum (LRZ). „Gletscher sind für viele Menschen und Lebewesen ein entscheidender Teil ihrer Existenz und es herrscht große Unsicherheit, in welchem Maße diese Ressourcen künftig zur Verfügung stehen“, erklärt Licciulli sein Fach. „Das betrifft insbesondere die Verfügbarkeit von Wasser für Landwirtschaft, Industrie, Wasserkraftwerke sowie Tourismus.“ Für seine Doktorarbeit beschäftigte sich der Wissenschaftler mit dem Colle Gnifetti im Monte Rosa-Massiv. Dieser Gletscher ist aufgrund seiner jahrtausendalter Eiskernzeitreihen von besonderem Interesse. Noch mit dem PC adaptierte er ein numerisches full-Stokes-Eis-Fließmodell, berechnete damit den Eistransport im Gletscher und modellierte die dreidimensionale Verteilung des Eisalters. Diese Informationen sind notwendig für eine optimale Interpretation der Eiskernzeitreihen und daher für die Paläoklimaforschung. (Weitere Informationen)

To top

Tags: GCSnews HLRS LRZ JSC