Am Forschungszentrum Jülich fand vom 22. bis 23. Februar 2018 das 9. NIC-Symposium statt. Diese Veranstaltung informiert ein breites Publikum aus Wissenschaftlern und interessierter Öffentlichkeit über die Aktivitäten und Ergebnisse, die in den letzten zwei Jahren mit Hilfe der Supercomputer JURECA und JUQUEEN in Jülich durch die vom John von Neumann-Institut für Computing (NIC) bewilligten Forschungsprojekte erzielt wurden. Die eingeladenen Vorträge und eine Postersession behandelten Themen aus den Bereichen Astrophysik, Biophysik, Chemie, Elementarteilchenphysik, kondensierte Materie, Materialwissenschaften, Soft Matter Science, Erd- und Umweltforschung, Strömungsmechanik, Plasmaphysik und Informatik. Mit 180 Teilnehmern war das Symposium wieder gut besucht. Die Postersession mit annähernd 120 Postern bot einen guten Einblick in die Vielfalt der Projekte auf den Jülicher Supercomputern. Der Tagungsband ist bereits erschienen und steht als pdf-Datei online zur Verfügung.
Ende Januar führte das JSC seine dritte „Big Blue Gene Week“ durch. Damit wurde den Nutzern des Supercomputers JUQUEEN ermöglicht, hochparallele Anwendungen in großen Jobs an mehr als sieben aufeinanderfolgenden Tagen auszuführen. Es wurden nur Jobs auf dem Rechner zugelassen, die mindestens 4 Racks – also mindestens 65.536 Rechenkerne – bis hin zu allen Prozessoren des Rechners anforderten. Das Interesse war diesmal besonders groß und machte es sogar notwendig, das Abschicken neuer Jobs zu begrenzen. Gleichzeitig wurde die „Big Blue Gene Week“ um ca. 1,5 Tage verlängert, um möglichst viele Anfragen zu bearbeiten. Wissenschaftliche Schwerpunkte waren Finite-Elemente-Berechnungen (FEM), numerische Strömungsmechanik (CFD), Neurowissenschaften und Quantenmaterialien. Einmal mehr ergriffen die Anwender die Gelegenheit, hochkomplexe und anspruchsvolle Berechnungen durchzuführen und nutzten die Rechenleistung, um ihre wissenschaftlichen Herausforderungen zu meistern. Da JUQUEEN im späten Frühjahr dieses Jahres außer Betrieb genommen wird, war diese Veranstaltung die letzte ihrer Art auf dieser Maschine. JSC wird auch weiterhin ähnliche Veranstaltungen auf den Nachfolgearchitekturen anbieten. Insbesondere ist geplant, eine „Big Week“ auf dem neuen JURECA-Booster durchzuführen.
Seit dem 1. März agiert das Leibniz-Rechenzentrum (LRZ) als Bayerisches Big Data Kompetenzzentrum (BBDZ). In dieser neuen Aufgabe, die eingebettet ist in die umfassende Strategie BAYERN DIGITAL der Bayerischen Staatsregierung, unterstützt das LRZ in seiner Rolle als IT-Kompetenzzentrum künftig verstärkt Anwender aus Wissenschaft und Wirtschaft
im vorwettbewerblichen Bereich bei ihren IT-Problemstellungen im Bereich Big Data. Das Portfolio des BBDZ deckt ein umfassendes und integriertes Leistungsspektrum ab, das etablierte LRZ-Dienste mit neuen Angeboten verknüpft. Neben der Bereitstellung entsprechender Hardwareressourcen und der nötigen Infrastruktur für das Transportieren, Speichern, Verarbeiten und Analysieren von großen Datenmengen stehen vor allem Beratung sowie Aus- und Weiterbildung u. a. in den Bereichen Machine Learning und Deep Learning im Fokus des BBDZ. Das LRZ wird dafür mit einer Vielzahl von Akteuren im Big-Data-Umfeld zusammenarbeiten – von Studierenden über Lehrstuhlinhaber/‑innen bis hin zu Start-Ups, KMUs und vielen mehr. Weitere Informationen
Nachwuchswissenschaftlerin Mie Andersen von der Technischen Universität München (TUM) wurde auf der DPG-Frühjahrstagung (Deutsche Physikalische Gesellschaft) in Berlin mit dem renommierten Gerhard Ertl Young Investigator Award 2018 geehrt. Die Habilitandin am TUM-Lehrstuhl für Theoretische Chemie von Prof. Karsten Reuter erhielt diese Auszeichnung für außerordentliche Leistungen im Bereich der Oberflächenforschung. Für ihre Simulationsstudien in der Oberflächenkatalyse nutzt Mie Andersen eine umfangreiche Datenbasis aus Dichtefunktionaltheorie-Berechnungen, welche auf den HPC-Systemen SuperMUC des
LRZ und JURECA (JSC) durchgeführt wurden. Untersucht werden dabei katalytische Prozesse an Festkörperoberflächen mit Hilfe eines theoretischen Multiskalenansatzes, welcher ausgehend von den mikroskopischen katalytischen Elementarprozessen an der Oberfläche, über die Beschreibung der statistischen Wechselwirkung der Einzelprozesse, letztlich die makroskopisch relevanten Reaktionsraten und Produktselektivitäten vorhersagen kann.Alle auf dem Workshop vorgestellten Forschungsergebnisse werden im Tagungsband „High Performance Computing in Science and Engineering ’18“ (Springer-Verlag GmbH, Heidelberg) veröffentlicht.
Mit dem „Summer of Simulation“ (SoS) Trainingsprogramm hat das LRZ für Masterstudenten und Doktoranden aus den Bereichen Molekulardynamik, Quantenchemie, Materialwissenschaften und Bioinformatik ein Angebot geschaffen, welches sich ausgesprochen großen Zuspruchs erfreut. Es wird diesen Sommer am LRZ zum dritten Mal aufgelegt. 2017 hatten neun ausgewählte Teilnehmer die Möglichkeit genutzt, mit der Unterstützung von HPC-Experten und -Tutoren des LRZ Bio Application Lab (BioLab) ihre Anwendungen aus den Bereichen Molekulardynamik, Quantenchemie und Materialwissenschaften auf SuperMUC zu portieren und zu optimieren. Insgesamt waren mehr als 60 Millionen Core Hours an Rechenzeit den jungen Forschern auf dem Garchinger Höchstleistungsrechner zugestanden worden. Mit den Ergebnissen und Erfahrungen des SoS können die Teilnehmer nun Folgeanträge stellen, um die Simulationen als reguläre Projekte am LRZ fortzuführen. Unter SoS2017 sind die SoS-Projekte des letzten Jahres ausführlich beschrieben. Die Bewerbungsphase für das aktuelle SoS-Programm ist derzeit geöffnet, sie endet am 22.4.2018.
Helmut Reiser, stellvertretender Leiter des Leibniz-Rechenzentrums (LRZ) und Professor für Informatik an der Ludwig-Maximilians-Universität München, stand dem Bayerischen Rundfunk (BR) in der am 8.3. auf ARD-alpha ausgestrahlten Sendung „Sicherheit im Internet“ als Experte in Sachen Sicherheit in der Informationstechnik Rede und Antwort. Die wissenschaftliche Forschung in der IT-Sicherheit und ihre Anwendung in der Praxis sind Prof. Reisers Spezialgebiet. Aus aktuellem Anlass – erst kürzlich waren erneut Hacker-Angriffe auf öffentliche nationale Einrichtungen bekannt geworden – hatte der BR, der für den Bildungskanal diesen Beitrag im Rahmen der Sendereihe „alpha | demokratie“ produzierte, den Experten in die Sendung geholt, wo er die aufgeführten Beispiele der Cyber-Kriminalität aus der Sicht des Fachmanns erläuterte und kommentierte. Der Beitrag kann in der Mediathek des BR abgerufen werden.
Wie Wissenschaftler ihre Vision verwirklichen möchten, den kompletten menschlichen Körper zu simulieren, zeigt der Kurzfilm ‚Virtual Humans‘. Das Know-how im Bereich der wissenschaftlichen Visualisierung sowie die für die Simulation benötigte Rechenpower hierfür kamen primär aus dem LRZ, so etwa die Berechnungen zum ‚Virtual Drug Screening’ auf SuperMUC oder die Visualisierung des Blutflusses durch einen Stent. Realisiert wurden die Arbeiten im Rahmen des EU-Projektes CompBioMed unter der Leitung von Prof. Coveney (University College London) und seinem Team. Seine Premiere feierte der Film am 27. September 2017 im IMAX des Science Museum in London, UK. Nachdem das Werk auf mehreren ‚Science Film Festivals’ gezeigt wurde, ist es seit kurzem für die Öffentlichkeit als YouTube-Video verfügbar. Die Motivation hinter diesem Video, nämlich personalisierte Medizin zu ermöglichen, beschreibt Prof. Coveney ausführlich im zugehörigen Video „How to Build a Virtual Human“.
Wenn Wissenschaftler oder Unternehmen vor rechenintensiven Problemen stehen, die nur mithilfe von High Performance Computing (HPC) gelöst werden können, können die anfallenden Berechnungen auf HPC-Systeme wie die des HLRS ausgelagert werden. Oft jedoch stößt man hierbei auf Probleme wie eine nicht unterstützte Programmiersprache oder es handelt sich um Software, die für ein anderes Betriebssystem optimiert ist. Einen alternativen Lösungsansatz ermöglicht die am HLRS entwickelte Software vTorque, die im Rahmen des EU-Projekts MIKELANGELO entwickelt wurde. Sie erlaubt es externen Nutzern, durch die virtuelle Reproduktion eines physischen Supercomputers in der Cloud auf dessen Ressourcen zuzugreifen. Dabei wird auch die Systemumgebung virtualisiert, um die Systemanforderungen der dafür benötigten Programme zu erfüllen. Der Eingabeund Ausgabeprozess (I/O) von Daten wurde von weiteren MIKELANGELO-Partnern optimiert, wodurch die für HPC-Anwendungen üblichen großen Datenmengen und parallelen Arbeitsschritte fast ohne Zeitverlust in der Cloud ausgeführt werden können. Das MIKELANGELO-Projekt wurde nach dreijähriger Laufzeit im Dezember 2017 abgeschlossen.
Seit 2015 forscht das am HLRS in Stuttgart angesiedelte und mit Mitteln des Ministeriums für Wissenschaft, Forschung und Kunst Baden-Württemberg (MWK) geförderte Media Solution Center BW (MSC BW) an innovativen und technologieaffinen Lösungsansätzen für rechenintensive Arbeitsschritte in der Produktion verschiedener Arten von Medien, um den Kreativstandort Baden-Württemberg zu stärken. Erfolgreiche Projekte sind z. B. das Rendering von 3D-Animationen des Kinofilms „Die Biene Maja 2 – Die Honigspiele“ auf dem Supercomputer Hazel Hen und ein Virtual-Reality-Kunstprojekt in Zusammenarbeit mit dem brasilianischen Instituto Itaú Cultural. Um den großen Bedarf nach Höchstleistungsrechnen in Medien und Kunst zu begegnen, startete im Januar 2018 das Projekt „Media Solution Center BW – Gründungsphase“. In der sechsmonatigen Laufzeit sollen erste mögliche Projekte erarbeitet werden, um die Arbeit des MSC BW danach in einen gemeinnützigen Verein auszugliedern und auf eigene Füße zu stellen.