Gemeinsam mit dem Institut für Straßen- und Verkehrswesen (ISV) und dem Institut für Verbrennungsmotoren und Kraftfahrwesen (IVK) der Universität Stuttgart war das HLRS Mitte September auf der Veranstaltung „Vision Smart City: Future Mobility, Today“ in Stuttgart präsent. Auf den vor und im Daimler-Museum ausgetragenen Eventtagen demonstrierten das HLRS, das ISV und das IVK, wie Simulation und Virtuelle Realität zu technischen Innovationen und nachhaltigen Verkehrskonzepten zur Mobilität der Zukunft beitragen. An einer mobilen CAVE*)-Version des HLRS wurde ein virtuelles Modell des Campus der Universität Stuttgart Vaihingen vorgeführt, das im Hinblick auf neue Mobilitätskonzepte unter Einbeziehung von Bürger-Beteiligungsverfahren entwickelt worden war und nachhaltige Aspekte wie Mikromobilität, Car Sharing oder z. B. auch autonomes Fahren berücksichtigt. Die Präsentation entstammt dem Projekt MOBILAB, mit dem sich das ISV an dem vom Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg ausgeschriebenen Ideenwettbewerb „Emissionsfreier Campus“ beteiligt und dabei von der Visualisierungsabteilung des HLRS unterstützt wird. Weitere Informationen
*) CAVE: Raum zur Projektion einer dreidimensiona- len Illusionswelt der virtuellen Realität
Mit Beiträgen zu aktuellen Themen wie Künstliche Intelligenz, Virtuelle Realität oder Wissenschaftsethik beteiligten sich HLRS-Repräsentanten am Wissenschafts-Festival „Smart and Clever“, das vom 26.6. bis 6.7.2019 erstmals in Stuttgart stattfand. Der Direktor des HLRS, Prof. Dr.-Ing. Michael M. Resch, bestritt gemeinsam mit der Ministerin für Wissenschaft, Forschung und Kunst des Landes Baden-Württemberg, Theresia Bauer (MdL), Prof. Philipp Henning (Inhaber der Cyber Valley Professur „Methoden des Maschinellen Lernens“, Universität Tübingen), und Prof. Cordula Kropp (Professorin für Soziologie mit dem Schwerpunkt Risiko- und Technikforschung, Universität Stuttgart) die Podiumsdiskussion “Künstliche Intelligenz: was kann sie, was soll sie, was darf sie?“. In der anschließenden Diskussionsrunde stellten sich die vier Sprecher den zahlreichen Nachfragen der annähernd 150 Zuschauer.
In einer im Stuttgarter Rathaus organisierten Ausstellung zum Thema „Zukunft der Städteplanung“ informierten Mitarbeiter der HLRS-Visualisierungsabteilung über das Projekt „Reallabor Stadt:Quartiere4.0“, bei dem interessierten Besuchern 3D-Stadtmodelle und Simulationsergebnisse präsentiert wurden, die auch in realen Bürger-Beteiligungsverfahren Anwendung finden. In Workshops konnten Interessierte zudem eine Stadt virtuell selbst mitgestalten und erfahren, wie Wohnraum und Bebauungsdichte zusammenhängen, welche Infrastruktur in Städten benötigt wird, und wie sich dies alles auf das Klima auswirkt.
Unter dem Titel „Gespräch im Foyer: ‚Die Physiker‘ heute – Verantwortung in der Wissenschaft“ beleuchtete Dr. Andreas Kaminski, Leiter der Abteilung Philosophy of Science and Technology of Computer Simulation am HLRS, gemeinsam mit weiteren Sozialwissenschafts-Experten in einer Gesprächsrunde das Thema „Ethische und politische Fragen in der Wissenschaft“. Die gut besuchte öffentliche Veranstaltung erfolgte im Anschluss an die Vorstellung einer Neuinszenierung von Friedrich Dürrenmatts Tragikomödie „Die Physiker“. Weitere Informationen
Das HLRS ist Partner in einem neuartigen Demonstrationsprojekt der EU: Open Forecast. In dem Projekt, das von der EU im Rahmen der Connecting Europe Facility (CEF) Initiative gefördert wird und bis August 2020 läuft, wird demonstriert, wie öffentlich und frei verfügbare Daten (Open Data) mit Supercomputer-Ressourcen kombiniert werden können, um neue Datenprodukte für europäische Bürger, Behörden, Wirtschaftsakteure und Entscheidungsträger zu erstellen. Die Daten werden über Dienste und das europäische Datenportal auffindbar und nutzbar sein. Zwei Anwendungsfälle mit jeweils spezifischen Prozessierungsketten werden innerhalb dieses Projektes umgesetzt, um die Anwendbarkeit der Herangehensweise zu zeigen. Das HLRS stellt für Open Forecast seine HPC-Rechenkapazitäten für Simulation und Verarbeitung der Daten zu Verfügung, ist an der Entwicklung der Architektur beteiligt und verantwortlich für die Visualisierung der Ergebnisdaten. Weitere Informationen.
Am 25. und 26. September begrüßte das HLRS Vertreterinnen und Vertreter von HPC-Zentren sowie Supercomputer-Anwender/innen aus der Industrie zum ersten internationalen industriellen Supercomputing-Workshop 2019. Neben Vorträgen von Repräsentanten des HLRS und der SICOS BW, welche kleine und mittelständische Unternehmen bei der Nutzung von Höchstleistungsrechnen (high-performance computing/HPC) unterstützt, gab es Beiträge von HPC-Managern/-Managerinnen und Verantwortlichen für Industrie-Partnerschaften am Barcelona Supercomputing Center (Spanien), Edinburgh Parallel Computing Center (UK), Bosch (Deutschland), CINECA (Italien), KISTI (Südkorea), Tokyo University (Japan), Oak Ridge National Laboratory (USA), National Center for Supercomputing Applications (USA), Leibniz-Rechenzentrum in Garching (Deutschland), und dem PDC Center for High Performance Computing (Schweden). Ziel des Treffens war es, Wege und Möglichkeiten aufzuzeigen, welche von den HPC-Zentren und Unternehmen für zukunftsweisende computergestützte Forschung genutzt werden. Dies betraf insbesondere, aber nicht ausschließlich, den Einsatz von HPC in den Ingenieur- und fertigenden Betrieben, wo ein kontinuierlich steigender Bedarf in den Bereichen Künstliche Intelligenz und HPC-gestützte Datenanalyse (Big Data) beobachtet wird. In den Vorträgen wurden zudem die besonderen Herausforderungen an und die Möglichkeiten für die Industrie beleuchtet, die die HPC-Zentren auf dem Weg zum Exascale-Computing adressieren müssen. Abseits der zahlreichen Präsentationen bot der Workshop den Teilnehmenden ausgiebig Möglichkeit zum gegenseitigen Erfahrungsaustausch und zum „Networking“. Weitere Informationen.
Auf der bevorstehenden Supercomputing Conference in Denver, Colorado, wird sich das HLRS auf Stand Nr. 409 präsentieren. Bei den Exponaten legt es den Schwerpunkt auf immersive parallele Visualisierung. Anwendungsgebiete werden u. a. der Maschinenbau, die Stadtplanung (Feinstaub- und Verkehrssimulationen) und die Architektur und das Bauwesen sein (Building Information Modeling). Besuchern wird zudem live eine Augmented Reality Visualisierung der Luftströmung in einem Operationssaal präsentiert, die zusammen mit dem Medizintechnik-Hersteller Dräger entwickelt wurde. Dies nutzt Dräger, um seine medizinischen Geräte so zu entwerfen, dass Rückströmungen von unsauberen Bereichen des OP-Saals reduziert werden und somit das Risiko von Wundinfektionen bei Patienten verringert werden kann.
Die Helmholtz-Gemeinschaft hat die Errichtung der Helmholtz-Plattform HAICU für künstliche Intelligenz (KI) und Maschinelles Lernen (ML) initiiert, die zur Analyse komplexer Systeme in den Bereichen Energie, Information, Verkehr, Klima und Gesundheit anwendungsorientiert neue KI-Methoden entwickeln, implementieren und verbreiten soll. HAICU besteht aus einer zentralen Einheit am Helmholtz Zentrum München – HGMU – sowie fünf lokalen forschungsspezifischen Einheiten in weiteren Helmholtz-Zentren. Am Forschungszentrum Jülich (FZJ) wird eine HAICU-Lokaleinheit im Bereich der Information und Schlüsseltechnologien eingerichtet, bestehend aus einer Forschergruppe am Institut für Neurowissenschaften und Medizin und einem High-Level-Support-Team (HLST) am Jülich Supercomputing Centre (JSC), die vor allem im Bereich der Deep-Learning-Verfahren für Neuroscience & Big Data Neuroimaging intensiv zusammenarbeiten werden. Vervollständigt wird FZJ HAICU Local durch das am JSC angesiedelte Cross-Sectional Team Deep Learning (CST-DL), das generische großskalige Deep-Learning-Verfahren für domänenübergreifendes, übertragfähiges Continual Learning erforschen soll, wobei das HLST an den daraus entstehenden Methoden und Werkzeugen mitwirken und sie als open source der wissenschaftlichen Community bereitstellen wird. www.haicu.de
Kürzlich haben das Forschungszentrum Jülich und Google eine Forschungspartnerschaft im Bereich Quantencomputing angekündigt, um diese neue Rechentechnologie voranzutreiben. Google verfügt über langjährige Erfahrung in der Entwicklung von Quantencomputern und Quantenalgorithmen. Letztere bilden – neben der Quantenmaterialforschung – ebenfalls am Forschungszentrum Jülich einen Forschungsschwerpunkt.
Quantencomputing ist eine neue, innovative Art des Computings mit potenziellen Anwendungen für Quantensimulationen in Chemie und Materialwissenschaften, für Optimierung und maschinelles Lernen. Die Entwicklung von Algorithmen und Werkzeugen für Quantencomputer zur Lösung schwieriger und bisher unlösbarer Rechenprobleme in Wissenschaft und Industrie stellt nach wie vor die Wissenschaftler vor große Herausforderungen.
Die Partnerschaft umfasst die gemeinsame Forschung und Schulung von Experten auf den Gebieten der Quantencomputerhardware und Quantenalgorithmen. Für das Jülich Supercomputing Centre (JSC) ist letzteres ein wichtiger Bestandteil der Forschungskooperation. Forscher von Google und der Forschungsgruppe Quantum Information Processing von Prof. Kristel Michielsen werden bei der Durchführung von Simulationen an Supercomputern am JSC und beim Experimentieren mit Googles Quantenprozessoren für Leistungsmessungen (Benchmarking) zusammenarbeiten. Für diese Forschung wird der in internationaler Zusammenarbeit entwickelte Jülicher Universal Quantum Computer Simulator (JUQCS) eingesetzt, mit dem 2018 der Weltrekord bei der Simulation von Quantencomputern mit 48 Qubits aufgestellt wurde. Forscherinnen und Forscher beider Partner bekommen damit die Möglichkeit, Simulationen sowohl auf den Superrechnern am JSC durchzuführen, als auch mit Googles Quantenprozessoren zu experimentieren. Weitere Informationen.
Am Forschungszentrum Jülich wird in diesem Jahr ein neues Testsystem für künftige modulare Supercomputer finalisiert. Jülicher Experten arbeiten gemeinsam mit europäischen Partnern in den DEEP-Projekten an einer neuen modularen Supercomputer-Architektur, die sich flexibler und effizienter als bisherige Systeme für wissenschaftliche Anwendungen nutzen lässt. Ein solcher Rechner besteht aus mehreren Modulen, die sich nach dem Baukastenprinzip je nach Bedarf kombinieren lassen. Das erste Modul, der DEEP-EST-Cluster (CM), sowie das Modul zur Datenanalyse (DAM), wurden bereits vom deutschen Supercomputer-Anbieter MEGWARE am Jülich Supercomputing Centre (JSC) installiert. Bis Jahresende soll auch das letzte Modul, der DEEP-EST-Booster (ESB), folgen. Letzterer ist für massivparalleles Rechnen ausgelegt. Genutzt wird das System zunächst von den Partnern im DEEP-EST-Projekt. Geplant ist zusätzlich auch die Nutzung durch weitere interessierte Anwender und Anwenderinnen im Laufe des Jahres 2020. Weitere Informationen.
Im Mittelpunkt des JSC-Auftritts auf der diesjährigen Supercomputing Conference in Denver (Stand Nr. 1563) steht das Konzept der modularen Supercomputer-Architektur (MSA). Präsentiert werden die DEEP-Projekte, in denen die MSA maßgeblich entwickelt wurde, sowie das Modul 1 des modularen JSC-Supercomputers JUWELS. Als Anwendungsschwerpunkt wird die Erdsystemmodellierung (ESM) vorgestellt. Dabei werden Resultate von Klimamodellierungen in Videos gezeigt und klimarelevante Daten mittels eines Augmented-Reality-Systems visualisiert. Darüber hinaus werden hauseigene HPC-Softwarewerkzeuge sowie die Anwenderunterstützung des JSC präsentiert. Als Gast auf dem JSC-Stand stellt die Firma Mellanox die neue Generation ihrer ConnectX-6-Adapter vor.
Am 11. September 2019 besuchte der bayerische Wissenschaftsminister Bernd Sibler das Leibniz-Rechenzentrum und tauchte im Zentrum für Virtuelle Realität und Visualisierung (V2C) in virtuelle Welten ein. LRZ-Direktor Prof. Dieter Kranzlmüller informierte den Wissenschaftsminister vor Ort über die modernen Technologien und Projektinstallationen, die im V2C entwickelt werden, sowie über die vielfältigen Einsatzbereiche des Höchstleistungsrechners SuperMUC-NG – dieser zählt zu den neun schnellsten Rechnern weltweit (Stand Juni 2019). Weitere Themen waren die nächste Generation von Supercomputern – sogenanntes Exascale Computing – und Future Computing, das sich mit neu aufkommenden Technologien, Künstlicher Intelligenz und Quantencomputing befasst. „Die Zukunft der Digitalisierung wird von den leistungsfähigsten Supercomputern getrieben. Wir freuen uns, dass wir Herrn Staatsminister Sibler über die erreichten Erfolge und die nächsten Schritte des bayerischen Höchstleistungsrechners informieren durften,“ betonte Kranzlmüller. Wissenschaftsminister Bernd Sibler zeigte sich begeistert: „Hier wird die digitale Zukunft Bayerns gestaltet! Das Leibniz-Rechenzentrum zählt zu den international sichtbaren Leuchttürmen der bayerischen Forschungslandschaft. Es leistet Pionierarbeit auf dem Gebiet der KI-Forschung und der Quantencomputing-Technologien.“ Weitere Informationen.
Professor Dr. Dieter Kranzlmüller, Direktor des LRZ, wurde in den Vorstand der Gauß-Allianz berufen. Die Gauß-Allianz, ein Verein mit Sitz in Berlin, vertritt 21 wissenschaftliche Hochleistungs-Rechenzentren in Deutschland. „Die Gauß-Allianz leistet einen wichtigen Beitrag für die Zukunft des IT-Standorts Deutschland“, sagt Kranzlmüller. „Meine Aufgabe als neuer Vorstand sehe ich vor allem in meiner Rolle als Link zwischen Hoch- und Höchstleistungsrechnen. Wenn wir die Kapazitäten aller Supercomputer in Deutschland noch besser verzahnen, kann die Innovationskraft von Forschung und Wirtschaft bei der Verarbeitung größter Datenmengen mehr Fahrt aufnehmen.“ Das LRZ betreibt mit SuperMUC-NG den zurzeit schnellsten und leistungsfähigsten Höchstleistungsrechner Deutschlands (Stand: Juni 2019) und unterstützt Forscher deutschland- und weltweit u. a. bei der Visualisierung und Verarbeitung von Big Data; die Gauß-Allianz wiederum bündelt die Erfahrung und das Wissen aus 21 wissenschaftlichen Hochleistungs-Rechenzentren und berät zudem Wirtschaft und Mittelstand bei vielfältigen Daten- und Digitalisierungsprojekten.
Bayern ist cool und technisch anspruchsvoll: Im Freistaat werden Biergärten, Traditionen und Weltoffenheit gepflegt, von hier kommen zudem beste Höchst- und Hochleistungsrechner, Anwendungen und Ideen für das High Performance Computing (HPC). Das will die Bavarian Supercomputing Alliance (BSA) jetzt weltweit demonstrieren: 50 Vertreter des Verbundes, zu dem neben dem Leibniz-Rechenzentrum drei bayerische Hochleistungsrechenzentren und sechs Universitäten gehören, trafen sich Ende Juli, um ihre Zusammenarbeit zu stärken, Aktionen zu planen und Forschung, Erfahrungen sowie Rechenkapazitäten zu bündeln. „Nicht die Maschinen, sondern die Menschen bringen mit ihren Erfahrungen und ihrem Engagement das Supercomputing voran“, stellte Professor Dieter Kranzlmüller, Leiter des LRZ, beim ersten BSA-Treffen dieses Jahres fest: „Als Höchstleistungsrechenzentrum brauchen wir daher auch die Erfahrung und die Expertise der Hochleistungsrechenzentren, um die nächsten Schritte in Richtung Exascale- und Quantencomputing zu gehen, denn jetzt sind Ideen gefragt und damit Menschen und ihre unterschiedlichen Perspektiven.“ Die BSA-Mitglieder beschäftigen sich aus verschiedenen Standpunkten mit ähnlichen Fragen, etwa wie die Leistung von Hoch- und Höchstleistungsrechnern verbessert werden kann oder wie künstliche Intelligenz das Berechnen von Daten verändert. Als Herausforderung beurteilen die Rechenzentren und Informatik- oder Computerwissenschafts-Institute die Aufbereitung von Forschungsdaten aus unterschiedlichen Quellen, außerdem die Unterstützung von Forschern bei der Erstellung von Algorithmen und Applikationen zur Datenverarbeitung. Daneben steht die Energieeffizienz von Maschinen und Applikationen im Mittelpunkt des Interesses. Erfahrungsaustausch und gegenseitige Unterstützung sollen in Zukunft mehr und bessere Lösungen erbringen.
Ein erstes konkretes Vorhaben der BSA: Mit Maibaum und Biergarten wird sich die Allianz 2019 in Denver auf der Leitmesse Supercomputing (SC 2019) präsentieren. Am gemeinsamen Stand (Nr. 2063) sollen Forschungs- und Entwicklungspartner aus aller Welt, aber auch die Hersteller
von Prozessoren, Netzwerken, Computern bei einem Bier (oder Kaffee) die Vielfalt und Power der BSA und des bayerischen Höchst- und Hochleistungsrechnens erfahren. Die Koordination für die Planungen rund um die SC 2019 (17. bis 22. November) übernimmt das LRZ in Garching bei München.
Ein Modell für die Zukunft der Informationstechnik sind Quantencomputer, weil sie bei bestimmten Aufgaben deutlich schneller als aktuelle Höchstleistungsrechner sind. Unter Federführung des Leibniz-Rechenzentrums (LRZ) wird dieses Zukunftsthema in Bayern vorangetrieben: In Garching traf sich Ende Juli erstmals die Quantum Computing User Group, die Wissen, Forschung und Aktivitäten in Forschung und Wirtschaft bündeln und das Zukunftsthema für Bayern forcieren wird. Um die noch vielen offenen Fragen dieses Technologiefeldes zu beantworten, bringt das LRZ in der Arbeitsgruppe unterschiedlichste Spezialisten zusammen. Die Arbeit am und mit dem Höchstleistungsrechner SuperMUC-NG wird von der Quantum Computing User Group ebenfalls profitieren, denn viele Herausforderungen der Quantentechnik ähneln denen der Höchstleistungscomputer. Die Gruppe trifft sich künftig jeden zweiten Mittwoch im Monat. Forschende, Studierende und Expert/innen aus der Industrie, die sich mit Quantencomputing beschäftigen (wollen), sind willkommen. Diskutiert werden Hard- und Software-Lösungen für Quantencomputer. Geplant sind zudem Workshops, Trainings und Vorlesungen rund um die Technik.
Strom sparen mit Daten: Das LRZ nutzt einen Stromanschluss von fünf Megawatt, bis zu vier davon fließen in den Höchstleistungsrechner SuperMuc-NG. Damit sie möglichst effizient verwendet werden, setzt das LRZ auf ein innovatives Kühlungssystem mit Warmwasser und forscht nach weiteren Möglichkeiten, Strom zu sparen. Die Erkenntnisse sind nun in das Buch „Energy-Efficient Computing and Data Centers“ (Wiley-Verlag, 135 $) eingeflossen: „Technisch sind die Systeme ausgereizt“, erklärt Dr. Michael Ott, Informatiker und Leiter der internationalen Arbeitsgruppe Energie-Effizienz im High-Performance Computing. „Werden Applikationen besser an die Rechner angepasst, wird der Strombedarf sinken.“ Ott und sein Team haben deshalb das Open-Source-Programm Data Center Data Base (https://gitlab.lrz.de/dcdb/dcdb) entwickelt, das Daten aus Computern, ihren Bestandteilen und der Software sammelt. Die Forscher wollen darin erkennen, wie sich Rechenarbeit besser organisieren lässt: „Wenn wir wissen, welche Komponenten die Applikationen auf welche Weise nutzen, können wir anfangen, die Ausführung dieser Programme zu optimieren und so die Effizienz des Computers steigern“, so Ott. Das Buch wird zusammen mit dem Hauptautor Luigi Brochard am 11.12.2019 am LRZ vorgestellt.
Als erstes wissenschaftliches Rechenzentrum in Deutschland hat sich das LRZ nach den Kriterien der Internationalen Organisation für Standardisierung (ISO) bezüglich von gleich zwei Normen zertifizieren lassen: „In einem derart informationsgetriebenen Bereich wie Wissenschaft und Forschung haben Sicherheit und Vertraulichkeit sensibler Daten obersten Stellenwert“, sagt Professor Dieter Kranzlmüller, Leiter des LRZ. „Mit den ISO-Zertifizierungen senden wir ein starkes Signal an die Nutzer unserer Dienste, unsere Partner und unsere Mitarbeiter.“ Das LRZ betreibt den Höchstleistungsrechner SuperMUC-NG und bietet neben dem Supercomputing IT-Services für Münchner Hochschulen und wissenschaftliche Institute. Anderthalb Jahre feilte das LRZ für die Zertifikate ISO 27.001 und ISO 20.000 an Technik und Prozessen, ließ zudem rund 250 Mitarbeitende zu den Themen Datenschutz und Sicherheit schulen. Besonders gut kam dabei an, dass das LRZ die Prüfungen im Team abarbeitete und die Mitarbeitenden sich auf einer Plattform über jeden Schritt informieren konnten. „Das zeigt, dass das LRZ die Zertifizierung als Chance für Veränderung und nachhaltige Verbesserungen wertet“, meint Heinz Krippel, Geschäftsführer des Beratungs- und Zertifizierungsunternehmens mITSM aus München. „Hier hat ein sehr engagiertes Team die Normen transparent etabliert und umgesetzt.“
-Regina Weigand