GCSnews 31/2021 (März 2021) Gauss Centre for Supercomputing e.V.

PUBLICATIONS

GCSnews 31/2021 (März 2021)


Diese GCSnews als pdf-Datei herunterladen

Leibniz-Rechenzentrum eröffnet Quantum Integration Centre

Am 17.03.2021 eröffnete der Bayerische Ministerpräsident Markus Söder offiziell das Quantum Integration Centre (QIC) am Leibniz-Rechenzentrum (LRZ) in Garching bei München. Pandemiebedingt wurde die Veranstaltung nur als Livestream übertragen. Mit dem QIC verfolgt das LRZ drei anspruchsvolle Ziele und leistet damit einen wichtigen Beitrag zur Unterstützung des Munich Quantum Valley: (1) Den Auf- und Ausbau von Services rund ums Quantencomputing für Wissenschaftlerinnen und Wissenschaftler. (2) Die Entwicklung von Hard- und Software, um Quantencomputing ins Supercomputing zu integrieren. (3) Den Austausch mit der internationalen Quantencomputing-Community, um ein detailliertes Bild der Anforderungen der Nutzerinnen und Nutzer zu erhalten. Die Aus- und Weiterbildung gefragter Computing-Expertinnen und -Experten bildet dabei die Basis aller Aktivitäten. QIC-Kooperationspartner des LRZ ist die Firma Atos, dessen Atos Quantum Learning Machine (Atos QLM) – den aktuell weltweit leistungsstärksten kommerziell erhältlichen Quantensimulator – das LRZ in seinen Räumen in Betrieb genommen hat. Das System wurde eigens dafür konzipiert, Algorithmen für das Quantencomputing zu entwickeln und erste Simulationen durchzuführen, und das ohne spezielle Quantencomputing-Hardware. Während bereits erste Quantenalgorithmen und -Applikationen entstehen, entwickelt das LRZ im Rahmen des DAQC-Projektes mit dem finnisch-deutschen Startup IQM und weiteren Partnern zudem Quantenprozessoren, die zunächst in Zusammenspiel mit den High-Performance-Computing-Systemen des LRZ arbeiten und ihre Zuverlässigkeit dort beweisen. (Weitere Informationen)

SEQUOIA: Quantencomputing in Industrie und Wirtschaft

Das Höchstleistungsrechenzentrum Stuttgart ist maßgeblich an einem neuen Verbundvorhaben beteiligt, das den Grundstein für den gezielten praxisnahen Einsatz von Quantencomputern in Wirtschaft und Industrie setzen soll. Am 1. Januar fiel der Startschuss für das Projekt „Software-Engineering industrieller, hybrider Quantenanwendungen und -algorithmen“ (SEQUOIA), in dessen Verlauf neue Werkzeuge, Methoden und Vorgehensweisen für Quantencomputing entwickelt werden sollen, um die industrielle Nutzung hybrider Quantenanwendungen und -algorithmen zu ermöglichen. Das HLRS konzentriert sich dabei auf die Optimierung und Evaluierung von Algorithmen aus den Bereichen Numerik und Künstlicher Intelligenz (KI) für das Quantencomputing und erforscht die Umsetzung von hybriden Ansätzen, um die bestehenden HPC-Methoden und das Quantencomputing zusammenzuführen. Das SEQUOIA-Projekt wird vom Fraunhofer-Institut für Arbeitswirtschaft und Organisation in enger Zusammenarbeit mit dem Kompetenzzentrum Quantum Computing Baden-Württemberg geleitet. Es ist auf eine Laufzeit von zwei Jahren ausgelegt und wird durch das Landesministerium für Wirtschaft, Arbeit und Wohnungsbau Baden-Württemberg gefördert. (Weitere Informationen)

Kick-Off für das Munich Quantum Valley

Am 4. März 2021 fand die Auftaktveranstaltung zum Munich Quantum Valley statt, die live übertragen wurde. Mit dem Munich Quantum Valley wollen die beteiligten Organisationen in den kommenden zehn Jahren die Entwicklung des Quantencomputings auf nationaler und internationaler Ebene vorantreiben. Neben der Technischen Universität München gehören die Fraunhofer-Gesellschaft, die Ludwig-Maximilians-Universität München, die Max-Planck-Gesellschaft sowie die Bayerische Akademie der Wissenschaften zu der Forschungsinitiative. Über letztere sind das Leibniz-Rechenzentrum (LRZ) und das Walter-Meißner-Institut mit eigenen Aktivitäten eingebunden, wie z. B. im Projekt DAQC (Weitere Informationen)

JSC am neuen Europ. CoE RAISE beteiligt

Die Analyse und Verarbeitung von Big Data erfordert den Einsatz von HPC-Architekturen und skalierbaren Methoden der künstlichen Intelligenz (KI). Das neue, von der EU seit Anfang 2021 mit rund 5 Mio. € geförderte Centre of Excellence „Research on AI- and Simulation-Based Engineering at Exascale“ (CoE RAISE) widmet sich der Entwicklung solcher Methoden. Koordiniert wird RAISE vom Forschungszentrum Jülich. Das Projekt bringt zwölf Partner aus Wissenschaft und Industrie zusammen, um auf Grundlage repräsentativer Anwendungsfälle innovative KI-Technologien für die kommenden HPC-Rechnergenerationen voranzutreiben. Die ausgewählten Anwendungen aus den Bereichen der Ingenieur- und Naturwissenschaften decken ein breites Spektrum ab, z.B. aus Luft- und Raumfahrt oder der Teilchenphysik. Wurden bislang Simulationen genutzt, um die erzeugten Daten hinterher mit KI auszuwerten oder zum Training zu verwenden, sollen künftig KI-basierte Modelle entwickelt werden, die ihre Ergebnisse direkt in die Simulationen rückkoppeln und so bei erneuten Durchläufen zur Beschleunigung und verbesserten Vorhersage beitragen können. Dabei sollen auch neuartige Hardware-Technologien wie Modulare Supercomputing-Architekturen, Quanten-Annealer und HPC-Prototypen zum Einsatz kommen, um höchste Performanz in der Datenverarbeitung zu erzielen. (Weitere Informationen)

 

Projekt DAQC: Digital‐Analoges Quantencomputing

Am 1. Februar 2021 fiel der Startschuss für das Projekt Digital-Analoges Quantencomputing (DAQC), einem vom Bundesministerium für Bildung und Forschung geförderten Projekt für anwendungsnahe Verbundforschung in den Quantentechnologien. Das DAQC-Projekt soll die Technik von analogen, kontrollierbaren Systemen mit der von digital-universellen Quantencomputern kombinieren, deren Rechenleistung sich mit jedem Qubit vermehrt. So sollen robuste Quantenprozessoren mit zunächst 5, 20 und dann 54 Qubits entstehen, außerdem Methoden und Elektronik zu deren Kontrolle. Diese innovativen Steuereinheiten werden zunächst in Zusammenspiel mit den High-Performance-Computing-Systemen des LRZ arbeiten und ihre Zuverlässigkeit dort beweisen. Dafür beschafft das LRZ einen Kryostat, ein Kühlgerät für die tiefen Temperaturen, auf denen Quantencomputing basiert. Das von der IQM Germany GmbH koordinierte Projekt, an dem neben den GCS-Zentren Leibniz-Rechenzentrum der BAdW (LRZ) und Jülich Supercomputing Centre (JSC) auch weitere Institutsbereiche des Forschungszentrums Jülich, die Freie Universität Berlin sowie die Firmen Infineon AG und Parity Quantum Computing GmbH beteiligt sind, läuft bis 31.01.2025. (Weitere Informationen)

HLRS kooperiert mit dem Institute of Advanced Studies der Universität São Paulo

Das Höchstleistungsrechenzentrum Stuttgart (HLRS) wird künftig mit dem brasilianischen Institute of Advanced Studies der Universität São Paulo (IEA) zusammenarbeiten. Ziel der vorerst für drei Jahre geplanten Kooperation ist die Entwicklung gemeinsamer Forschungsprogramme, die Veranstaltung internationaler Konferenzen und der gegenseitige Austausch von Wissen und Expertise unter den Forschenden beider Organisationen. Dazu zählt unter anderem die gemeinsame Forschung an Themen wie der digitalen Transformation der Gesellschaft, deren politischen Auswirkungen und den sogenannten „E-Cultures“, die Computersimulationen und maschinelles Lernen anwenden. Auch in Feldern wie dem Vertrauen in Informationen und dem Umgang mit Fehlinformationen, sowie der Nutzung von Visualisierung in der Kunst werden die Partner zusammenarbeiten. Das HLRS erweitert mit dieser ersten Partnerschaft mit einer Institution aus einem südamerikanischen Land sein Netzwerk von mehr als zwölf Partnern in Asien, Europa und den Vereinigten Staaten. (Weitere Informationen)

JSC-Projekt DICE: Dateninfrastrukturkapazität für EOSC

Im Januar 2021 startete die Europäische Kommission mehrere Projekte zur Erweiterung der über das EOSC-Portal (European Open Science Cloud) angebotenen Dienste. Das JSC nimmt am Projekt „Data Infrastructure Capacities for EOSC“ (DICE) teil, das ein Netzwerk von Rechen- und Datenzentren, Forschungsinfrastrukturen und Datenrepositorien zusammenbringt. Sie betreiben eine europäische Speicher- und Datenmanagement-Infrastruktur für die EOSC, auf der generische Dienste zum Speichern, Finden, Zugreifen und Verarbeiten von Daten auf konsistente und dauerhafte Weise angeboten werden. 18 Anbieter aus elf europäischen Ländern stellen 14 hochmoderne Datenmanagementdienste mit mehr als 50 PB Speicherkapazität bereit. Das JSC koordiniert die Aktivitäten zur Integration von DICE-Diensten und -Ressourcen mit anderen Plattformen und Infrastrukturen. Außerdem bietet es B2DROP (einen sicheren und vertrauenswürdigen Cloud-Speicherdienst), B2SAFE (einen Dienst für Datenreplikation und Langzeitarchivierung) sowie B2ACCESS (ein föderiertes, infrastrukturübergreifendes Autorisierungs- und Authentifizierungs-Framework) an. Das DICE-Projekt hat eine Laufzeit von Januar 2021 bis Juni 2023 mit einem Gesamtbudget von knapp 7 Mio. €. (Weitere Informationen)

Projekt RISC2: EU und Lateinamerika koordinieren HPC-Forschung

Das EU-Projekt RISC2 wurde am 1. Januar 2021 als Netzwerk ins Leben gerufen, um die Koordination der High-Performance-Computing-Forschung zwischen Europa und Lateinamerika zu unterstützen und eine stärkere Zusammenarbeit zwischen ihren Forschungs- und Industriegemeinschaften bei HPC-Anwendungen und dem Einsatz von Infrastrukturen zu fördern. Das Projekt bringt acht wichtige europäische HPC-Akteure (darunter Atos, BSC, CINECA, INRIA und JSC) und die wichtigsten HPC-Akteure aus Brasilien, Mexiko, Argentinien, Kolumbien, Uruguay, Costa Rica und Chile zusammen. Es ist für einen Zeitraum von zwei Jahren geplant. RISC2 soll den Austausch von Best Practices durch Treffen, Workshops und Schulungen fördern, die zeitgleich mit wichtigen HPC-Veranstaltungen in Europa und Lateinamerika organisiert werden. Als wichtigstes Projektergebnis soll eine Kooperations-Roadmap entstehen, die sich an politische Entscheidungsträger, die wissenschaftliche Gemeinschaft und die Industrie richtet. Die Roadmap wird die wichtigsten Anwendungsbereiche, HPC-Infrastrukturen und politischen Anforderungen identifizieren und Wege aufzeigen, wie die während des Projekts etablierten Aktivitäten eine nachhaltige Wirkung entfalten können. (Weitere Informationen)

Digitaler Zwilling für das historische Schlosstheater Ludwigsburg

Das Residenzschloss Ludwigsburg ist – wie alle Monumente in Baden-Württemberg – bis auf Weiteres im Corona-Lockdown. Diese Zeit nutzen Forschende des Höchstleistungsrechenzentrums Stuttgart (HLRS) für die digitale Erfassung des Schlosstheaters aus dem 18. Jahrhundert: Über mehrere Wochen hinweg nimmt das Team der HLRS-Visualisierungsabteilung das Innere des Theaters mit einem 3D-Scanner millimetergenau auf. Aus den Aufnahmen wird ein digitaler Zwilling entwickelt, mit dem sich die gesamte Maschinerie des Theaters als Modell in virtueller und erweiterter Realität darstellen und erleben lässt. Mithilfe des Theatermodells wird es möglich sein, nachzuempfinden, wie die Theaterstücke auf der Bühne in der Zeit von Herzog Carl Eugen oder König Friedrich aussahen. Darüber hinaus soll auch der Blick hinter die Bühne und die Kulissen umgesetzt werden, sodass sich die komplexe historische Bühnenmaschinerie im Modell bedienen und bewegen lassen wird. Mit dem Projekt wird eine weiterführende interdisziplinäre Forschungskooperation von Wissenschaftler*innen aus ganz Europa angestrebt. So gibt es bereits Gespräche mit Kolleg*innen aus Frankreich, die Parallelen zur Königlichen Oper des Schlosses in Versailles erforschen wollen. (Weitere Informationen)

Neu am JSC: DFG-Projekt zur parallelen Simulation von multimodalen Energiesystemen

Die Komplexität moderner Energiesysteme stellt erhebliche Herausforderungen an die Planung, Auslegung und den Betrieb dieser multimodalen Systeme. Die verteilte Natur der neuen Ressourcen und die Beteiligung der Lasten am Energiemanagement erfordern eine schnelle, reaktive Steuerung und zuverlässigen Schutz. In diesem Zusammenhang wird der Einsatz von hocheffizienten und schnellen numerischen Simulationswerkzeugen zu einer kritischen Notwendigkeit. Das Ziel des neu gestarteten DFG-Projekts „Raum-Zeit-parallele Simulation multimodaler Energiesysteme“ (PinTSimE, gefördert von der DFG im Rahmen des Schwerpunktprogramms 1984 „Hybride und multimodale Energiesysteme“) ist es, Methoden für den Einsatz von Raum-Zeit-Parallelisierungstechniken zu entwickeln, um Simulationen multimodaler Energiesysteme schneller als in Echtzeit zu erreichen. Die Kombination der beiden Parallelisierungstechniken soll einen effektiven Einsatz von Simulationen für den Entwurf, die Analyse, die Steuerung und die Optimierung von multimodalen Energienetzen gewährleisten. Am Projekt beteiligen sich das Institut für Energie- und Klimaforschung − Energiesystemtechnik sowie das Jülich Supercomputing Centre am Forschungszentrum Jülich und die Bergische Universität Wuppertal. Die Forschenden am JSC werden vor allem an Parallel-in-Time-Techniken für Energiesysteme arbeiten, insbesondere im Hinblick auf diskrete Ereignisse und deren Auswirkungen auf Konvergenz und Effizienz. Das Projekt startete am 1. Februar 2021 und läuft über drei Jahre. Während dieser Zeit werden Doktoranden und Masterstudenten unterstützt. (Weitere Informationen)

BEAST-Praktikum am LRZ: Computertechnik für morgen testen

Die im Rahmen seiner Initiative „Future Computing“ am LRZ neu eingerichtete Testumgebung „BEAST“ (Bavarian Energy-, Architecture-and Software-Testbed) wird nicht nur von den High-Performance Computing (HPC) -Experten des LRZ als Experimentierplattform genutzt, sondern – wie angedacht – auch vom HPC-Nachwuchs. 26 Informatik-Studierende der Ludwig-Maximilians-Universität und der Technischen Universität München ergriffen im Wintersemester 2020/2021 die Möglichkeit, im Rahmen eines zwölf Trainingseinheiten umfassenden Praktikums intensive erste Erfahrungen mit den darin installierten AMD-, Marvell- und Fujitsu-Prozessoren (CPU) zu machen, die durch Grafikprozessoren (GPU) von AMD oder NVIDIA unterstützt werden. „Ziel des BEAST-Praktikums ist, moderne Hoch- und Höchstleistungscomputertechnologien, unterschiedliche Rechnerarchitekturen und Speicherhierarchien auszuprobieren, diese mit Programmiersprachen und Software zu konfrontieren und die Erfahrungen zu vergleichen,“ erklärt Dr. Josef Weidendorfer, der das Programm „Future Computing“ am LRZ leitet. Den Studierenden wird dadurch die Chance gegeben, andere als die „üblichen“, da am weitesten verbreiteten, Prozessor-Architekturen kennenzulernen. „Das BEAST-Praktikum hat meinen Horizont erweitert und mir viele Kriterien vermittelt, Computersysteme besser einschätzen zu können,“ urteilt beispielsweise Ludwig Kratzl, Fachinformatiker Anwendungsentwicklung und im 5. Semester Informatik an der TUM. Das BEAST-Praktikum wird in den nächsten Semestern wiederholt angeboten. (Weitere Informationen)

Professor Tim Dietrich erhält den Heinz Maier-Leibnitz-Preis

Dr. Tim Dietrich, Professor für theoretische Astrophysik an der Universität Potsdam und seit langen Jahren intensiver Nutzer der GCS-Höchstleistungsrechner, erhält für seine Erforschung der Dynamik von binären Neutronensternsystemen den Heinz Maier-Leibnitz-Preis der Deutschen Forschungsgemeinschaft, die wichtigste Auszeichnung für den wissenschaftlichen Nachwuchs in Deutschland. Für seine numerisch-relativistischen Simulationen und für den Einsatz der von ihm entwickelten numerischen Werkzeuge, welche für die Analyse der Daten von Gravitationswellendetektoren unabdingbar sind, greift Professor Dietrich auf die High-Performance-Computing-Systeme des Leibniz-Rechenzentrums in Garching bei München und des Höchstleistungsrechenzentrums Stuttgart zurück. Die GCS-Supercomputer verfügen über das notwendige Leistungsvermögen für Professor Dietrichs Forschungsarbeiten zu numerischer Relativität,  Gravitationswellenmodellierung und Multi-Messenger-Astronomie. Bis heute wurden seine Arbeiten von den GCS-Höchstleistungsrechnern mit Rechenzeiten von in Summe weit über hundert Millionen CPU-Stunden unterstützt. „Gravitationswellenastronomie ist ein junges und extrem spannendes Forschungsgebiet,“ erklärt Professor Dietrich. „Ohne die Unterstützung durch das GCS und die Ressourcen, die uns zur Verfügung gestellt wurden, wären unsere bisherigen Studien unmöglich gewesen. In der Tat lernen wir durch unsere numerischen Simulationen enorm viel über Neutronensterne und erweitern unser Verständnis des Universums.“ Die im Rahmen seiner Forschungstätigkeiten erzielten Ergebnisse fließen in eine von Professor Dietrich mitgeschaffene Datenbank mit berechneten Gravitationswellensignalen der Verschmelzung von zwei Neutronensternen ein. Tim Dietrich ist Mitglied der LIGO Scientific Collaboration (LSC), einer Gruppe von Institutionen sowie Wissenschaftlerinnen und Wissenschaftlern, die erstmals Gravitationswellen nachgewiesen hat. (Weitere Informationen) Informationen zu Professor Dietrichs Forschungsarbeit finden Sie hier.

Prof. Dr. Peter Bastian als Leiter des LRZ-Lenkungsausschusses wiedergewählt

Prof. Dr. Peter Bastian von der Ruprecht-Karls-Universität in Heidelberg ist weiterhin Vorsitzender des Lenkungsausschusses am Leibniz-Rechenzentrum (LRZ). In der letzten Lenkungsausschutzsitzung wurde Bastian, der am Interdisziplinären Zentrum für Wissenschaftliches Rechnen (IWR) die Arbeitsgruppe Paralleles Rechnen“ leitet, zum dritten Mal in Folge in dieses Amt gewählt. Sein Stellvertreter ist Prof. Dr. Gerhard Wellein von der Friedrich-Alexander-Universität Erlangen-Nürnberg, zugleich Sprecher des Kompetenznetzwerkes Technisch-Wissenschaftliches Hoch- und Höchstleistungsrechnen in Bayern. Der LRZ-Lenkungsausschuss wird alle zwei Jahre gewählt und setzt sich aus insgesamt 15 Wissenschaftlern zusammen, die das LRZ, die Bayerische Akademie der Wissenschaften (BADW) und die Deutsche Forschungsgemeinschaft (DFG) vertreten. Der LRZ-Lenkungsausschuss vergibt Rechenzeiten und bewertet den wissenschaftlichen Nutzen von Simulationsvorhaben, die lokal am LRZ beantragt werden. Im vergangenen Jahr waren das rund 70 Anträge. „Jedes Mitglied im Lenkungsausschuss verantwortet einen eigenen Bereich, beauftragt Gutachten von Externen und erstellt daraus einen Fördervorschlag“, erklärt Bastian die Aufgaben. (Weitere Informationen)

Stuttgarter Zukunftsrede erkundet die Grenzen zwischen Mensch und Computer

Anfang Februar veranstaltete das Literaturhaus Stuttgart gemeinsam mit dem Internationalen Zentrum für Kultur- und Technikforschung (IZKT) der Universität und dem Hospitalhof/Evangelisches Bildungszentrum Stuttgart die erste Stuttgarter Zukunftsrede. Den Auftakt übernahm Bestsellerautor Daniel Kehlmann mit seiner Rede unter dem Titel „Mein Algorithmus und ich“ über Künstliche Intelligenz und Kreativität. Im Anschluss daran diskutierte er mit dem Direktor des HLRS, Prof. Dr. Michael Resch, unter anderem darüber, wie Menschen Künstliche Intelligenz wahrnehmen und mit ihr interagieren, sowie über die Unterschiede zwischen menschlicher und maschineller Kreativität. So erörterten sie beispielsweise, was einen Computer, der Textvorschläge basierend auf statistischen Analysen generiert, von einem Schriftsteller unterscheide, der sich von anderen Autoren inspirieren lässt. Die Stuttgarter Zukunftsrede wurde online live übertragen und ist im März im Klett-Cotta Verlag erschienen. (Weitere Informationen)

SuperMUC simuliert die Entstehung von Sternen

Sterne entstehen durch turbulente Prozesse beim Aufeinandertreffen von interstellaren Gasen, Molekülen und Staub. Was dabei genau passiert, simulierte ein Forschungsteam auf dem LRZ-Supercomputer SuperMUC: Prof. Dr. Ralf Klessen von der Universität Heidelberg und Prof. Dr. Christoph Federrath von der Australian National University Canberra leiteten die bislang größte Simulation einer interstellaren Turbulenz. Für diese Arbeit wurden komplexe Gleichungen entwickelt – beispielsweise um verschiedene Gasdichten zu berechnen und unterschiedliche Maßstäbe zu beachten. Insgesamt wurden für das Modell mehr als eine Billion Auflösungselemente berechnet. Die Simulation besteht aus mehr als 100 Einzelaufnahmen, von denen jede rund 23 Terabyte an Festplattenplatz beansprucht. Insgesamt arbeiteten dafür am Garchinger Supercomputer mehr als 65.000 Rechenkerne während ca. 45 Mio. Rechenzeitstunden. Die Simulation benötigte rund 130 Terabyte Arbeitsspeicher. Die Arbeit wurde kürzlich im renommierten Fachmagazin Nature Astronomy veröffentlicht. (Weitere Informationen)

Leben aus dem All – Faszinierendes Video auf TV-Sender arte

Wir alle bestehen aus Sternenstaub. Wenn ein massereicher Stern am Ende seiner Existenz als Supernova explodiert, erzeugt und verteilt er alle schweren Elemente, aus denen die Erde und alle Lebewesen auf ihr bestehen, weit ins Weltall hinaus. Ein Video des TV-Senders arte stellt die Theorie vor, dass es Schwarze Löcher waren, die die Gasmassen, die um sie herum mit annähernd Lichtgeschwindigkeit kreisen, erhitzen und schließlich die entstehenden Turbulenzen und Magnetfelder diese Gase durchmischen und als gigantische Jets weit ins All hinausschießen. Neben umfangreichen internationalen experimentellen Kooperationen spielten dabei auch neue theoretische Modelle und numerische Simulationen eine entscheidende Rolle. Im dieses Thema aufgreifenden arte-Video kommt auch der LRZ-Höchstleistungsrechner SuperMUC-NG zu einem kurzen Auftritt, gemeinsam mit Prof. Dr. Volker Springel (ab Minute 33:50), der am MPI für Astrophysik in Garching die Illustris-Simulation entwickelte. Als langjähriger, intensiver Nutzer der GCS-Höchstleistungsrechner hat Professor Springel bereits auf allen LRZ-Supercomputern gerechnet und seine Simulationen immer weiterentwickelt. Das Video zeigt, wie Experiment, Theorie und Simulation beispielhaft zusammenwirken, um unser Verständnis der Welt und der Herkunft des Lebens zu vertiefen. (Weitere Informationen)

Tags: GCSnews HLRS LRZ JSC