Blog

  • webDO3SE: Ein neues Instrument zur Messung der globalen Auswirkungen von troposphärischem Ozon auf die Pflanzenwelt

    Die Herausforderung

    Ozon, eine schützende Verbindung in der Stratosphäre der Erde, kommt auch in der untersten Schicht unserer Atmosphäre, der Troposphäre, vor. Troposphärisches Ozon ist jedoch schädlich für das Klima, die menschliche Gesundheit und die Vegetation, da es die Biomasse, die Ernten und die Artenvielfalt verringert. Die Quantifizierung der globalen Aufnahme von Ozon durch Pflanzen ist von entscheidender Bedeutung, aber eine Herausforderung, denn sie erfordert numerische Modelle, die fein aufgelöste Ozonmessungen, Pflanzenspezifika und meteorologische Parameter miteinander in Beziehung setzen, die nur für einzelne Standorte und begrenzte Zeiträume zur Verfügung stehen, was eine Quantifizierung unpraktisch macht und sinnlos fragmentiert.

    Die Lösung

    Die TOAR-Dateninfrastruktur löst das Problem der fragmentierten Daten. Sie verbindet die TOAR-Datenbank, die bei Jülich Supercomputing Centre  (JSC) Clouds gehostet wird und eine der weltweit größten Sammlungen bodengestützter Ozonmessungen enthält, mit der ebenfalls am JSC gehosteten Meteocloud, einer Sammlung meteorologischer Daten, als Input für das Ozon-Depositionsmodell DO3SE. Der Arbeitsablauf von webDO3SE ist in Abbildung 1 dargestellt. Über eine Weboberfläche können Nutzer einfach auf die Daten zugreifen und selbst Wirkungsabschätzungen in ihrem Browser durchführen. Sie wählen einen Standort und eine Pflanzenart per REST-Abfrage an webDO3SE aus. Dann werden alle Parameter und Eingaben, die für die Ausführung des Modells erforderlich sind, automatisch online erfasst. Die Ergebnisse des Modells werden dem Nutzer direkt im Browser zur weiteren Analyse zur Verfügung gestellt.

    Flowchart illustrating a data processing workflow within a DO3SE web application. The process begins with a yellow box labeled "REST query, run specifications," leading to a green box labeled "Raw, hourly data," which is connected to "TOAR-DB" below. The flow continues to "Preprocessing," then to "Hourly input." Above "Hourly input" is a box labeled "Parameters," receiving inputs from "growing season," "parameterizations," and "basic station info." The flow proceeds to "Model run," associated with "FORTRAN model" below, and then to "Post processing." The final step is a yellow box labeled "Fast API output." The entire sequence is enclosed within a larger box labeled "DO3SE web application."
    Abbildung 1: Schema zur Beschreibung des produktiven Arbeitsablaufs von webDO3SE, der durch eine REST-Anfrage des Benutzers ausgelöst wird. Die Modellpipeline läuft dann automatisch in der Cloud-Infrastruktur von JSC ab und die Ergebnisse werden im Browser des Nutzers angezeigt.

    Vorteile

    • Tor-Daten in Kombination mit HPC-Ressourcen und der Meteocloud erleichtern den Zugang zu einem beispiellosen Umfang an troposphärischen Ozondaten.
    • WebDO3SE bietet eine Schnittstelle für die Erforschung der Auswirkungen von troposphärischem Ozon auf die Vegetation.
    • Die Untersuchung des troposphärischen Ozons auf globaler Ebene gibt den Umweltbehörden mehr Möglichkeiten.

    Sektor der Industrie

    Landwirtschaft, Umwelt/Klima/Wetter, Öffentliche Dienste/Zivilschutz

    Wissenschaftliche Partner

    "TOAR" in großen, fettgedruckten Buchstaben oben. Darunter in kleineren Buchstaben: "tropospheric ozone assessment report". Der Text ist zentriert und verwendet eine einfache, serifenlose Schriftart. "TOAR" ist in dunkler Farbe, während der restliche Text in einem helleren Blauton gehalten ist.

    Der Troposphären-Ozon-Bewertungsbericht (Tropospheric Ozone Assessment Report, TOAR) ist eine internationale Aktivität des Projekts „International Global Atmospheric Chemistry“, das die globale Verteilung und die Trends des troposphärischen Ozons bewerten und Daten bereitstellen soll, die für die Analyse der Auswirkungen von Ozon auf Gesundheit, Vegetation und Klima nützlich sind. Das TOAR-Datenzentrum bietet Zugang zur TOAR-Datenbank, in der Luftqualitätsüberwachungsdaten von Tausenden von Standorten auf der ganzen Welt gesammelt werden.

    Wissenschaftliche Auswirkungen

    Mit dem Fortschreiten des Klimawandels werden wahrscheinlich auch die Treibhausgase und die Verbindungen, die troposphärisches Ozon erzeugen, zunehmen. In der Vergangenheit wurde die Untersuchung der weitreichenden Auswirkungen des troposphärischen Ozons auf die Ernährungssicherung, die Kohlenstoffbindung, die Holzproduktion und den Schutz vor Bodenerosion, Lawinen und Überschwemmungen durch den fragmentierten Zugang zu Daten behindert. Die HPC-Infrastruktur in Verbindung mit TOR-Daten mildert jedoch diese Fragmentierung und ermöglicht die Skalierung wissenschaftlicher Studien zur Unterstützung öffentlicher Einrichtungen.

    Das TOAR-Tool, webDO3SE, wird derzeit für eine Studie zum Vergleich globaler Depositionsmodelle verwendet und in Zukunft eine neuartige globale Bewertung der Ozondeposition der Vegetation liefern – das Ausmaß, in dem Pflanzen troposphärisches Ozon absorbieren und abschwächen. Sobald webDO3SE gut etabliert ist, kann es auch von Umweltbehörden genutzt werden, um von troposphärischem Ozon verursachte Ernteschäden und andere negative Auswirkungen auf die Vegetation abzuschätzen. Im Laufe der Zeit können die Auswirkungen von troposphärischem Ozon sowie alle Maßnahmen zur Abschwächung gemessen, verfolgt und genauer modelliert werden, um den künftigen ökologischen und gesellschaftlichen Nutzen zu maximieren.

  • Nachbericht zum 1. Forum für Supercomputing & Zukunftstechnologien des HLRS

    Am 2. Dezember 2024 fand im Höchstleistungsrechenzentrum Stuttgart (HLRS) in Stuttgart eine spannende Veranstaltung rund um die vielfältigen Einsatzmöglichkeiten von High-Performance Computing (HPC) statt. Unter dem Motto „Services & Anwendungen für Industrie und öffentliche Einrichtungen“ bot das Event einen umfassenden Einblick in aktuelle Entwicklungen, praxisnahe Anwendungen und Finanzierungsmöglichkeiten für HPC-Projekte. Das Forum fand im Rahmen des europäischen Projekts EuroCC statt, das nationale Kompetenzzentren für Höchstleistungsrechnen (HPC), wie das deutsche nationale Kompetenzzentrum (NCC), in ganz Europa unterstützt. Organisiert wurde das Forum gemeinsam vom HLRS und der Sicos BW im Namen des deutschen NCC. Die weiteren Mitglieder des NCC – das Jülich Supercomputing Centre (JSC) und Leibniz-Rechenzentrum (LRZ) waren als Teilnehmer vertreten.

    Ein moderner Hörsaal mit weißen Wänden und Decke, ausgestattet mit Reihen von weißen Tischen und Stühlen. Der Raum ist mit Menschen gefüllt, die an den Tischen sitzen und auf eine große Projektionsleinwand vorne schauen. Ein Präsentator steht in der Nähe der Leinwand und hält eine Präsentation. Die Folie auf der Leinwand trägt den Titel "Vorstellung des NCC Germany" und enthält Text und Grafiken. Das Publikum scheint aufmerksam zu sein, einige Personen nutzen Laptops. Der Raum ist gut beleuchtet mit Deckenleuchten, und es gibt mehrere Deckenprojektoren und Lautsprecher. An der Wand rechts von der Leinwand befindet sich ein großes schwarz-weißes Porträt. Die Veranstaltung heißt "1. Forum für Supercomputing & Zukunftstechnologien" und fand am 2. Dezember im HLRS statt.

    Begrüßung und Einführung

    Dr. Andreas Wierse eröffnete die Veranstaltung mit einer kurzen Begrüßung und stellte das Programm des Tages vor. Im Anschluss gab er eine informative Einführung in das deutsche nationale Kompetenzzentrum für HPC. Diese Präsentation bot den Teilnehmenden eine Übersicht über die Ziele und Aufgaben des Zentrums.

    Industrie-Use Cases – Von Wasserwirtschaft bis Defossilisierung

    Der Vormittag war geprägt von praxisnahen Anwendungsbeispielen aus der Industrie. In der ersten Session präsentierten Experten, wie HPC innovative Lösungen ermöglicht:

    • Dr. Pavel Apanasevich (hydrograv GmbH) erläuterte den Einsatz von Supercomputing zur Optimierung wasserwirtschaftlicher Anlagen.
    • Dr. Benedetto Risio (RECOM Services GmbH) zeigte, wie HPC die Industrie bei der Defossilisierung ihrer Energiesysteme unterstützt.
    • Dr. Max Gaedtke (cloudfluid) beeindruckte mit Beispielen zu multiphysikalischen Strömungssimulationen auf High-Performance-GPUs.

    Nach einer kurzen Kaffeepause folgten weitere Use Cases:

    • Lukas Kriete (Kimoknow) erklärte die Nutzung von Zero-Shot-Transformer-Modellen für eine skalierbare Katalogsuche auf Basis von CAD-Daten.
    • Dr. Johanna Berndt (Grunetal) stellte innovative Lösungen für skalierbare Datenanbindung und Speicherlösungen vor.
    • Dr. Xin Liu (Jülich Supercomputing Centre) präsentierte ein Proof of Concept zur Nutzung von KI im Bereich des Aktienhandels.
    Ein moderner Seminarraum mit mehreren Personen, die an weißen Tischen sitzen und einer Präsentation folgen. Zwei Referenten stehen vorne: Der erste, links, trägt eine graue Jacke und Jeans, während der zweite, rechts, eine dunkelblaue Jacke und Jeans trägt und gestikuliert, während er spricht. Auf einer großen Leinwand hinter ihnen wird eine Präsentationsfolie mit einem Titel und einem Bild einer Person angezeigt, obwohl der Text nicht klar erkennbar ist. Die Teilnehmer sitzen in Reihen, einige mit geöffneten Laptops, um Notizen zu machen oder der Präsentation zu folgen. Der Raum hat große Fenster auf einer Seite, die natürliches Licht hereinlassen.

    Finanzierung und öffentliche Anwendungsfälle

    Nach einer gemeinsamen Mittagspause lag der Fokus auf Fördermöglichkeiten für HPC-Projekte. Josephine Stemmer, Dr. Andreas Wierse und Dr. Nadja Schauffler zeigten konkrete Wege zur Finanzierung von Machbarkeitsstudien und Projekten auf, darunter FFplus und BEGIN HPC+.

    Anschließend wurden Use Cases im öffentlichen Sektor vorgestellt. Die Visualisierungsabteilung des HLRS demonstrierte unter Leitung von Dr. Uwe Wössner, wie digitale Zwillinge die Energiewende und die Verkehrsplanung unterstützen können. Besonders eindrucksvoll war die Darstellung von Konfliktlösungen im Rad- und Fußverkehr von Marko Djuric (HLRS).

    Katastrophenschutz und Networking

    Nach einer weiteren Pause wurde das Thema Katastrophenschutz aufgegriffen. Dr. Ralf Schneider (HLRS) zeigte, wie computergestützte Modelle in Krisensituationen schnelle und effektive Soforthilfe leisten können.

    Zum Abschluss konnten sich die Teilnehmendenmit Expert:innen austauschen und erlebten eine CAVE-Demo, die von Dr. Uwe Wössner geleitet wurde.

    Ein Klassenzimmer oder Hörsaal, in dem eine Präsentation stattfindet. An der Vorderseite des Raumes wird auf einer großen Leinwand ein Stadtmodell mit dem Text "Stuttgart 2024" unten angezeigt. Oben links auf der Leinwand steht in deutscher Sprache "Die Haltestellen Projekt 'Chance'". Vor der Leinwand steht ein Mann mit langen Haaren, der in ein Mikrofon spricht. Neben ihm steht eine Frau mit dunklen Haaren am Rednerpult mit einem Computer. Mehrere Personen sitzen an Schreibtischen mit Laptops und anderen elektronischen Geräten und schauen zu den Präsentatoren. An der Wand befindet sich ein Whiteboard mit der Aufschrift "Hello willkommen". Der Raum wirkt modern und professionell.

    Fazit

    Die Veranstaltung bot einen exzellenten Überblick über die vielfältigen Einsatzmöglichkeiten von HPC – sowohl in der Industrie als auch im öffentlichen Bereich. Die Kombination aus fachlichen Vorträgen, Praxisbeispielen und Networking-Möglichkeiten wurde von den Teilnehmenden durchweg positiv bewertet. Besonders hervorzuheben sind die Fragen und Diskussionen nach jeder Session, die von lebhaften Debatten und zahlreichen Ideen geprägt waren. Ein Beispiel dafür ist die Frage: „Wie müssen Modelle für den Aktienhandel entwickelt werden, wenn der Handel zunehmend von Robotern übernommen wird?“

    Das HLRS unterstrich einmal mehr die führende Rolle des deutschen nationalen Kompetenzzentrums und des EuroCC Projekts in der HPC-Landschaft und zeigte, wie diese Akteure aktiv zur Weiterentwicklung von Technologien und deren Nutzung beitragen. Die Teilnehmenden konnten viele wertvolle Impulse mitnehmen, um eigene Projekte voranzutreiben. Wir freuen uns auf das nächste Forum im Jahr 2025!

  • HPC und MRI

    Unsere neueste wissenschaftliche Erfolgsgeschichte!

    Zunächst einmal: Willkommen in unserem neuen Blog! Hier werden wir über Neuigkeiten, Veranstaltungen, Erfolge und Kooperationen berichten. Sie können sich nun über unsere Aktivitäten auf dem Laufenden halten, wie Sie es auch in den sozialen Medien tun würden, nur mit einem tieferen Einblick in die Details.

    In diesem Eröffnungsbeitrag stellen wir Ihnen unseren ersten Beitrag zur neuen Supercomputing-in-Europe-Podcast-Serie vor! Darin erfahren Sie mehr über unseren jüngsten wissenschaftlichen Erfolg, bei dem wir den Supercomputer des Jülicher Supercomputing Centers nutzen, um die Bildrekonstruktion für die quantitative MRT zu beschleunigen. Mit Hilfe von HPC konnte die gesamte Serie von MRT-Scans in sechs Stunden zu einem Bild des Gehirns rekonstruiert werden und mit Hilfe von KI-Modellen geht es sogar noch schneller.

    Hören Sie es sich an und bleiben Sie dran für einen ausführlicheren Artikel über diesen Erfolg sowie ein Video des Interviews!