Blog

  • Neueste Fortschritte im Bereich der quantitativen MRT durch die Verwendung von HPC

    Die Herausforderung

    Die quantitative Magnetresonanztomografie (qMRT) misst zugrunde liegende MRT-Parameter, verbessert die Empfindlichkeit gegenüber physiologischen Veränderungen und ermöglicht eine zuverlässige Vergleichbarkeit zwischen Tests und Wiederholungstests, sodass beobachtete Veränderungen echte physiologische Unterschiede widerspiegeln und nicht die Kulanz des Scanners. Die Übertragung der qMRT auf UHF, die eine höhere Bildauflösung bei kürzeren Aufnahmezeiten ermöglicht, führt jedoch zu erhöhten Feldinhomogenitäten und einer spezifischen Absorptionsrate. Neuartige Methoden, die am INM-4 entwickelt wurden, begegnen diesen Herausforderungen, führen jedoch zu einer deutlich höheren Komplexität der Rekonstruktion und zu nicht rechtfertigbaren langen Rekonstruktionszeiten.

    Die Lösung

    Um diese zu langen Rekonstruktionszeiten zu beheben, optimierte INM-4 in Zusammenarbeit mit dem Simulation and Data Lab Neuroscience seinen Rekonstruktionscode für HPC am JSC. Durch die Implementierung einer effizienten Vorverarbeitung wurde das Rekonstruktionsproblem in einen schichtweisen Prozess umgewandelt, der parallelisiert werden konnte. In Kombination mit einer automatisierten Scheibenverarbeitung über Bash-Skripte konnte die Rechenzeit mit HPC von 320 Stunden auf 8 Stunden pro Proband reduziert werden. Dieser optimierte Arbeitsablauf überwand frühere Einschränkungen und ermöglichte die Anwendung einer neuartigen qMRt-Methode, die schnellere Scans, eine verbesserte Bildqualität und präzise parametrische Schätzungen ermöglicht. Nachfolgende Messungen an einer großen Kohorte bestätigten, dass HPC-gestützte qMRT bei UHF ein entscheidender Schritt in Richtung klinischer Durchführbarkeit ist.

    https://youtu.be/-s6Bk_moeBs
    Diagramm zur Verbesserung von MRT-Bildern mit einem Supercomputer.
    Abbildung 1: Bei beschleunigten Aufnahmen beeinträchtigen Unterabtastungsartefakte die Bildqualität. Die neue qMRT-Methode begegnet den Herausforderungen der UHF, indem sie zahlreiche MR-Bilder mit leicht variierenden Scannereinstellungen aufnimmt. Um eine kurze Aufnahmezeit zu gewährleisten, wird jedes Bild stark beschleunigt, was zu starken Unterabtastungsartefakten führt. Der Rekonstruktionsalgorithmus korrigiert diese Artefakte durch umfangreiche Berechnungen, für die ein Supercomputer erforderlich ist. Das Endergebnis sind hochwertige, artefaktfreie Bilder, aus denen quantitative Parameter geschätzt werden.

    Vorteile

    • HPC reduzierte die Rekonstruktionszeit von 320 auf 8 Stunden pro Proband, wodurch qMRT realisierbar wurde.
    • Die optimierte qMRT-Methode ermöglichte schnellere Scans, eine verbesserte Bildqualität und präzisere parametrische Schätzungen.
    • Die Zusammenarbeit mit JSC verbesserte die Recheneffizienz und schuf die Voraussetzungen für KI-gestützte qMRT.
    Vergleichsdiagramm von Gehirn-MRT-Bildern, unterteilt in zwei Hauptabschnitte: Qualitatives MRT (links) und Quantitatives MRT (rechts). Unter „Qualitatives MRT“ gibt es eine Spalte mit drei graustufigen Gehirnabschnitten – axial (oben), sagittal (mittig) und koronal (unten) – die ein Strukturabbild mit willkürlicher Signalintensität zeigen. Eine Graustufen-Skala daneben reicht von -0,5 bis 0,5 und ist mit „Signal Intensity [a.u.]“ beschriftet. Unter dieser Spalte steht: „Structural image with arbitrary signal intensity.“ Der Bereich „Quantitatives MRT“ enthält vier Spalten, wobei jede die gleichen drei Gehirnansichten zeigt, jedoch mit unterschiedlichen Farbcodierungen und Messeinheiten: 1. Die erste Spalte zeigt farbkodierte Bilder von Blau (niedrig) bis Gelb (hoch), welche den „freien Wassergehalt in Prozent“ darstellen. Eine vertikale Skala rechts reicht von 0 bis 100 und ist mit „C_fw [%]“ beschriftet. Die Bildunterschrift lautet: „Free water content in percentage.“ 2. Die zweite Spalte zeigt Bilder in einer Farbskala von Blau/Grün (niedrig) bis Gelb (hoch) für die „Longitudinale Relaxationszeit in Millisekunden“, mit einer Skala von 0 bis 4000, beschriftet mit „T₁ [ms]“. Beschriftung: „Longitudinal relaxation time in milliseconds.“ 3. Die dritte Spalte verwendet eine Farbskala von Blau bis Gelb, um die „Effektive transversale Relaxationszeit in Millisekunden“ darzustellen, mit einer Skala von 0 bis 60, beschriftet mit „T₂* [ms]“. Die Beschriftung darunter lautet: „Effective transverse relaxation time in milliseconds.“ 4. Die vierte Spalte zeigt wieder Graustufenbilder, ähnlich wie beim qualitativen MRT, und stellt die „Magnetische Suszeptibilität in ppm“ dar. Die Skala reicht von -0,10 bis 0,10 und ist mit „χ [ppm]“ beschriftet. Darunter steht: „Magnetic susceptibility in ppm.“ Über den Bildern trennt eine waagerechte Linie die Überschriften: „Qualitatives MRT“ links und „Quantitatives MRT“ rechts. Jede Bilderspalte hat eine kurze, kursiv gedruckte Beschreibung des dargestellten Parameters und der jeweiligen physikalischen Einheit. Das Layout hebt den Kontrast zwischen einem einzelnen MRT-Scan mit willkürlicher Intensität und mehreren quantitativen MRT-Ansätzen hervor, die direkt kalibrierte, numerische Messwerte über die Eigenschaften des Gehirngewebes liefern.
    Abbildung 2: In-vivo-Ergebnisse, die ein qualitatives Strukturbild und eine quantitative Wassergehaltskarte C_W, eine T_1-Karte, eine T_2^*-Karte und eine Karte der magnetischen Suszeptibilität χ zeigen, die mit der QRAGE-Methode erfasst wurden.

    Sektor der Industrie

    Gesundheitswesen / Pharmazeutika / Medizinprodukte, IT-/HPC-Systeme

    Wissenschaftliche Partner

    Logo mit einem stilisierten blauen Symbol auf der linken Seite und Text auf der rechten Seite. Der Text lautet:

JÜLICH Forschungszentrum

Das Design wirkt modern und wissenschaftlich.

    Das Institut für Neurowissenschaften und Medizin 4 (INM-4) am Forschungszentrum Jülich entwickelt innovative Methoden zur Weiterentwicklung der Diagnostik und zur Verbesserung unseres Verständnisses des Gehirns mit modernster medizinischer Bildgebungstechnologie, darunter Ultrahochfeld-MRT (UHF) mit 7 Tessla. Sein interdisziplinärer Ansatz in enger Zusammenarbeit mit dem Jülich Supercomputing Center (JSC) nutzt modernste Rechenressourcen, um neuartige Bildgebungsverfahren zu entwickeln, mit denen neue Biomarker in höherer Auflösung und in kürzerer Erfassungszeit sichtbar gemacht werden können.

    Wissenschaftliche Auswirkungen

    Die Implementierung von qMRT bei UHF erforderte eine neuartige Bildgebungsmethode, um erhöhte Feldinhomogenitäten und spezifische Absorptionsraten zu berücksichtigen. Diese Methode ermöglichte schnellere Scans und eine verbesserte Bildqualität, erforderte jedoch die Lösung eines komplexen Rekonstruktionsproblems mit hohem Rechenaufwand. Mit herkömmlicher Hardware war die Rekonstruktion unzumutbar langsam – 8 Stunden pro Schnitt bei 160 Schnitten pro Proband –, was die Bewertung ihres klinischen Potenzials verzögerte.

    Um dieses Problem zu lösen, wandte sich das Team an die Beratungsdienste des JSC und nutzte HPC, um seine Software an die Leistungsfähigkeit von HPC anzupassen. Durch die Parallelisierung von Aufgaben und die Automatisierung von Prozessen konnte die Rechenzeit von 320 auf nur 8 Stunden pro Proband reduziert werden, wodurch die Anwendung der neuartigen qMRI-Methode, die bisher durch die langsame Rekonstruktion eingeschränkt war, möglich wurde.

    HPC ermöglichte somit den praktischen Einsatz der Methode und verbesserte die Bildqualität und die parametrische Genauigkeit. Damit rückt qMRT bei UHF näher an die klinische Anwendung heran und verbessert die Diagnostik. Weitere Optimierungen – wie beispielsweise die KI-gesteuerte Bildrekonstruktion – könnten es schließlich in routinemäßigen klinischen Umgebungen ohne direkten HPC-Zugang einsetzbar machen, was den Patienten durch präzisere und zeitnahe Diagnosen zugute käme.

  • webDO3SE: Ein neues Instrument zur Messung der globalen Auswirkungen von troposphärischem Ozon auf die Pflanzenwelt

    Die Herausforderung

    Ozon, eine schützende Verbindung in der Stratosphäre der Erde, kommt auch in der untersten Schicht unserer Atmosphäre, der Troposphäre, vor. Troposphärisches Ozon ist jedoch schädlich für das Klima, die menschliche Gesundheit und die Vegetation, da es die Biomasse, die Ernten und die Artenvielfalt verringert. Die Quantifizierung der globalen Aufnahme von Ozon durch Pflanzen ist von entscheidender Bedeutung, aber eine Herausforderung, denn sie erfordert numerische Modelle, die fein aufgelöste Ozonmessungen, Pflanzenspezifika und meteorologische Parameter miteinander in Beziehung setzen, die nur für einzelne Standorte und begrenzte Zeiträume zur Verfügung stehen, was eine Quantifizierung unpraktisch macht und sinnlos fragmentiert.

    Die Lösung

    Die TOAR-Dateninfrastruktur löst das Problem der fragmentierten Daten. Sie verbindet die TOAR-Datenbank, die bei Jülich Supercomputing Centre  (JSC) Clouds gehostet wird und eine der weltweit größten Sammlungen bodengestützter Ozonmessungen enthält, mit der ebenfalls am JSC gehosteten Meteocloud, einer Sammlung meteorologischer Daten, als Input für das Ozon-Depositionsmodell DO3SE. Der Arbeitsablauf von webDO3SE ist in Abbildung 1 dargestellt. Über eine Weboberfläche können Nutzer einfach auf die Daten zugreifen und selbst Wirkungsabschätzungen in ihrem Browser durchführen. Sie wählen einen Standort und eine Pflanzenart per REST-Abfrage an webDO3SE aus. Dann werden alle Parameter und Eingaben, die für die Ausführung des Modells erforderlich sind, automatisch online erfasst. Die Ergebnisse des Modells werden dem Nutzer direkt im Browser zur weiteren Analyse zur Verfügung gestellt.

    Flowchart illustrating a data processing workflow within a DO3SE web application. The process begins with a yellow box labeled "REST query, run specifications," leading to a green box labeled "Raw, hourly data," which is connected to "TOAR-DB" below. The flow continues to "Preprocessing," then to "Hourly input." Above "Hourly input" is a box labeled "Parameters," receiving inputs from "growing season," "parameterizations," and "basic station info." The flow proceeds to "Model run," associated with "FORTRAN model" below, and then to "Post processing." The final step is a yellow box labeled "Fast API output." The entire sequence is enclosed within a larger box labeled "DO3SE web application."
    Abbildung 1: Schema zur Beschreibung des produktiven Arbeitsablaufs von webDO3SE, der durch eine REST-Anfrage des Benutzers ausgelöst wird. Die Modellpipeline läuft dann automatisch in der Cloud-Infrastruktur von JSC ab und die Ergebnisse werden im Browser des Nutzers angezeigt.

    Vorteile

    • Tor-Daten in Kombination mit HPC-Ressourcen und der Meteocloud erleichtern den Zugang zu einem beispiellosen Umfang an troposphärischen Ozondaten.
    • WebDO3SE bietet eine Schnittstelle für die Erforschung der Auswirkungen von troposphärischem Ozon auf die Vegetation.
    • Die Untersuchung des troposphärischen Ozons auf globaler Ebene gibt den Umweltbehörden mehr Möglichkeiten.

    Sektor der Industrie

    Landwirtschaft, Umwelt/Klima/Wetter, Öffentliche Dienste/Zivilschutz

    Wissenschaftliche Partner

    "TOAR" in großen, fettgedruckten Buchstaben oben. Darunter in kleineren Buchstaben: "tropospheric ozone assessment report". Der Text ist zentriert und verwendet eine einfache, serifenlose Schriftart. "TOAR" ist in dunkler Farbe, während der restliche Text in einem helleren Blauton gehalten ist.

    Der Troposphären-Ozon-Bewertungsbericht (Tropospheric Ozone Assessment Report, TOAR) ist eine internationale Aktivität des Projekts „International Global Atmospheric Chemistry“, das die globale Verteilung und die Trends des troposphärischen Ozons bewerten und Daten bereitstellen soll, die für die Analyse der Auswirkungen von Ozon auf Gesundheit, Vegetation und Klima nützlich sind. Das TOAR-Datenzentrum bietet Zugang zur TOAR-Datenbank, in der Luftqualitätsüberwachungsdaten von Tausenden von Standorten auf der ganzen Welt gesammelt werden.

    Wissenschaftliche Auswirkungen

    Mit dem Fortschreiten des Klimawandels werden wahrscheinlich auch die Treibhausgase und die Verbindungen, die troposphärisches Ozon erzeugen, zunehmen. In der Vergangenheit wurde die Untersuchung der weitreichenden Auswirkungen des troposphärischen Ozons auf die Ernährungssicherung, die Kohlenstoffbindung, die Holzproduktion und den Schutz vor Bodenerosion, Lawinen und Überschwemmungen durch den fragmentierten Zugang zu Daten behindert. Die HPC-Infrastruktur in Verbindung mit TOR-Daten mildert jedoch diese Fragmentierung und ermöglicht die Skalierung wissenschaftlicher Studien zur Unterstützung öffentlicher Einrichtungen.

    Das TOAR-Tool, webDO3SE, wird derzeit für eine Studie zum Vergleich globaler Depositionsmodelle verwendet und in Zukunft eine neuartige globale Bewertung der Ozondeposition der Vegetation liefern – das Ausmaß, in dem Pflanzen troposphärisches Ozon absorbieren und abschwächen. Sobald webDO3SE gut etabliert ist, kann es auch von Umweltbehörden genutzt werden, um von troposphärischem Ozon verursachte Ernteschäden und andere negative Auswirkungen auf die Vegetation abzuschätzen. Im Laufe der Zeit können die Auswirkungen von troposphärischem Ozon sowie alle Maßnahmen zur Abschwächung gemessen, verfolgt und genauer modelliert werden, um den künftigen ökologischen und gesellschaftlichen Nutzen zu maximieren.

  • Nachbericht zum 1. Forum für Supercomputing & Zukunftstechnologien des HLRS

    Am 2. Dezember 2024 fand im Höchstleistungsrechenzentrum Stuttgart (HLRS) in Stuttgart eine spannende Veranstaltung rund um die vielfältigen Einsatzmöglichkeiten von High-Performance Computing (HPC) statt. Unter dem Motto „Services & Anwendungen für Industrie und öffentliche Einrichtungen“ bot das Event einen umfassenden Einblick in aktuelle Entwicklungen, praxisnahe Anwendungen und Finanzierungsmöglichkeiten für HPC-Projekte. Das Forum fand im Rahmen des europäischen Projekts EuroCC statt, das nationale Kompetenzzentren für Höchstleistungsrechnen (HPC), wie das deutsche nationale Kompetenzzentrum (NCC), in ganz Europa unterstützt. Organisiert wurde das Forum gemeinsam vom HLRS und der Sicos BW im Namen des deutschen NCC. Die weiteren Mitglieder des NCC – das Jülich Supercomputing Centre (JSC) und Leibniz-Rechenzentrum (LRZ) waren als Teilnehmer vertreten.

    Ein moderner Hörsaal mit weißen Wänden und Decke, ausgestattet mit Reihen von weißen Tischen und Stühlen. Der Raum ist mit Menschen gefüllt, die an den Tischen sitzen und auf eine große Projektionsleinwand vorne schauen. Ein Präsentator steht in der Nähe der Leinwand und hält eine Präsentation. Die Folie auf der Leinwand trägt den Titel "Vorstellung des NCC Germany" und enthält Text und Grafiken. Das Publikum scheint aufmerksam zu sein, einige Personen nutzen Laptops. Der Raum ist gut beleuchtet mit Deckenleuchten, und es gibt mehrere Deckenprojektoren und Lautsprecher. An der Wand rechts von der Leinwand befindet sich ein großes schwarz-weißes Porträt. Die Veranstaltung heißt "1. Forum für Supercomputing & Zukunftstechnologien" und fand am 2. Dezember im HLRS statt.

    Begrüßung und Einführung

    Dr. Andreas Wierse eröffnete die Veranstaltung mit einer kurzen Begrüßung und stellte das Programm des Tages vor. Im Anschluss gab er eine informative Einführung in das deutsche nationale Kompetenzzentrum für HPC. Diese Präsentation bot den Teilnehmenden eine Übersicht über die Ziele und Aufgaben des Zentrums.

    Industrie-Use Cases – Von Wasserwirtschaft bis Defossilisierung

    Der Vormittag war geprägt von praxisnahen Anwendungsbeispielen aus der Industrie. In der ersten Session präsentierten Experten, wie HPC innovative Lösungen ermöglicht:

    • Dr. Pavel Apanasevich (hydrograv GmbH) erläuterte den Einsatz von Supercomputing zur Optimierung wasserwirtschaftlicher Anlagen.
    • Dr. Benedetto Risio (RECOM Services GmbH) zeigte, wie HPC die Industrie bei der Defossilisierung ihrer Energiesysteme unterstützt.
    • Dr. Max Gaedtke (cloudfluid) beeindruckte mit Beispielen zu multiphysikalischen Strömungssimulationen auf High-Performance-GPUs.

    Nach einer kurzen Kaffeepause folgten weitere Use Cases:

    • Lukas Kriete (Kimoknow) erklärte die Nutzung von Zero-Shot-Transformer-Modellen für eine skalierbare Katalogsuche auf Basis von CAD-Daten.
    • Dr. Johanna Berndt (Grunetal) stellte innovative Lösungen für skalierbare Datenanbindung und Speicherlösungen vor.
    • Dr. Xin Liu (Jülich Supercomputing Centre) präsentierte ein Proof of Concept zur Nutzung von KI im Bereich des Aktienhandels.
    Ein moderner Seminarraum mit mehreren Personen, die an weißen Tischen sitzen und einer Präsentation folgen. Zwei Referenten stehen vorne: Der erste, links, trägt eine graue Jacke und Jeans, während der zweite, rechts, eine dunkelblaue Jacke und Jeans trägt und gestikuliert, während er spricht. Auf einer großen Leinwand hinter ihnen wird eine Präsentationsfolie mit einem Titel und einem Bild einer Person angezeigt, obwohl der Text nicht klar erkennbar ist. Die Teilnehmer sitzen in Reihen, einige mit geöffneten Laptops, um Notizen zu machen oder der Präsentation zu folgen. Der Raum hat große Fenster auf einer Seite, die natürliches Licht hereinlassen.

    Finanzierung und öffentliche Anwendungsfälle

    Nach einer gemeinsamen Mittagspause lag der Fokus auf Fördermöglichkeiten für HPC-Projekte. Josephine Stemmer, Dr. Andreas Wierse und Dr. Nadja Schauffler zeigten konkrete Wege zur Finanzierung von Machbarkeitsstudien und Projekten auf, darunter FFplus und BEGIN HPC+.

    Anschließend wurden Use Cases im öffentlichen Sektor vorgestellt. Die Visualisierungsabteilung des HLRS demonstrierte unter Leitung von Dr. Uwe Wössner, wie digitale Zwillinge die Energiewende und die Verkehrsplanung unterstützen können. Besonders eindrucksvoll war die Darstellung von Konfliktlösungen im Rad- und Fußverkehr von Marko Djuric (HLRS).

    Katastrophenschutz und Networking

    Nach einer weiteren Pause wurde das Thema Katastrophenschutz aufgegriffen. Dr. Ralf Schneider (HLRS) zeigte, wie computergestützte Modelle in Krisensituationen schnelle und effektive Soforthilfe leisten können.

    Zum Abschluss konnten sich die Teilnehmendenmit Expert:innen austauschen und erlebten eine CAVE-Demo, die von Dr. Uwe Wössner geleitet wurde.

    Ein Klassenzimmer oder Hörsaal, in dem eine Präsentation stattfindet. An der Vorderseite des Raumes wird auf einer großen Leinwand ein Stadtmodell mit dem Text "Stuttgart 2024" unten angezeigt. Oben links auf der Leinwand steht in deutscher Sprache "Die Haltestellen Projekt 'Chance'". Vor der Leinwand steht ein Mann mit langen Haaren, der in ein Mikrofon spricht. Neben ihm steht eine Frau mit dunklen Haaren am Rednerpult mit einem Computer. Mehrere Personen sitzen an Schreibtischen mit Laptops und anderen elektronischen Geräten und schauen zu den Präsentatoren. An der Wand befindet sich ein Whiteboard mit der Aufschrift "Hello willkommen". Der Raum wirkt modern und professionell.

    Fazit

    Die Veranstaltung bot einen exzellenten Überblick über die vielfältigen Einsatzmöglichkeiten von HPC – sowohl in der Industrie als auch im öffentlichen Bereich. Die Kombination aus fachlichen Vorträgen, Praxisbeispielen und Networking-Möglichkeiten wurde von den Teilnehmenden durchweg positiv bewertet. Besonders hervorzuheben sind die Fragen und Diskussionen nach jeder Session, die von lebhaften Debatten und zahlreichen Ideen geprägt waren. Ein Beispiel dafür ist die Frage: „Wie müssen Modelle für den Aktienhandel entwickelt werden, wenn der Handel zunehmend von Robotern übernommen wird?“

    Das HLRS unterstrich einmal mehr die führende Rolle des deutschen nationalen Kompetenzzentrums und des EuroCC Projekts in der HPC-Landschaft und zeigte, wie diese Akteure aktiv zur Weiterentwicklung von Technologien und deren Nutzung beitragen. Die Teilnehmenden konnten viele wertvolle Impulse mitnehmen, um eigene Projekte voranzutreiben. Wir freuen uns auf das nächste Forum im Jahr 2025!

  • HPC und MRI

    Unsere neueste wissenschaftliche Erfolgsgeschichte!

    Zunächst einmal: Willkommen in unserem neuen Blog! Hier werden wir über Neuigkeiten, Veranstaltungen, Erfolge und Kooperationen berichten. Sie können sich nun über unsere Aktivitäten auf dem Laufenden halten, wie Sie es auch in den sozialen Medien tun würden, nur mit einem tieferen Einblick in die Details.

    In diesem Eröffnungsbeitrag stellen wir Ihnen unseren ersten Beitrag zur neuen Supercomputing-in-Europe-Podcast-Serie vor! Darin erfahren Sie mehr über unseren jüngsten wissenschaftlichen Erfolg, bei dem wir den Supercomputer des Jülicher Supercomputing Centers nutzen, um die Bildrekonstruktion für die quantitative MRT zu beschleunigen. Mit Hilfe von HPC konnte die gesamte Serie von MRT-Scans in sechs Stunden zu einem Bild des Gehirns rekonstruiert werden und mit Hilfe von KI-Modellen geht es sogar noch schneller.

    Hören Sie es sich an und bleiben Sie dran für einen ausführlicheren Artikel über diesen Erfolg sowie ein Video des Interviews!