Schlagwort: HPC

  • Neueste Fortschritte im Bereich der quantitativen MRT durch die Verwendung von HPC

    Die Herausforderung

    Die quantitative Magnetresonanztomografie (qMRT) misst zugrunde liegende MRT-Parameter, verbessert die Empfindlichkeit gegenüber physiologischen Veränderungen und ermöglicht eine zuverlässige Vergleichbarkeit zwischen Tests und Wiederholungstests, sodass beobachtete Veränderungen echte physiologische Unterschiede widerspiegeln und nicht die Kulanz des Scanners. Die Übertragung der qMRT auf UHF, die eine höhere Bildauflösung bei kürzeren Aufnahmezeiten ermöglicht, führt jedoch zu erhöhten Feldinhomogenitäten und einer spezifischen Absorptionsrate. Neuartige Methoden, die am INM-4 entwickelt wurden, begegnen diesen Herausforderungen, führen jedoch zu einer deutlich höheren Komplexität der Rekonstruktion und zu nicht rechtfertigbaren langen Rekonstruktionszeiten.

    Die Lösung

    Um diese zu langen Rekonstruktionszeiten zu beheben, optimierte INM-4 in Zusammenarbeit mit dem Simulation and Data Lab Neuroscience seinen Rekonstruktionscode für HPC am JSC. Durch die Implementierung einer effizienten Vorverarbeitung wurde das Rekonstruktionsproblem in einen schichtweisen Prozess umgewandelt, der parallelisiert werden konnte. In Kombination mit einer automatisierten Scheibenverarbeitung über Bash-Skripte konnte die Rechenzeit mit HPC von 320 Stunden auf 8 Stunden pro Proband reduziert werden. Dieser optimierte Arbeitsablauf überwand frühere Einschränkungen und ermöglichte die Anwendung einer neuartigen qMRt-Methode, die schnellere Scans, eine verbesserte Bildqualität und präzise parametrische Schätzungen ermöglicht. Nachfolgende Messungen an einer großen Kohorte bestätigten, dass HPC-gestützte qMRT bei UHF ein entscheidender Schritt in Richtung klinischer Durchführbarkeit ist.

    https://youtu.be/-s6Bk_moeBs
    Diagramm zur Verbesserung von MRT-Bildern mit einem Supercomputer.
    Abbildung 1: Bei beschleunigten Aufnahmen beeinträchtigen Unterabtastungsartefakte die Bildqualität. Die neue qMRT-Methode begegnet den Herausforderungen der UHF, indem sie zahlreiche MR-Bilder mit leicht variierenden Scannereinstellungen aufnimmt. Um eine kurze Aufnahmezeit zu gewährleisten, wird jedes Bild stark beschleunigt, was zu starken Unterabtastungsartefakten führt. Der Rekonstruktionsalgorithmus korrigiert diese Artefakte durch umfangreiche Berechnungen, für die ein Supercomputer erforderlich ist. Das Endergebnis sind hochwertige, artefaktfreie Bilder, aus denen quantitative Parameter geschätzt werden.

    Vorteile

    • HPC reduzierte die Rekonstruktionszeit von 320 auf 8 Stunden pro Proband, wodurch qMRT realisierbar wurde.
    • Die optimierte qMRT-Methode ermöglichte schnellere Scans, eine verbesserte Bildqualität und präzisere parametrische Schätzungen.
    • Die Zusammenarbeit mit JSC verbesserte die Recheneffizienz und schuf die Voraussetzungen für KI-gestützte qMRT.
    Vergleichsdiagramm von Gehirn-MRT-Bildern, unterteilt in zwei Hauptabschnitte: Qualitatives MRT (links) und Quantitatives MRT (rechts). Unter „Qualitatives MRT“ gibt es eine Spalte mit drei graustufigen Gehirnabschnitten – axial (oben), sagittal (mittig) und koronal (unten) – die ein Strukturabbild mit willkürlicher Signalintensität zeigen. Eine Graustufen-Skala daneben reicht von -0,5 bis 0,5 und ist mit „Signal Intensity [a.u.]“ beschriftet. Unter dieser Spalte steht: „Structural image with arbitrary signal intensity.“ Der Bereich „Quantitatives MRT“ enthält vier Spalten, wobei jede die gleichen drei Gehirnansichten zeigt, jedoch mit unterschiedlichen Farbcodierungen und Messeinheiten: 1. Die erste Spalte zeigt farbkodierte Bilder von Blau (niedrig) bis Gelb (hoch), welche den „freien Wassergehalt in Prozent“ darstellen. Eine vertikale Skala rechts reicht von 0 bis 100 und ist mit „C_fw [%]“ beschriftet. Die Bildunterschrift lautet: „Free water content in percentage.“ 2. Die zweite Spalte zeigt Bilder in einer Farbskala von Blau/Grün (niedrig) bis Gelb (hoch) für die „Longitudinale Relaxationszeit in Millisekunden“, mit einer Skala von 0 bis 4000, beschriftet mit „T₁ [ms]“. Beschriftung: „Longitudinal relaxation time in milliseconds.“ 3. Die dritte Spalte verwendet eine Farbskala von Blau bis Gelb, um die „Effektive transversale Relaxationszeit in Millisekunden“ darzustellen, mit einer Skala von 0 bis 60, beschriftet mit „T₂* [ms]“. Die Beschriftung darunter lautet: „Effective transverse relaxation time in milliseconds.“ 4. Die vierte Spalte zeigt wieder Graustufenbilder, ähnlich wie beim qualitativen MRT, und stellt die „Magnetische Suszeptibilität in ppm“ dar. Die Skala reicht von -0,10 bis 0,10 und ist mit „χ [ppm]“ beschriftet. Darunter steht: „Magnetic susceptibility in ppm.“ Über den Bildern trennt eine waagerechte Linie die Überschriften: „Qualitatives MRT“ links und „Quantitatives MRT“ rechts. Jede Bilderspalte hat eine kurze, kursiv gedruckte Beschreibung des dargestellten Parameters und der jeweiligen physikalischen Einheit. Das Layout hebt den Kontrast zwischen einem einzelnen MRT-Scan mit willkürlicher Intensität und mehreren quantitativen MRT-Ansätzen hervor, die direkt kalibrierte, numerische Messwerte über die Eigenschaften des Gehirngewebes liefern.
    Abbildung 2: In-vivo-Ergebnisse, die ein qualitatives Strukturbild und eine quantitative Wassergehaltskarte C_W, eine T_1-Karte, eine T_2^*-Karte und eine Karte der magnetischen Suszeptibilität χ zeigen, die mit der QRAGE-Methode erfasst wurden.

    Sektor der Industrie

    Gesundheitswesen / Pharmazeutika / Medizinprodukte, IT-/HPC-Systeme

    Wissenschaftliche Partner

    Logo mit einem stilisierten blauen Symbol auf der linken Seite und Text auf der rechten Seite. Der Text lautet:

JÜLICH Forschungszentrum

Das Design wirkt modern und wissenschaftlich.

    Das Institut für Neurowissenschaften und Medizin 4 (INM-4) am Forschungszentrum Jülich entwickelt innovative Methoden zur Weiterentwicklung der Diagnostik und zur Verbesserung unseres Verständnisses des Gehirns mit modernster medizinischer Bildgebungstechnologie, darunter Ultrahochfeld-MRT (UHF) mit 7 Tessla. Sein interdisziplinärer Ansatz in enger Zusammenarbeit mit dem Jülich Supercomputing Center (JSC) nutzt modernste Rechenressourcen, um neuartige Bildgebungsverfahren zu entwickeln, mit denen neue Biomarker in höherer Auflösung und in kürzerer Erfassungszeit sichtbar gemacht werden können.

    Wissenschaftliche Auswirkungen

    Die Implementierung von qMRT bei UHF erforderte eine neuartige Bildgebungsmethode, um erhöhte Feldinhomogenitäten und spezifische Absorptionsraten zu berücksichtigen. Diese Methode ermöglichte schnellere Scans und eine verbesserte Bildqualität, erforderte jedoch die Lösung eines komplexen Rekonstruktionsproblems mit hohem Rechenaufwand. Mit herkömmlicher Hardware war die Rekonstruktion unzumutbar langsam – 8 Stunden pro Schnitt bei 160 Schnitten pro Proband –, was die Bewertung ihres klinischen Potenzials verzögerte.

    Um dieses Problem zu lösen, wandte sich das Team an die Beratungsdienste des JSC und nutzte HPC, um seine Software an die Leistungsfähigkeit von HPC anzupassen. Durch die Parallelisierung von Aufgaben und die Automatisierung von Prozessen konnte die Rechenzeit von 320 auf nur 8 Stunden pro Proband reduziert werden, wodurch die Anwendung der neuartigen qMRI-Methode, die bisher durch die langsame Rekonstruktion eingeschränkt war, möglich wurde.

    HPC ermöglichte somit den praktischen Einsatz der Methode und verbesserte die Bildqualität und die parametrische Genauigkeit. Damit rückt qMRT bei UHF näher an die klinische Anwendung heran und verbessert die Diagnostik. Weitere Optimierungen – wie beispielsweise die KI-gesteuerte Bildrekonstruktion – könnten es schließlich in routinemäßigen klinischen Umgebungen ohne direkten HPC-Zugang einsetzbar machen, was den Patienten durch präzisere und zeitnahe Diagnosen zugute käme.

  • 2. SIDE Forum

    2. SIDE Forum

    Erleben Sie, wie HPC und KI Ihre Innovation beschleunigen können – beim 2. SIDE Forum am 21. Oktober 2025!
    Sie sind Teil eines KMU, Start-ups, Industrieunternehmens oder einer öffentlichen Einrichtung und möchten Ihr Innovationspotenzial mit High Performance Computing (HPC), Datenanalyse oder Künstlicher Intelligenz (KI) steigern? Dann ist das 2. SIDE Forum – Supercomputing in Deutschland genau das Richtige für Sie! Entdecken Sie, wie diese leistungsstarken Technologien Ihnen helfen können, komplexe Herausforderungen zu lösen, Prozesse zu optimieren und sich fit zu machen für die Zukunft.
    Veranstalter ist Supercomputing in Deutschland (SIDE) – das nationale Kompetenzzentrum für HPC, HPDA und verwandte Technologien. Das Forum bringt Technologieexpert:innen, Förderprogramme und praktische Unterstützungsangebote zusammen, die Ihnen den Einstieg erleichtern oder den nächsten Wachstumsschritt ermöglichen.
    Was erwartet Sie?
    Am Vormittag erhalten Sie Einblicke in:
    • Praxisnahe Anwendungsbeispiele und Erfolgsgeschichten von Unternehmen und Institutionen, die bereits HPC und KI einsetzen

    Am interaktiven Nachmittag haben Sie die Möglichkeit, direkt mit SIDE-Expert:innen in Kontakt zu treten – durch:
    • Speed-Dating: Kurze 1:1-Gespräche, um die passenden Ansprechpartner zu finden

    Ob Sie neu im Thema HPC sind oder bereits den nächsten Schritt planen – das SIDE Forum bietet Ihnen praxisnahe Orientierung, Zugang zu Fördermöglichkeiten und Expertenunterstützung – alles an einem Ort.
    👉 Nutzen Sie diese Chance, das Potenzial von HPC und KI für Ihre Organisation zu erschließen. Seien Sie dabei und erfahren Sie, wie SIDE Sie auf Ihrem Weg unterstützen kann.
    Die Anmeldung ist jetzt möglich!

    📅 21. Oktober 2025, 9:00-17:00 Uhr
    📍 HLRS Stuttgart, Nobelstraße 19, 70569 Stuttgart
    🤝 2. Forum für Supercomputing in Deutschland

  • webDO3SE: Ein neues Instrument zur Messung der globalen Auswirkungen von troposphärischem Ozon auf die Pflanzenwelt

    Die Herausforderung

    Ozon, eine schützende Verbindung in der Stratosphäre der Erde, kommt auch in der untersten Schicht unserer Atmosphäre, der Troposphäre, vor. Troposphärisches Ozon ist jedoch schädlich für das Klima, die menschliche Gesundheit und die Vegetation, da es die Biomasse, die Ernten und die Artenvielfalt verringert. Die Quantifizierung der globalen Aufnahme von Ozon durch Pflanzen ist von entscheidender Bedeutung, aber eine Herausforderung, denn sie erfordert numerische Modelle, die fein aufgelöste Ozonmessungen, Pflanzenspezifika und meteorologische Parameter miteinander in Beziehung setzen, die nur für einzelne Standorte und begrenzte Zeiträume zur Verfügung stehen, was eine Quantifizierung unpraktisch macht und sinnlos fragmentiert.

    Die Lösung

    Die TOAR-Dateninfrastruktur löst das Problem der fragmentierten Daten. Sie verbindet die TOAR-Datenbank, die bei Jülich Supercomputing Centre  (JSC) Clouds gehostet wird und eine der weltweit größten Sammlungen bodengestützter Ozonmessungen enthält, mit der ebenfalls am JSC gehosteten Meteocloud, einer Sammlung meteorologischer Daten, als Input für das Ozon-Depositionsmodell DO3SE. Der Arbeitsablauf von webDO3SE ist in Abbildung 1 dargestellt. Über eine Weboberfläche können Nutzer einfach auf die Daten zugreifen und selbst Wirkungsabschätzungen in ihrem Browser durchführen. Sie wählen einen Standort und eine Pflanzenart per REST-Abfrage an webDO3SE aus. Dann werden alle Parameter und Eingaben, die für die Ausführung des Modells erforderlich sind, automatisch online erfasst. Die Ergebnisse des Modells werden dem Nutzer direkt im Browser zur weiteren Analyse zur Verfügung gestellt.

    Flowchart illustrating a data processing workflow within a DO3SE web application. The process begins with a yellow box labeled "REST query, run specifications," leading to a green box labeled "Raw, hourly data," which is connected to "TOAR-DB" below. The flow continues to "Preprocessing," then to "Hourly input." Above "Hourly input" is a box labeled "Parameters," receiving inputs from "growing season," "parameterizations," and "basic station info." The flow proceeds to "Model run," associated with "FORTRAN model" below, and then to "Post processing." The final step is a yellow box labeled "Fast API output." The entire sequence is enclosed within a larger box labeled "DO3SE web application."
    Abbildung 1: Schema zur Beschreibung des produktiven Arbeitsablaufs von webDO3SE, der durch eine REST-Anfrage des Benutzers ausgelöst wird. Die Modellpipeline läuft dann automatisch in der Cloud-Infrastruktur von JSC ab und die Ergebnisse werden im Browser des Nutzers angezeigt.

    Vorteile

    • Tor-Daten in Kombination mit HPC-Ressourcen und der Meteocloud erleichtern den Zugang zu einem beispiellosen Umfang an troposphärischen Ozondaten.
    • WebDO3SE bietet eine Schnittstelle für die Erforschung der Auswirkungen von troposphärischem Ozon auf die Vegetation.
    • Die Untersuchung des troposphärischen Ozons auf globaler Ebene gibt den Umweltbehörden mehr Möglichkeiten.

    Sektor der Industrie

    Landwirtschaft, Umwelt/Klima/Wetter, Öffentliche Dienste/Zivilschutz

    Wissenschaftliche Partner

    "TOAR" in großen, fettgedruckten Buchstaben oben. Darunter in kleineren Buchstaben: "tropospheric ozone assessment report". Der Text ist zentriert und verwendet eine einfache, serifenlose Schriftart. "TOAR" ist in dunkler Farbe, während der restliche Text in einem helleren Blauton gehalten ist.

    Der Troposphären-Ozon-Bewertungsbericht (Tropospheric Ozone Assessment Report, TOAR) ist eine internationale Aktivität des Projekts „International Global Atmospheric Chemistry“, das die globale Verteilung und die Trends des troposphärischen Ozons bewerten und Daten bereitstellen soll, die für die Analyse der Auswirkungen von Ozon auf Gesundheit, Vegetation und Klima nützlich sind. Das TOAR-Datenzentrum bietet Zugang zur TOAR-Datenbank, in der Luftqualitätsüberwachungsdaten von Tausenden von Standorten auf der ganzen Welt gesammelt werden.

    Wissenschaftliche Auswirkungen

    Mit dem Fortschreiten des Klimawandels werden wahrscheinlich auch die Treibhausgase und die Verbindungen, die troposphärisches Ozon erzeugen, zunehmen. In der Vergangenheit wurde die Untersuchung der weitreichenden Auswirkungen des troposphärischen Ozons auf die Ernährungssicherung, die Kohlenstoffbindung, die Holzproduktion und den Schutz vor Bodenerosion, Lawinen und Überschwemmungen durch den fragmentierten Zugang zu Daten behindert. Die HPC-Infrastruktur in Verbindung mit TOR-Daten mildert jedoch diese Fragmentierung und ermöglicht die Skalierung wissenschaftlicher Studien zur Unterstützung öffentlicher Einrichtungen.

    Das TOAR-Tool, webDO3SE, wird derzeit für eine Studie zum Vergleich globaler Depositionsmodelle verwendet und in Zukunft eine neuartige globale Bewertung der Ozondeposition der Vegetation liefern – das Ausmaß, in dem Pflanzen troposphärisches Ozon absorbieren und abschwächen. Sobald webDO3SE gut etabliert ist, kann es auch von Umweltbehörden genutzt werden, um von troposphärischem Ozon verursachte Ernteschäden und andere negative Auswirkungen auf die Vegetation abzuschätzen. Im Laufe der Zeit können die Auswirkungen von troposphärischem Ozon sowie alle Maßnahmen zur Abschwächung gemessen, verfolgt und genauer modelliert werden, um den künftigen ökologischen und gesellschaftlichen Nutzen zu maximieren.