論文の概要: Faster, Self-Supervised Super-Resolution for Anisotropic Multi-View MRI Using a Sparse Coordinate Loss
- arxiv url: http://arxiv.org/abs/2509.07798v1
- Date: Tue, 09 Sep 2025 14:38:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.35797
- Title: Faster, Self-Supervised Super-Resolution for Anisotropic Multi-View MRI Using a Sparse Coordinate Loss
- Title(参考訳): Sparse Coordinate Loss を用いた異方性多視点MRIの高速・自己監督型超解像
- Authors: Maja Schlereth, Moritz Schillinger, Katharina Breininger,
- Abstract要約: 本稿では,2つの異方性LRMR画像を融合して解剖学的詳細を統一表現で再構成する手法を提案する。
我々のマルチビューニューラルネットワークは、対応する高解像度(HR)データを必要とせず、自己教師型で訓練されている。
以上の結果から,SOTA自己教師型SR法と比較して,高分解能(SR)性能が向上した。
- 参考スコア(独自算出の注目度): 0.39508022083907396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Acquiring images in high resolution is often a challenging task. Especially in the medical sector, image quality has to be balanced with acquisition time and patient comfort. To strike a compromise between scan time and quality for Magnetic Resonance (MR) imaging, two anisotropic scans with different low-resolution (LR) orientations can be acquired. Typically, LR scans are analyzed individually by radiologists, which is time consuming and can lead to inaccurate interpretation. To tackle this, we propose a novel approach for fusing two orthogonal anisotropic LR MR images to reconstruct anatomical details in a unified representation. Our multi-view neural network is trained in a self-supervised manner, without requiring corresponding high-resolution (HR) data. To optimize the model, we introduce a sparse coordinate-based loss, enabling the integration of LR images with arbitrary scaling. We evaluate our method on MR images from two independent cohorts. Our results demonstrate comparable or even improved super-resolution (SR) performance compared to state-of-the-art (SOTA) self-supervised SR methods for different upsampling scales. By combining a patient-agnostic offline and a patient-specific online phase, we achieve a substantial speed-up of up to ten times for patient-specific reconstruction while achieving similar or better SR quality. Code is available at https://github.com/MajaSchle/tripleSR.
- Abstract(参考訳): 高解像度の画像を取得することは、しばしば難しい課題である。
特に医療分野では、画像の質は、取得時間と患者の快適さとバランスをとらなければならない。
低分解能(LR)方向の異なる2つの異方性走査を取得できる。
通常、LRスキャンは放射線学者によって個別に分析され、それは時間がかかり、不正確な解釈につながる可能性がある。
そこで本研究では,2つの直交異方性LRMR画像を融合して,解剖学的詳細を統一表現で再構成する手法を提案する。
我々のマルチビューニューラルネットワークは、対応する高解像度(HR)データを必要とせず、自己教師型で訓練されている。
モデルを最適化するために、スパース座標に基づく損失を導入し、任意のスケーリングによるLR画像の統合を可能にする。
2つの独立したコホートからのMR画像の評価を行った。
以上の結果から,超解像 (SR) の精度は,SOTA (State-of-the-art) の自己教師型SR法と比較して向上した。
患者に依存しないオフラインと患者固有のオンラインフェーズを組み合わせることで、SR品質を向上しつつ、患者固有の再構築に最大10倍のスピードアップを実現した。
コードはhttps://github.com/MajaSchle/tripleSRで入手できる。
関連論文リスト
- Self-Supervised Weighted Image Guided Quantitative MRI Super-Resolution [0.4757311250629737]
高分解能 (HR) 定量MRI (qMRI) は, 目的組織の特徴を呈するが, 長期の取得により臨床利用が困難である。
我々は,日常的に取得されたHR強調MRI(wMRI)スキャンをガイダンスとして用いた,qMRI超解像のための物理インフォームド自己教師型フレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-19T14:15:31Z) - Recovering Diagnostic Value: Super-Resolution-Aided Echocardiographic Classification in Resource-Constrained Imaging [0.3937354192623676]
超高分解能(SR)技術は、MRI(MRI)とCT(CT)スキャンの強化を約束している。
本研究では,低品質2次元心エコー図の分類精度を向上させるために,深層学習に基づくSRの可能性を検討する。
本稿では,高画質画像の高精細化と性能指標の大幅な向上を図るため,SRGAN(Super-Resolution Generative Adversarial Network)とSRResNet(Super-Resolution Residual Network)の2つのSRモデルを適用した。
論文 参考訳(メタデータ) (2025-07-30T18:45:31Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
様々な計測アンサンプパターンと画像解像度に頑健な統合MRI再構成モデルを提案する。
我々のモデルは、拡散法よりも600$times$高速な推論で、最先端CNN(End-to-End VarNet)の4dBでSSIMを11%改善し、PSNRを4dB改善する。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - TV-based Deep 3D Self Super-Resolution for fMRI [39.47953213077105]
本稿では,DLネットワークと解析的アプローチとTotal Variation (TV)正規化を組み合わせた,新たな自己教師型DL SRモデルを提案する。
本手法は,外部GT画像の必要性を排除し,管理型DL技術と機能地図の保存による競合性能を実現する。
論文 参考訳(メタデータ) (2024-10-05T09:35:15Z) - Dual Arbitrary Scale Super-Resolution for Multi-Contrast MRI [23.50915512118989]
マルチコントラスト超解像 (SR) 再構成により, SR画像の高画質化が期待できる。
放射線技師は、固定スケールではなく任意のスケールでMR画像を拡大することに慣れている。
本稿では,Dual-ArbNetと呼ばれる,暗黙的ニューラル表現に基づくマルチコントラストMRI超解像法を提案する。
論文 参考訳(メタデータ) (2023-07-05T14:43:26Z) - Self-supervised arbitrary scale super-resolution framework for
anisotropic MRI [14.05196542298934]
異方性MRI入力から等方性磁気共鳴(MR)画像を再構成するための,効率的な自己教師付き任意スケール超解像(SR)フレームワークを提案する。
提案フレームワークは、任意の画像解像度で、Wildの異方性MRボリュームを用いたトレーニングデータセットを構築する。
我々は、シミュレーションされた成人脳のデータセットと実際の収集された7T脳のデータセットについて実験を行った。
論文 参考訳(メタデータ) (2023-05-02T12:27:25Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - Perception Consistency Ultrasound Image Super-resolution via
Self-supervised CycleGAN [63.49373689654419]
自己スーパービジョンとサイクル生成対向ネットワーク(CycleGAN)に基づく新しい知覚整合超音波画像超解像法を提案する。
まず,検査用超音波LR画像のHR父子とLR子を画像強調により生成する。
次に、LR-SR-LRとHR-LR-SRのサイクル損失と判別器の対角特性をフル活用して、より知覚的に一貫性のあるSR結果を生成する。
論文 参考訳(メタデータ) (2020-12-28T08:24:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。