論文の概要: Faster, Self-Supervised Super-Resolution for Anisotropic Multi-View MRI Using a Sparse Coordinate Loss
- arxiv url: http://arxiv.org/abs/2509.07798v1
- Date: Tue, 09 Sep 2025 14:38:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.35797
- Title: Faster, Self-Supervised Super-Resolution for Anisotropic Multi-View MRI Using a Sparse Coordinate Loss
- Title(参考訳): Sparse Coordinate Loss を用いた異方性多視点MRIの高速・自己監督型超解像
- Authors: Maja Schlereth, Moritz Schillinger, Katharina Breininger,
- Abstract要約: 本稿では,2つの異方性LRMR画像を融合して解剖学的詳細を統一表現で再構成する手法を提案する。
我々のマルチビューニューラルネットワークは、対応する高解像度(HR)データを必要とせず、自己教師型で訓練されている。
以上の結果から,SOTA自己教師型SR法と比較して,高分解能(SR)性能が向上した。
- 参考スコア(独自算出の注目度): 0.39508022083907396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Acquiring images in high resolution is often a challenging task. Especially in the medical sector, image quality has to be balanced with acquisition time and patient comfort. To strike a compromise between scan time and quality for Magnetic Resonance (MR) imaging, two anisotropic scans with different low-resolution (LR) orientations can be acquired. Typically, LR scans are analyzed individually by radiologists, which is time consuming and can lead to inaccurate interpretation. To tackle this, we propose a novel approach for fusing two orthogonal anisotropic LR MR images to reconstruct anatomical details in a unified representation. Our multi-view neural network is trained in a self-supervised manner, without requiring corresponding high-resolution (HR) data. To optimize the model, we introduce a sparse coordinate-based loss, enabling the integration of LR images with arbitrary scaling. We evaluate our method on MR images from two independent cohorts. Our results demonstrate comparable or even improved super-resolution (SR) performance compared to state-of-the-art (SOTA) self-supervised SR methods for different upsampling scales. By combining a patient-agnostic offline and a patient-specific online phase, we achieve a substantial speed-up of up to ten times for patient-specific reconstruction while achieving similar or better SR quality. Code is available at https://github.com/MajaSchle/tripleSR.
- Abstract(参考訳): 高解像度の画像を取得することは、しばしば難しい課題である。
特に医療分野では、画像の質は、取得時間と患者の快適さとバランスをとらなければならない。
低分解能(LR)方向の異なる2つの異方性走査を取得できる。
通常、LRスキャンは放射線学者によって個別に分析され、それは時間がかかり、不正確な解釈につながる可能性がある。
そこで本研究では,2つの直交異方性LRMR画像を融合して,解剖学的詳細を統一表現で再構成する手法を提案する。
我々のマルチビューニューラルネットワークは、対応する高解像度(HR)データを必要とせず、自己教師型で訓練されている。
モデルを最適化するために、スパース座標に基づく損失を導入し、任意のスケーリングによるLR画像の統合を可能にする。
2つの独立したコホートからのMR画像の評価を行った。
以上の結果から,超解像 (SR) の精度は,SOTA (State-of-the-art) の自己教師型SR法と比較して向上した。
患者に依存しないオフラインと患者固有のオンラインフェーズを組み合わせることで、SR品質を向上しつつ、患者固有の再構築に最大10倍のスピードアップを実現した。
コードはhttps://github.com/MajaSchle/tripleSRで入手できる。
関連論文リスト
- A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
様々な計測アンサンプパターンと画像解像度に頑健な統合MRI再構成モデルを提案する。
我々のモデルは、拡散法よりも600$times$高速な推論で、最先端CNN(End-to-End VarNet)の4dBでSSIMを11%改善し、PSNRを4dB改善する。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - TV-based Deep 3D Self Super-Resolution for fMRI [39.47953213077105]
本稿では,DLネットワークと解析的アプローチとTotal Variation (TV)正規化を組み合わせた,新たな自己教師型DL SRモデルを提案する。
本手法は,外部GT画像の必要性を排除し,管理型DL技術と機能地図の保存による競合性能を実現する。
論文 参考訳(メタデータ) (2024-10-05T09:35:15Z) - Dual Arbitrary Scale Super-Resolution for Multi-Contrast MRI [23.50915512118989]
マルチコントラスト超解像 (SR) 再構成により, SR画像の高画質化が期待できる。
放射線技師は、固定スケールではなく任意のスケールでMR画像を拡大することに慣れている。
本稿では,Dual-ArbNetと呼ばれる,暗黙的ニューラル表現に基づくマルチコントラストMRI超解像法を提案する。
論文 参考訳(メタデータ) (2023-07-05T14:43:26Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Perception Consistency Ultrasound Image Super-resolution via
Self-supervised CycleGAN [63.49373689654419]
自己スーパービジョンとサイクル生成対向ネットワーク(CycleGAN)に基づく新しい知覚整合超音波画像超解像法を提案する。
まず,検査用超音波LR画像のHR父子とLR子を画像強調により生成する。
次に、LR-SR-LRとHR-LR-SRのサイクル損失と判別器の対角特性をフル活用して、より知覚的に一貫性のあるSR結果を生成する。
論文 参考訳(メタデータ) (2020-12-28T08:24:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。