論文の概要: A Diffusion-Driven Temporal Super-Resolution and Spatial Consistency Enhancement Framework for 4D MRI imaging
- arxiv url: http://arxiv.org/abs/2506.04116v2
- Date: Mon, 09 Jun 2025 01:39:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 14:13:04.13817
- Title: A Diffusion-Driven Temporal Super-Resolution and Spatial Consistency Enhancement Framework for 4D MRI imaging
- Title(参考訳): 4次元MRIのための拡散駆動型時間的超解像と空間的整合性向上フレームワーク
- Authors: Xuanru Zhou, Jiarun Liu, Shoujun Yu, Hao Yang, Cheng Li, Tao Tan, Shanshan Wang,
- Abstract要約: 医用画像では、4D MRIはダイナミックな3D可視化を可能にするが、空間分解能と時間分解能のトレードオフはスキャン時間の延長を必要とする。
伝統的なアプローチは一般的に中間フレームを生成するために登録ベースに依存している。
空間整合性を維持しつつ中間フレームを生成する新しいフレームワークTSSC-Netを提案する。
- 参考スコア(独自算出の注目度): 9.016385222343715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In medical imaging, 4D MRI enables dynamic 3D visualization, yet the trade-off between spatial and temporal resolution requires prolonged scan time that can compromise temporal fidelity--especially during rapid, large-amplitude motion. Traditional approaches typically rely on registration-based interpolation to generate intermediate frames. However, these methods struggle with large deformations, resulting in misregistration, artifacts, and diminished spatial consistency. To address these challenges, we propose TSSC-Net, a novel framework that generates intermediate frames while preserving spatial consistency. To improve temporal fidelity under fast motion, our diffusion-based temporal super-resolution network generates intermediate frames using the start and end frames as key references, achieving 6x temporal super-resolution in a single inference step. Additionally, we introduce a novel tri-directional Mamba-based module that leverages long-range contextual information to effectively resolve spatial inconsistencies arising from cross-slice misalignment, thereby enhancing volumetric coherence and correcting cross-slice errors. Extensive experiments were performed on the public ACDC cardiac MRI dataset and a real-world dynamic 4D knee joint dataset. The results demonstrate that TSSC-Net can generate high-resolution dynamic MRI from fast-motion data while preserving structural fidelity and spatial consistency.
- Abstract(参考訳): 医用画像では、4D MRIはダイナミックな3D可視化を可能にするが、空間分解能と時間分解能のトレードオフは、時間的忠実さを損なう可能性のある長いスキャン時間を必要とする。
伝統的なアプローチは一般的に中間フレームを生成するために登録ベースの補間に依存する。
しかし、これらの手法は大きな変形に苦しむため、誤登録、アーティファクト、空間的整合性が低下する。
これらの課題に対処するため,空間整合性を維持しながら中間フレームを生成する新しいフレームワークTSSC-Netを提案する。
高速な動作下での時間的忠実性を改善するため、拡散に基づく時間的超解像ネットワークは、開始フレームと終了フレームを鍵参照として中間フレームを生成し、単一の推論ステップで6倍の時間的超解像を達成する。
さらに,クロススライス不整合による空間的不整合を効果的に解消し,ボリュームコヒーレンスを高め,クロススライス誤りを修正するために,長距離コンテキスト情報を利用した新しい三方向マンバモジュールを提案する。
ACDCの心臓MRIデータセットと実世界の動的4D膝関節データセットで大規模な実験を行った。
その結果、TSSC-Netは、構造的忠実度と空間的整合性を保ちながら、高速モーションデータから高分解能ダイナミックMRIを生成することができることを示した。
関連論文リスト
- Subspace Implicit Neural Representations for Real-Time Cardiac Cine MR Imaging [9.373081514803303]
本稿では,連続した放射状データを用いたリアルタイム心血管MRIのためのサブスペース暗黙的ニューラル表現に基づく再構成フレームワークを提案する。
本手法は,トレーニング中に連続サンプリングしたラジアルk空間スポークを直接利用することにより,バイナリ化や非一様FFTの必要性を解消する。
論文 参考訳(メタデータ) (2024-12-17T10:06:37Z) - CPT-Interp: Continuous sPatial and Temporal Motion Modeling for 4D Medical Image Interpolation [22.886841531680567]
4D医療画像からの運動情報は、臨床評価と放射線治療計画のための患者解剖学の動的変化に関する重要な洞察を提供する。
しかし、画像ハードウェアの物理的および技術的な制約は、時間分解能と画質の妥協を必要とすることが多い。
暗黙的神経表現を用いた患者解剖運動を連続的にモデル化するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T09:35:42Z) - Motion2VecSets: 4D Latent Vector Set Diffusion for Non-rigid Shape Reconstruction and Tracking [52.393359791978035]
Motion2VecSetsは点雲列からの動的表面再構成のための4次元拡散モデルである。
グローバルな潜在符号の代わりに、潜在集合で4Dダイナミクスをパラメータ化する。
時間的コヒーレントな物体追跡のために、変形潜在集合を同期的に認知し、複数のフレーム間で情報を交換する。
論文 参考訳(メタデータ) (2024-01-12T15:05:08Z) - Robust Depth Linear Error Decomposition with Double Total Variation and
Nuclear Norm for Dynamic MRI Reconstruction [15.444386058967579]
Compressed Sensing (CS) に基づく動的MRI k-space 再構成にはまだ問題がある。
本稿では,高アンダーサンプリングフーリエ変換(DFT)を用いた高低レート動的MRI再構成モデルを提案する。
動的MRIデータに対する実験は、再構成精度と時間複雑性の両方の観点から、優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-23T13:34:59Z) - Alignment-free HDR Deghosting with Semantics Consistent Transformer [76.91669741684173]
高ダイナミックレンジイメージングは、複数の低ダイナミックレンジ入力から情報を取得し、リアルな出力を生成することを目的としている。
既存の手法では、前景やカメラの動きによって引き起こされる入力フレーム間の空間的ずれに焦点を当てることが多い。
本研究では,SCTNet(Semantics Consistent Transformer)を用いたアライメントフリーネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:03:23Z) - Local-Global Temporal Difference Learning for Satellite Video Super-Resolution [53.03380679343968]
本稿では,時間的差分を効果的かつ効果的な時間的補償に利用することを提案する。
フレーム内における局所的・大域的時間的情報を完全に活用するために,短期・長期的時間的相違を体系的にモデル化した。
5つの主流ビデオ衛星に対して行われた厳密な客観的および主観的評価は、我々の手法が最先端のアプローチに対して好適に機能することを実証している。
論文 参考訳(メタデータ) (2023-04-10T07:04:40Z) - Coarse-Super-Resolution-Fine Network (CoSF-Net): A Unified End-to-End
Neural Network for 4D-MRI with Simultaneous Motion Estimation and
Super-Resolution [21.75329634476446]
我々は,高分解能ネットワーク(CoSF-Net)と呼ばれる新しいディープラーニングフレームワークを開発した。
既存のネットワークと最先端の3つのアルゴリズムと比較して、CoSF-Netは4D-MRIの呼吸相間の変形可能なベクトル場を正確に推定するだけでなく、解剖学的特徴を増強した4D-MRIの空間分解能も同時に改善した。
論文 参考訳(メタデータ) (2022-11-21T01:42:51Z) - DDoS-UNet: Incorporating temporal information using Dynamic Dual-channel
UNet for enhancing super-resolution of dynamic MRI [0.27998963147546135]
磁気共鳴イメージング(MRI)は、有害な電離放射線を使わずに、高い空間分解能と優れた軟質コントラストを提供する。
時間分解能の高いMRIでは空間分解能が制限される。
このトレードオフを緩和するために、ディープラーニングに基づく超解像アプローチが提案されている。
本研究は,空間的関係と時間的関係の両方を学習しようとする深層学習モデルを作成することで,この問題に対処する。
論文 参考訳(メタデータ) (2022-02-10T22:20:58Z) - Decoupling and Recoupling Spatiotemporal Representation for RGB-D-based
Motion Recognition [62.46544616232238]
従来の動作認識手法は、密結合した多時間表現によって有望な性能を実現している。
本稿では,RGB-D に基づく動作認識において引き起こされた表現を分離し,再分離することを提案する。
論文 参考訳(メタデータ) (2021-12-16T18:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。