論文の概要: DIMA: DIffusing Motion Artifacts for unsupervised correction in brain MRI images
- arxiv url: http://arxiv.org/abs/2504.06767v1
- Date: Wed, 09 Apr 2025 10:43:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:03:49.540996
- Title: DIMA: DIffusing Motion Artifacts for unsupervised correction in brain MRI images
- Title(参考訳): DIMA:脳MRI画像の教師なし補正のための運動アーティファクトの拡散
- Authors: Paolo Angella, Luca Balbi, Fabrizio Ferrando, Paolo Traverso, Rosario Varriale, Vito Paolo Pastore, Matteo Santacesaria,
- Abstract要約: DIMA(DIffusing Motion Artifacts)は、拡散モデルを活用する新しいフレームワークであり、脳MRIにおける教師なしモーションアーティファクトの修正を可能にする。
我々の2段階のアプローチは、まず、障害のない動画像上の拡散モデルを訓練し、運動成果物の分布を学習する。
このモデルは、クリーンな画像上で現実的なモーションアーティファクトを生成し、修正ネットワークの教師付きトレーニングに適したペア化されたデータセットを作成する。
- 参考スコア(独自算出の注目度): 4.117232425638352
- License:
- Abstract: Motion artifacts remain a significant challenge in Magnetic Resonance Imaging (MRI), compromising diagnostic quality and potentially leading to misdiagnosis or repeated scans. Existing deep learning approaches for motion artifact correction typically require paired motion-free and motion-affected images for training, which are rarely available in clinical settings. To overcome this requirement, we present DIMA (DIffusing Motion Artifacts), a novel framework that leverages diffusion models to enable unsupervised motion artifact correction in brain MRI. Our two-phase approach first trains a diffusion model on unpaired motion-affected images to learn the distribution of motion artifacts. This model then generates realistic motion artifacts on clean images, creating paired datasets suitable for supervised training of correction networks. Unlike existing methods, DIMA operates without requiring k-space manipulation or detailed knowledge of MRI sequence parameters, making it adaptable across different scanning protocols and hardware. Comprehensive evaluations across multiple datasets and anatomical planes demonstrate that our method achieves comparable performance to state-of-the-art supervised approaches while offering superior generalizability to real clinical data. DIMA represents a significant advancement in making motion artifact correction more accessible for routine clinical use, potentially reducing the need for repeat scans and improving diagnostic accuracy.
- Abstract(参考訳): 運動アーティファクトはMRI(MRI)において重要な課題であり、診断の質を損なうとともに、誤診や繰り返しのスキャンにつながる可能性がある。
既存のモーションアーティファクト修正のためのディープラーニングアプローチは、通常、トレーニングのために、ペア化されたモーションフリーとモーションの影響のあるイメージを必要とするが、臨床環境ではめったに利用できない。
この要件を克服するために、拡散モデルを利用して脳MRIにおける教師なし動作アーチファクト補正を可能にする新しいフレームワークであるDIMA(DIffusing Motion Artifacts)を提案する。
我々の2段階のアプローチは、まず、障害のない動画像上の拡散モデルを訓練し、運動成果物の分布を学習する。
このモデルは、クリーンな画像上で現実的なモーションアーティファクトを生成し、修正ネットワークの教師付きトレーニングに適したペア化されたデータセットを作成する。
既存の方法とは異なり、DIMAはk空間操作やMRIシーケンスパラメータの詳細な知識を必要とせずに動作し、異なる走査プロトコルやハードウェアで適用可能である。
複数のデータセットおよび解剖学的平面にわたる包括的評価は,本手法が臨床データに優れた一般化性を提供しつつ,最先端の教師付きアプローチに匹敵する性能を達成できることを実証する。
DIMAは、運動アーチファクトの修正をより日常的な臨床使用に利用しやすくし、再スキャンの必要性を減らし、診断精度を向上させるための重要な進歩である。
関連論文リスト
- Assessing the use of Diffusion models for motion artifact correction in brain MRI [0.6554326244334868]
我々は2次元脳MRIにおける運動アーチファクトの修正に拡散モデルを用いることを批判的に評価した。
本研究では,拡散モデルに基づく手法と最先端の手法との比較を行った。
拡散モデルは正確な予測や有害な幻覚を生成できる。
論文 参考訳(メタデータ) (2025-02-03T14:56:48Z) - Motion Artifact Removal in Pixel-Frequency Domain via Alternate Masks and Diffusion Model [58.694932010573346]
MRI(MRI)における運動アーチファクトは臨床診断に深刻な干渉を与える可能性がある。
ノイズの多いMRI画像の画素周波数情報を利用して、事前学習した拡散モデルを誘導し、クリーンなMRI画像の復元を行う新しい教師なし浄化法を提案する。
論文 参考訳(メタデータ) (2024-12-10T15:25:18Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
様々な計測アンサンプパターンと画像解像度に頑健な統合MRI再構成モデルを提案する。
我々のモデルは、拡散法よりも600$times$高速な推論で、最先端CNN(End-to-End VarNet)の4dBでSSIMを11%改善し、PSNRを4dB改善する。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - HAITCH: A Framework for Distortion and Motion Correction in Fetal Multi-Shell Diffusion-Weighted MRI [5.393543723150301]
この研究は、マルチシェル高角解像度胎児dMRIデータの修正と再構成を行う最初の、かつ唯一公開されたツールであるHAITCHを提示する。
HaITCHは、動的歪み補正のためのblip-reversed dual-echo取得を含む、いくつかの技術的進歩を提供している。
HaITCHはアーティファクトの除去に成功し、高度な拡散モデリングに適した高忠実度胎児dMRIデータを再構成する。
論文 参考訳(メタデータ) (2024-06-28T16:40:57Z) - Motion-Informed Deep Learning for Brain MR Image Reconstruction Framework [7.639405634241267]
運動は臨床MRIの約30%に存在していると推定されている。
深層学習アルゴリズムは画像再構成タスクと運動補正タスクの両方に有効であることが示されている。
画像と正しい動きを同時に高速化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-28T02:16:35Z) - MAMOC: MRI Motion Correction via Masked Autoencoding [2.2553331475843343]
本稿では, 運動負荷MRI脳スキャンにおけるRAC(Retrospective Artifact Correction)の問題点に対処する新しい手法であるMAMOC(Masked Motion Correction)を提案する。
MAMOCは、マスク付き自己エンコーディング、転送学習、テストタイム予測を使用して、動きのアーティファクトを効率的に除去し、高忠実でネイティブなスキャンを生成する。
この研究は、公開データセット上の実際のモーションデータを用いてMRIスキャンにおける動作補正を初めて評価し、MAMOCが既存の動作補正法よりも優れた性能を達成することを示す。
論文 参考訳(メタデータ) (2024-05-23T14:01:22Z) - Volumetric Reconstruction Resolves Off-Resonance Artifacts in Static and
Dynamic PROPELLER MRI [76.60362295758596]
磁気共鳴イメージング(MRI)におけるオフ共鳴アーティファクトは、画像ボリューム内のスピンの実際の共鳴周波数が空間情報を符号化するのに使用される期待周波数と異なる場合に発生する視覚歪みである。
本稿では,2次元MRI再構成問題を3次元に引き上げ,このオフ共鳴をモデル化するための「スペクトル」次元を導入することで,これらのアーチファクトを解決することを提案する。
論文 参考訳(メタデータ) (2023-11-22T05:44:51Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - Data and Physics Driven Learning Models for Fast MRI -- Fundamentals and
Methodologies from CNN, GAN to Attention and Transformers [72.047680167969]
本稿では,畳み込みニューラルネットワークや生成的敵ネットワークに基づく手法を含む,高速MRIのためのディープラーニングに基づくデータ駆動手法を紹介する。
MRI加速のための物理とデータ駆動モデルの結合に関する研究について詳述する。
最後に, 臨床応用について紹介し, マルチセンター・マルチスキャナー研究における高速MRI技術におけるデータ調和の重要性と説明可能なモデルについて述べる。
論文 参考訳(メタデータ) (2022-04-01T22:48:08Z) - A Novel Approach for Correcting Multiple Discrete Rigid In-Plane Motions
Artefacts in MRI Scans [63.28835187934139]
本稿では,2つの入力枝を持つディープニューラルネットワークを用いた動きアーチファクトの除去手法を提案する。
提案法は患者の多動運動によって生成された人工物に応用できる。
論文 参考訳(メタデータ) (2020-06-24T15:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。