論文の概要: SISMIK for brain MRI: Deep-learning-based motion estimation and model-based motion correction in k-space
- arxiv url: http://arxiv.org/abs/2312.13220v2
- Date: Sat, 15 Jun 2024 21:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 07:14:24.127383
- Title: SISMIK for brain MRI: Deep-learning-based motion estimation and model-based motion correction in k-space
- Title(参考訳): 脳MRIのためのSISMIK:k空間における深層学習に基づく動き推定とモデルに基づく動き補正
- Authors: Oscar Dabrowski, Jean-Luc Falcone, Antoine Klauser, Julien Songeon, Michel Kocher, Bastien Chopard, François Lazeyras, Sébastien Courvoisier,
- Abstract要約: 本研究では,脳の2次元スピンエコースキャンにおける動き推定と補正の振り返り手法を提案する。
この手法は、深いニューラルネットワークのパワーを利用してk空間の運動パラメータを推定する。
モデルに基づくアプローチを用いて、劣化した画像を復元し、「幻覚」を避ける。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: MRI, a widespread non-invasive medical imaging modality, is highly sensitive to patient motion. Despite many attempts over the years, motion correction remains a difficult problem and there is no general method applicable to all situations. We propose a retrospective method for motion estimation and correction to tackle the problem of in-plane rigid-body motion, apt for classical 2D Spin-Echo scans of the brain, which are regularly used in clinical practice. Due to the sequential acquisition of k-space, motion artifacts are well localized. The method leverages the power of deep neural networks to estimate motion parameters in k-space and uses a model-based approach to restore degraded images to avoid ''hallucinations''. Notable advantages are its ability to estimate motion occurring in high spatial frequencies without the need of a motion-free reference. The proposed method operates on the whole k-space dynamic range and is moderately affected by the lower SNR of higher harmonics. As a proof of concept, we provide models trained using supervised learning on 600k motion simulations based on motion-free scans of 43 different subjects. Generalization performance was tested with simulations as well as in-vivo. Qualitative and quantitative evaluations are presented for motion parameter estimations and image reconstruction. Experimental results show that our approach is able to obtain good generalization performance on simulated data and in-vivo acquisitions. We provide a Python implementation at https://gitlab.unige.ch/Oscar.Dabrowski/sismik_mri/.
- Abstract(参考訳): 広汎な非侵襲的医療画像モダリティであるMRIは、患者の動きに非常に敏感である。
長年にわたる多くの試みにもかかわらず、運動補正は難しい問題であり、あらゆる状況に適用できる一般的な方法はない。
本研究では,脳の古典的2次元スピンエコースキャンに適応する平面内剛体運動問題に対する運動推定と修正の振り返り手法を提案する。
k-空間の逐次取得のため、運動アーティファクトは十分に局所化されている。
この手法は、深層ニューラルネットワークのパワーを活用してk空間内の運動パラメータを推定し、モデルに基づくアプローチで劣化した画像を復元し、「幻覚」を避ける。
注目すべき利点は、動きのない参照を必要とせずに、高空間周波数で発生する動きを推定できることである。
提案手法はk空間のダイナミックレンジ全体で動作し,高調波の低SNRの影響を受けやすい。
概念実証として、43種類の被験者の無運動スキャンに基づいて600kの動作シミュレーションを教師付き学習を用いて訓練したモデルを提供する。
一般化性能はシミュレーションとin-vivoで試験された。
動きパラメータ推定と画像再構成のための定性的,定量的評価を行った。
実験結果から,本手法はシミュレーションデータとin-vivo取得に対して優れた一般化性能が得られることが示された。
https://gitlab.unige.ch/Oscar.Dabrowski/sismik_mri/でPythonの実装を提供しています。
関連論文リスト
- Highly efficient non-rigid registration in k-space with application to cardiac Magnetic Resonance Imaging [10.618048010632728]
非剛性動作推定のためのローカル・オール・パス・アテンション・ネットワーク(LAPANet)と呼ばれる,自己教師型深層学習に基づく新しいフレームワークを提案する。
LAPANetは,種々のサンプリング軌跡と加速度速度で心運動推定を行った。
非剛性運動に対する高時間分解能(5ミリ秒未満)は、動的およびリアルタイムMRIアプリケーションにおける動きの検出、追跡、修正のための新しい道を開く。
論文 参考訳(メタデータ) (2024-10-24T15:19:59Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - MotionTTT: 2D Test-Time-Training Motion Estimation for 3D Motion Corrected MRI [24.048132427816704]
高精度な動き推定のための深層学習に基づくテスト時間学習法を提案する。
本手法は, 単純な信号とニューラルネットワークモデルに対して, 動作パラメータを確実に再構成できることを示す。
論文 参考訳(メタデータ) (2024-09-14T08:51:33Z) - On the Influence of Smoothness Constraints in Computed Tomography Motion Compensation [3.5475653746630056]
本研究では,コーンビームCTのための既存の剛性運動補償アルゴリズムにおけるスプラインベース運動モデルの影響を解析する。
その結果、運動モデルの選択は、回復可能な周波数に決定的に影響を及ぼすことが示された。
最終的に、最適な動作モデルは、画像化された解剖学、臨床ユースケース、走査プロトコルに依存する。
論文 参考訳(メタデータ) (2024-05-29T13:36:16Z) - MotionHint: Self-Supervised Monocular Visual Odometry with Motion
Constraints [70.76761166614511]
モノクローナルビジュアル・オドメトリー(VO)のための新しい自己教師型アルゴリズムMotionHintを提案する。
我々のMotionHintアルゴリズムは、既存のオープンソースSSM-VOシステムに容易に適用できる。
論文 参考訳(メタデータ) (2021-09-14T15:35:08Z) - Dynamic Mode Decomposition in Adaptive Mesh Refinement and Coarsening
Simulations [58.720142291102135]
動的モード分解(DMD)はコヒーレントなスキームを抽出する強力なデータ駆動方式である。
本稿では,異なるメッシュトポロジと次元の観測からDMDを抽出する戦略を提案する。
論文 参考訳(メタデータ) (2021-04-28T22:14:25Z) - Rigid and non-rigid motion compensation in weight-bearing cone-beam CT
of the knee using (noisy) inertial measurements [4.4889330164039025]
不随意の主題運動は膝の重量に耐えるコーン ビームCTの人工物の主要な源です。
動作推定には慣性計測装置(IMU)を脚に装着することを提案する。
IMUに基づく3つの補正手法,すなわち剛性運動補正,非剛性2次元投影変形,非剛性3次元動的再構成を評価した。
論文 参考訳(メタデータ) (2021-02-24T17:19:32Z) - Inertial Measurements for Motion Compensation in Weight-bearing
Cone-beam CT of the Knee [6.7461735822055715]
膝のCTスキャン中の不随意運動は、再建されたボリュームのアーティファクトを引き起こすため、臨床診断には使用できない。
被験者の脚に慣性測定装置(IMU)を装着し,スキャン中の運動を測定する。
論文 参考訳(メタデータ) (2020-07-09T09:26:27Z) - Motion Pyramid Networks for Accurate and Efficient Cardiac Motion
Estimation [51.72616167073565]
本研究では,心臓の運動推定を高精度かつ効率的に行うための,ディープラーニングに基づく新しいアプローチであるMotion Pyramid Networksを提案する。
我々は、複数の特徴表現から運動場のピラミッドを予測し、融合し、より洗練された運動場を生成する。
そこで我々は,新しい循環型教員教育戦略を用いて,推論をエンドツーエンドにし,トラッキング性能をさらに向上させる。
論文 参考訳(メタデータ) (2020-06-28T21:03:19Z) - A Novel Approach for Correcting Multiple Discrete Rigid In-Plane Motions
Artefacts in MRI Scans [63.28835187934139]
本稿では,2つの入力枝を持つディープニューラルネットワークを用いた動きアーチファクトの除去手法を提案する。
提案法は患者の多動運動によって生成された人工物に応用できる。
論文 参考訳(メタデータ) (2020-06-24T15:25:11Z) - Spatio-Temporal Deep Learning Methods for Motion Estimation Using 4D OCT
Image Data [63.73263986460191]
特定の対象領域の局所化と運動の推定は、外科的介入の際のナビゲーションの一般的な問題である。
OCT画像ボリュームの時間的ストリームを用いることで、深層学習に基づく動き推定性能が向上するかどうかを検討する。
モデル入力に4D情報を使用すると、合理的な推論時間を維持しながら性能が向上する。
論文 参考訳(メタデータ) (2020-04-21T15:43:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。