論文の概要: Rigid and non-rigid motion compensation in weight-bearing cone-beam CT
of the knee using (noisy) inertial measurements
- arxiv url: http://arxiv.org/abs/2102.12418v1
- Date: Wed, 24 Feb 2021 17:19:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-25 13:25:55.634627
- Title: Rigid and non-rigid motion compensation in weight-bearing cone-beam CT
of the knee using (noisy) inertial measurements
- Title(参考訳): 騒音)慣性測定による膝の重み付きコーンビームCTの剛性および非剛性運動補償
- Authors: Jennifer Maier, Marlies Nitschke, Jang-Hwan Choi, Garry Gold, Rebecca
Fahrig, Bjoern M. Eskofier, Andreas Maier
- Abstract要約: 不随意の主題運動は膝の重量に耐えるコーン ビームCTの人工物の主要な源です。
動作推定には慣性計測装置(IMU)を脚に装着することを提案する。
IMUに基づく3つの補正手法,すなわち剛性運動補正,非剛性2次元投影変形,非剛性3次元動的再構成を評価した。
- 参考スコア(独自算出の注目度): 4.4889330164039025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Involuntary subject motion is the main source of artifacts in weight-bearing
cone-beam CT of the knee. To achieve image quality for clinical diagnosis, the
motion needs to be compensated. We propose to use inertial measurement units
(IMUs) attached to the leg for motion estimation. We perform a simulation study
using real motion recorded with an optical tracking system. Three IMU-based
correction approaches are evaluated, namely rigid motion correction, non-rigid
2D projection deformation and non-rigid 3D dynamic reconstruction. We present
an initialization process based on the system geometry. With an IMU noise
simulation, we investigate the applicability of the proposed methods in real
applications. All proposed IMU-based approaches correct motion at least as good
as a state-of-the-art marker-based approach. The structural similarity index
and the root mean squared error between motion-free and motion corrected
volumes are improved by 24-35% and 78-85%, respectively, compared with the
uncorrected case. The noise analysis shows that the noise levels of
commercially available IMUs need to be improved by a factor of $10^5$ which is
currently only achieved by specialized hardware not robust enough for the
application. The presented study confirms the feasibility of this novel
approach and defines improvements necessary for a real application.
- Abstract(参考訳): 不随意の主題運動は膝の重量に耐えるコーン ビームCTの人工物の主要な源です。
臨床診断のための画像品質を得るためには,運動を補正する必要がある。
動作推定には慣性計測装置(IMU)を脚に装着することを提案する。
光追跡システムで記録された実動作を用いてシミュレーション研究を行う。
IMUに基づく3つの補正手法,すなわち剛性運動補正,非剛性2次元投影変形,非剛性3次元動的再構成を評価した。
本稿では,システム幾何に基づく初期化プロセスを提案する。
In a IMU noise Simulation, we investigated the application of the proposed method in real applications。
すべての提案されたIMUベースのアプローチは、少なくとも最先端のマーカーベースのアプローチと同じくらい正しい動きを補正します。
構造類似度指数と運動自由量と運動補正量との2乗誤差は, 補正されていない場合と比較してそれぞれ24~35%, 78~85%向上した。
ノイズ分析は、市販のIMUのノイズレベルを10^5$の係数で改善する必要があることを示しています。
本研究は,本手法の実現可能性を確認し,実アプリケーションに必要な改善を定義する。
関連論文リスト
- MotionTTT: 2D Test-Time-Training Motion Estimation for 3D Motion Corrected MRI [24.048132427816704]
高精度な動き推定のための深層学習に基づくテスト時間学習法を提案する。
本手法は, 単純な信号とニューラルネットワークモデルに対して, 動作パラメータを確実に再構成できることを示す。
論文 参考訳(メタデータ) (2024-09-14T08:51:33Z) - Motion-aware 3D Gaussian Splatting for Efficient Dynamic Scene Reconstruction [89.53963284958037]
動的シーン再構築のための新しい動き認識拡張フレームワークを提案する。
具体的には,まず3次元ガウス運動と画素レベルの流れの対応性を確立する。
より厳密な最適化問題を示す先行的な変形に基づくパラダイムに対して,過渡対応変形補助モジュールを提案する。
論文 参考訳(メタデータ) (2024-03-18T03:46:26Z) - Iterative Learning for Joint Image Denoising and Motion Artifact
Correction of 3D Brain MRI [11.806804196128953]
本稿では, 動きアーチファクトを用いたノイズの多いMRIの処理を反復学習により行うJDAC(Joint Image Denoising and Motion Artifact Correction)フレームワークを提案する。
まず,新しい雑音レベル推定手法を設計し,推定雑音分散に基づく特徴正規化条件付きU-Netバックボーンによる雑音を適応的に低減する。
アンチアーティファクトモデルは、運動補正プロセス中に脳解剖の整合性を維持するために設計された、新しい勾配に基づく損失関数を組み込んだ、運動アーティファクトの除去に別のU-Netを使用している。
論文 参考訳(メタデータ) (2024-03-13T01:18:55Z) - SISMIK for brain MRI: Deep-learning-based motion estimation and model-based motion correction in k-space [0.0]
本研究では,脳の2次元スピンエコースキャンにおける動き推定と補正の振り返り手法を提案する。
この手法は、深いニューラルネットワークのパワーを利用してk空間の運動パラメータを推定する。
モデルに基づくアプローチを用いて、劣化した画像を復元し、「幻覚」を避ける。
論文 参考訳(メタデータ) (2023-12-20T17:38:56Z) - GSMorph: Gradient Surgery for cine-MRI Cardiac Deformable Registration [62.41725951450803]
学習に基づく変形可能な登録は、フィールドの登録精度と滑らかさをトレードオフする重み付けされた目的関数に依存する。
我々は,GSMorphと呼ばれる勾配手術機構に基づく登録モデルを構築し,複数の損失に対してパラメータフリーな高バランスを実現する。
提案手法はモデルに依存しないため,パラメータの追加や推論の遅延を伴わずに,任意のディープ登録ネットワークにマージすることができる。
論文 参考訳(メタデータ) (2023-06-26T13:32:09Z) - Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics [74.1720528573331]
教師なし単眼深度と自我運動推定は近年広く研究されている。
我々は、視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-11T07:50:22Z) - Motion Correction and Volumetric Reconstruction for Fetal Functional
Magnetic Resonance Imaging Data [3.690756997172894]
運動補正は胎児脳の機能的磁気共鳴イメージング(fMRI)において重要な前処理ステップである。
胎児のfMRIに対する現在の動作補正手法は、特定の取得時点から1つの3Dボリュームを選択する。
本稿では,外乱運動補正を用いて高解像度の基準体積を推定する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-11T19:11:16Z) - MotionHint: Self-Supervised Monocular Visual Odometry with Motion
Constraints [70.76761166614511]
モノクローナルビジュアル・オドメトリー(VO)のための新しい自己教師型アルゴリズムMotionHintを提案する。
我々のMotionHintアルゴリズムは、既存のオープンソースSSM-VOシステムに容易に適用できる。
論文 参考訳(メタデータ) (2021-09-14T15:35:08Z) - Inertial Measurements for Motion Compensation in Weight-bearing
Cone-beam CT of the Knee [6.7461735822055715]
膝のCTスキャン中の不随意運動は、再建されたボリュームのアーティファクトを引き起こすため、臨床診断には使用できない。
被験者の脚に慣性測定装置(IMU)を装着し,スキャン中の運動を測定する。
論文 参考訳(メタデータ) (2020-07-09T09:26:27Z) - Motion Pyramid Networks for Accurate and Efficient Cardiac Motion
Estimation [51.72616167073565]
本研究では,心臓の運動推定を高精度かつ効率的に行うための,ディープラーニングに基づく新しいアプローチであるMotion Pyramid Networksを提案する。
我々は、複数の特徴表現から運動場のピラミッドを予測し、融合し、より洗練された運動場を生成する。
そこで我々は,新しい循環型教員教育戦略を用いて,推論をエンドツーエンドにし,トラッキング性能をさらに向上させる。
論文 参考訳(メタデータ) (2020-06-28T21:03:19Z) - Appearance Learning for Image-based Motion Estimation in Tomography [60.980769164955454]
トモグラフィー画像では、取得した信号に擬似逆フォワードモデルを適用することにより、解剖学的構造を再構成する。
患者の動きは、復元過程における幾何学的アライメントを損なうため、運動アーティファクトが生じる。
本研究では,スキャン対象から独立して剛性運動の構造を認識する外観学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。