論文の概要: Learning Volumetric Neural Deformable Models to Recover 3D Regional Heart Wall Motion from Multi-Planar Tagged MRI
- arxiv url: http://arxiv.org/abs/2411.15233v1
- Date: Thu, 21 Nov 2024 19:43:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:19:17.734490
- Title: Learning Volumetric Neural Deformable Models to Recover 3D Regional Heart Wall Motion from Multi-Planar Tagged MRI
- Title(参考訳): マルチプラナー・タグ付きMRIによる3次元局所心壁運動の学習
- Authors: Meng Ye, Bingyu Xin, Bangwei Guo, Leon Axel, Dimitris Metaxas,
- Abstract要約: ボリューム型ニューラルデフォルマブルモデル(upsilon$NDMs)を新たに導入する。
我々の$upsilon$NDMは、低次元大域的変形パラメータ関数のセットを通して、心臓壁の形状と動きを表す。
我々は3次元局所心壁運動データセットの大規模なコホート実験を行った。
- 参考スコア(独自算出の注目度): 5.166584704137271
- License:
- Abstract: Multi-planar tagged MRI is the gold standard for regional heart wall motion evaluation. However, accurate recovery of the 3D true heart wall motion from a set of 2D apparent motion cues is challenging, due to incomplete sampling of the true motion and difficulty in information fusion from apparent motion cues observed on multiple imaging planes. To solve these challenges, we introduce a novel class of volumetric neural deformable models ($\upsilon$NDMs). Our $\upsilon$NDMs represent heart wall geometry and motion through a set of low-dimensional global deformation parameter functions and a diffeomorphic point flow regularized local deformation field. To learn such global and local deformation for 2D apparent motion mapping to 3D true motion, we design a hybrid point transformer, which incorporates both point cross-attention and self-attention mechanisms. While use of point cross-attention can learn to fuse 2D apparent motion cues into material point true motion hints, point self-attention hierarchically organised as an encoder-decoder structure can further learn to refine these hints and map them into 3D true motion. We have performed experiments on a large cohort of synthetic 3D regional heart wall motion dataset. The results demonstrated the high accuracy of our method for the recovery of dense 3D true motion from sparse 2D apparent motion cues. Project page is at https://github.com/DeepTag/VolumetricNeuralDeformableModels.
- Abstract(参考訳): マルチプラナー・タグ付きMRIは局所心壁運動評価における金の標準である。
しかし, 連続した2次元運動キューからの3次元心壁運動の正確な回復は, 複数の撮像面で観測された真の動きキューからの情報融合が困難であるために困難である。
これらの課題を解決するために,我々は,ボリューム型ニューラルデフォルマブルモデル(\upsilon$NDMs)の新たなクラスを導入する。
我々の$\upsilon$NDMは、低次元大域的変形パラメータ関数と微分点流正規化局所変形場による心臓壁形状と運動を表す。
このようなグローバルかつ局所的な2次元運動マッピングから3次元真の運動への変換を学習するために,位置交差と自己認識の両方の機構を組み込んだハイブリッド・ポイント・トランスフォーマーを設計する。
点クロスアテンションを用いることで、2Dの見かけの運動キューを物質的な真の動きのヒントに融合させることができるが、エンコーダ・デコーダ構造として階層的に組織化された点自己アテンションは、これらのヒントをさらに洗練させ、3Dの真の動きにマッピングすることができる。
我々は3次元局所心壁運動データセットの大規模なコホート実験を行った。
その結果,スパース2次元の運動手がかりから高密度3次元の真の動きを復元する手法の精度が示された。
プロジェクトページはhttps://github.com/DeepTag/VolumetricNeuralDeformableModelsにある。
関連論文リスト
- MedTet: An Online Motion Model for 4D Heart Reconstruction [59.74234226055964]
本研究は, 術後の軽度データから3次元心臓運動を再構築するための新しいアプローチを提案する。
既存の方法では、フル3次元の体積像から3次元の臓器のジオメトリーを正確に再構築することができる。
このような部分的データから3次元運動を再構築するための汎用的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-03T17:18:33Z) - Lifting Motion to the 3D World via 2D Diffusion [19.64801640086107]
トレーニング用に2次元ポーズシーケンスのみを用いてグローバルな3次元動作を予測する新しいアプローチであるMVLiftを紹介する。
MVLiftは、人間のポーズ、人間とオブジェクトの相互作用、動物のポーズなど、さまざまな領域を一般化する。
論文 参考訳(メタデータ) (2024-11-27T23:26:56Z) - MotionGS: Exploring Explicit Motion Guidance for Deformable 3D Gaussian Splatting [56.785233997533794]
我々はMotionGSと呼ばれる新しい変形可能な3次元ガウススプレイティングフレームワークを提案する。
MotionGSは3Dガウスの変形を導くために、前もって明示的な動きを探索する。
モノラルなダイナミックシーンの実験では、MotionGSが最先端の手法を超越していることが確認された。
論文 参考訳(メタデータ) (2024-10-10T08:19:47Z) - SpatialTracker: Tracking Any 2D Pixels in 3D Space [71.58016288648447]
本稿では,画像投影による問題点を軽減するために,3次元空間における点軌道の推定を提案する。
この手法はSpatialTrackerと呼ばれ、2Dピクセルをモノクロ深度推定器を用いて3Dにリフトする。
3Dでのトラッキングにより、ピクセルを異なる剛性部分にクラスタ化する剛性埋め込みを同時に学習しながら、ARAP(as-rigid-as-possible)制約を活用することができます。
論文 参考訳(メタデータ) (2024-04-05T17:59:25Z) - Realistic Human Motion Generation with Cross-Diffusion Models [30.854425772128568]
クロスヒューマンモーション拡散モデル(クロスディフ)
拡散モデルのトレーニングでは,共有変圧器ネットワークを用いて3次元情報と2次元情報を統合する。
CrossDiffは、両方の表現の強みを効果的に組み合わせて、より現実的なモーションシーケンスを生成する。
論文 参考訳(メタデータ) (2023-12-18T07:44:40Z) - DeformGS: Scene Flow in Highly Deformable Scenes for Deformable Object Manipulation [66.7719069053058]
DeformGSは、複数のカメラからダイナミックなシーンを同時撮影することで、高度に変形可能なシーンのシーンフローを復元するアプローチである。
DeformGSは最先端と比較して平均55.8%の3Dトラッキングを改善している。
十分なテクスチャで、DeformGSは1.5 x 1.5 mの布の上で3.3mmの中央値追跡誤差を達成している。
論文 参考訳(メタデータ) (2023-11-30T18:53:03Z) - Learning Internal Representations of 3D Transformations from 2D
Projected Inputs [13.029330360766595]
本研究では, モデルが2次元投影点から深度を推定し, 2次元トレーニング刺激から3次元回転変換を学習し, 精神物理学的構造に基づく運動実験における人間のパフォーマンスと比較する。
論文 参考訳(メタデータ) (2023-03-31T02:43:01Z) - MulViMotion: Shape-aware 3D Myocardial Motion Tracking from Multi-View
Cardiac MRI [11.685829837689404]
心臓の連続した3次元運動場を学習するためのマルチビューモーション推定ネットワーク(MulViMotion)を提案する。
左室心筋の3次元運動追跡のための英国バイオバンク研究の580名の被験者から得られた2D cine CMR画像に対する提案手法を広範に評価した。
論文 参考訳(メタデータ) (2022-07-29T18:29:52Z) - MoCaNet: Motion Retargeting in-the-wild via Canonicalization Networks [77.56526918859345]
そこで本研究では,制御された環境から3次元動作タスクを実現する新しいフレームワークを提案する。
モーションキャプチャシステムや3D再構成手順を使わずに、2Dモノクロ映像のキャラクタから3Dキャラクタへの体動を可能にする。
論文 参考訳(メタデータ) (2021-12-19T07:52:05Z) - Motion Guided 3D Pose Estimation from Videos [81.14443206968444]
本研究では,2次元ポーズから1次元の人物ポーズ推定を行う問題に対して,運動損失と呼ばれる新たな損失関数を提案する。
運動損失の計算では、ペアワイズ・モーション・エンコーディング(ペアワイズ・モーション・エンコーディング)と呼ばれる単純なキーポイント・モーションの表現が導入された。
UGCN(U-shaped GCN)と呼ばれる新しいグラフ畳み込みネットワークアーキテクチャを設計し,短期および長期の動作情報の両方をキャプチャする。
論文 参考訳(メタデータ) (2020-04-29T06:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。