論文の概要: Fetuses Made Simple: Modeling and Tracking of Fetal Shape and Pose
- arxiv url: http://arxiv.org/abs/2506.17858v2
- Date: Sun, 29 Jun 2025 02:47:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 13:01:42.695528
- Title: Fetuses Made Simple: Modeling and Tracking of Fetal Shape and Pose
- Title(参考訳): 胎児をシンプルに - 胎児の形状と姿勢のモデル化と追跡-
- Authors: Yingcheng Liu, Peiqi Wang, Sebastian Diaz, Esra Abaci Turk, Benjamin Billot, Patricia Ellen Grant, Polina Golland,
- Abstract要約: Skinned Multi-Person Linear Model (SMPL) に基づく3次元統計的胎児体モデルを提案する。
提案アルゴリズムは、画像空間における身体のポーズと、標準ポーズ空間における身体形状を反復的に推定する。
本モデルでは,時系列を通して身体の形状や動きを捉え,直感的に可視化する。
- 参考スコア(独自算出の注目度): 5.512268454456547
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Analyzing fetal body motion and shape is paramount in prenatal diagnostics and monitoring. Existing methods for fetal MRI analysis mainly rely on anatomical keypoints or volumetric body segmentations. Keypoints simplify body structure to facilitate motion analysis, but may ignore important details of full-body shape. Body segmentations capture complete shape information but complicate temporal analysis due to large non-local fetal movements. To address these limitations, we construct a 3D articulated statistical fetal body model based on the Skinned Multi-Person Linear Model (SMPL). Our algorithm iteratively estimates body pose in the image space and body shape in the canonical pose space. This approach improves robustness to MRI motion artifacts and intensity distortions, and reduces the impact of incomplete surface observations due to challenging fetal poses. We train our model on segmentations and keypoints derived from $19,816$ MRI volumes across $53$ subjects. Our model captures body shape and motion across time series and provides intuitive visualization. Furthermore, it enables automated anthropometric measurements traditionally difficult to obtain from segmentations and keypoints. When tested on unseen fetal body shapes, our method yields a surface alignment error of $3.2$ mm for $3$ mm MRI voxel size. To our knowledge, this represents the first 3D articulated statistical fetal body model, paving the way for enhanced fetal motion and shape analysis in prenatal diagnostics. The code is available at https://github.com/MedicalVisionGroup/fetal-smpl .
- Abstract(参考訳): 胎児の体の動きと形状を分析することは、出生前診断とモニタリングにおいて最重要である。
胎児MRI分析の既存の方法は、主に解剖学的キーポイントや体積体のセグメンテーションに依存している。
キーポイントは動作解析を容易にするために身体構造を単純化するが、全身形状の重要な詳細を無視する可能性がある。
身体のセグメンテーションは、完全な形状情報を取得するが、大きな非局所的な胎児の動きによる時間的分析を複雑にする。
これらの制約に対処するため,Skinned Multi-Person Linear Model (SMPL) に基づく3次元統計的胎児体モデルを構築した。
提案アルゴリズムは、画像空間における身体のポーズと、標準ポーズ空間における身体形状を反復的に推定する。
このアプローチはMRIの運動アーティファクトや強度歪みに対する堅牢性を改善し、不完全な表面観察の影響を低減する。
我々は,530ドルの被験者を対象に,11,816ドルのMRIボリュームから得られたセグメンテーションとキーポイントに基づいてモデルをトレーニングする。
本モデルでは,時系列を通して身体の形状や動きを捉え,直感的に可視化する。
さらに、伝統的にセグメンテーションやキーポイントから入手するのが困難な自動人文計測を可能にする。
胎児の体型を検査すると、表面アライメント誤差は3.2$ mmで、MRIのボクセルサイズは3.2$ mmである。
我々の知る限り、これは出生前診断における胎児運動の増強と形状解析の道を開く最初の3次元統計的胎児体モデルである。
コードはhttps://github.com/MedicalVisionGroup/fetal-smpl で公開されている。
関連論文リスト
- A Simple Strategy for Body Estimation from Partial-View Images [8.05538560322898]
仮想試行と製品パーソナライズは、現代オンラインショッピングにおいてますます重要になってきており、正確な身体計測推定の必要性を強調している。
従来の研究では、RGB画像から3次元の身体形状を推定する研究が進んでいるが、画像中の人間の観察スケールは、距離と体次元の2つの未知の要因に依存するため、本質的に不明瞭である。
対象骨格を所望の位置に移動させ, スケールを正規化し, 両変数の関係を解消する, モジュラーで単純な高さ正規化法を提案する。
論文 参考訳(メタデータ) (2024-04-14T16:55:23Z) - FetusMapV2: Enhanced Fetal Pose Estimation in 3D Ultrasound [28.408626329596668]
以上の課題を克服するために,新しい3次元ポーズ推定フレームワーク(FetusMapV2)を提案する。
まず,ネットワーク構造に制約がなく,アクティベーションに制約のないGPUメモリ管理手法を提案する。
第2に、対称構造と類似の解剖構造による混乱を軽減するために、新しいペアロスを設計する。
第3に、比較的安定したランドマークを選択して、オンラインのポーズを洗練させることにより、自己指導型形状事前学習を提案する。
論文 参考訳(メタデータ) (2023-10-30T06:18:47Z) - Abdominal organ segmentation via deep diffeomorphic mesh deformations [5.4173776411667935]
CTとMRIによる腹部臓器の分節は,手術計画とコンピュータ支援ナビゲーションシステムにとって必須の要件である。
肝, 腎, 膵, 脾の分節に対するテンプレートベースのメッシュ再構成法を応用した。
結果として得られたUNetFlowは4つの器官すべてによく当てはまり、新しいデータに基づいて簡単に微調整できる。
論文 参考訳(メタデータ) (2023-06-27T14:41:18Z) - SUPR: A Sparse Unified Part-Based Human Representation [61.693373050670644]
既存の頭と手のモデルでは、これらの部分の完全な動きを捉えることができません。
従来のボディパーツモデルは、個々のパーツに分離された3Dスキャンを使用して訓練されている。
そこで本研究では,全体モデルと特定部分モデルとを共同で学習する学習手法を提案する。
論文 参考訳(メタデータ) (2022-10-25T09:32:34Z) - OSSO: Obtaining Skeletal Shape from Outside [50.47978215230605]
OSSO(Obtaining Skeletal Shape from Outside)は、実データから3次元体表面から内部骨格へのマッピングを初めて学習する。
そこで本研究では,体表面を捉えるためにパラメトリックな3次元体形モデル (STAR) と,骨を捉えるために新しい部分ベースの3次元骨格モデルを構築した。
次に、身体形状パラメータから骨格形状パラメータへ回帰器を訓練し、身体的妥当性の制約を満たすために骨格を洗練させる。
論文 参考訳(メタデータ) (2022-04-21T14:33:42Z) - Imposing Temporal Consistency on Deep Monocular Body Shape and Pose
Estimation [67.23327074124855]
本稿では,適合過程における時間的制約の統合に対するエレガントな解法を提案する。
我々は、顎ポーズ、表情、指ポーズを含む人物の形状と動きを表す一連の身体モデルのパラメーターを導出する。
本手法は,表情や手話を含む画像系列からリアルな3次元体モデルの導出を可能にする。
論文 参考訳(メタデータ) (2022-02-07T11:11:55Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - HEMlets PoSh: Learning Part-Centric Heatmap Triplets for 3D Human Pose
and Shape Estimation [60.35776484235304]
本研究は, 中間状態部分熱マップトリプレット(HEMlets)を導入し, 検出された2次元関節を三次元空間に持ち上げる不確実性に対処しようとするものである。
HEMletsは3つのジョイントヒートマップを使用して、各骨格体部に対するエンドジョイントの相対的な深さ情報を表す。
Convolutional Network (ConvNet) は、入力画像からHEMletを予測し、次にボリュームのジョイント・ヒートマップレグレッションを学習する。
論文 参考訳(メタデータ) (2020-03-10T04:03:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。