論文の概要: SAM-Body4D: Training-Free 4D Human Body Mesh Recovery from Videos
- arxiv url: http://arxiv.org/abs/2512.08406v1
- Date: Tue, 09 Dec 2025 09:37:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.897883
- Title: SAM-Body4D: Training-Free 4D Human Body Mesh Recovery from Videos
- Title(参考訳): SAM-Body4D:ビデオによるトレーニングなし4D人体メッシュの復元
- Authors: Mingqi Gao, Yunqi Miao, Jungong Han,
- Abstract要約: Human Mesh Recoveryは、2Dの観察から3Dのポーズと形状を再構築することを目的としている。
近年のSAM 3D Bodyのような画像ベースHMR法は,線内画像に対して強靭性を実現している。
ビデオからの時間的一貫した閉塞性HMRのためのトレーニングフリーフレームワークSAM-Body4Dを提案する。
- 参考スコア(独自算出の注目度): 53.227781131348856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human Mesh Recovery (HMR) aims to reconstruct 3D human pose and shape from 2D observations and is fundamental to human-centric understanding in real-world scenarios. While recent image-based HMR methods such as SAM 3D Body achieve strong robustness on in-the-wild images, they rely on per-frame inference when applied to videos, leading to temporal inconsistency and degraded performance under occlusions. We address these issues without extra training by leveraging the inherent human continuity in videos. We propose SAM-Body4D, a training-free framework for temporally consistent and occlusion-robust HMR from videos. We first generate identity-consistent masklets using a promptable video segmentation model, then refine them with an Occlusion-Aware module to recover missing regions. The refined masklets guide SAM 3D Body to produce consistent full-body mesh trajectories, while a padding-based parallel strategy enables efficient multi-human inference. Experimental results demonstrate that SAM-Body4D achieves improved temporal stability and robustness in challenging in-the-wild videos, without any retraining. Our code and demo are available at: https://github.com/gaomingqi/sam-body4d.
- Abstract(参考訳): ヒューマンメッシュリカバリ(Human Mesh Recovery, HMR)は、2次元の観察から3次元の人間のポーズと形状を再構築することを目的としており、現実世界のシナリオにおける人間中心の理解の基礎となっている。
近年のSAM 3D Bodyのような画像ベースHMR法は,動画に適用した場合のフレーム単位の推論に強く依存するが,時間的不整合が生じ,排他的性能が低下する。
ビデオにおける人間の本質的な連続性を活用することで、余分なトレーニングなしにこれらの問題に対処する。
ビデオからの時間的一貫した閉塞性HMRのためのトレーニングフリーフレームワークSAM-Body4Dを提案する。
我々はまず,プロンプト可能なビデオセグメンテーションモデルを用いて同一性を持つマスクレットを生成し,Occlusion-Awareモジュールでそれらを洗練し,欠落した領域を復元する。
改良されたマスクレットはSAM 3Dボディをガイドして一貫したフルボディメッシュトラジェクトリを生成し、パディングベースの並列戦略は効率的なマルチヒューマン推論を可能にする。
実験の結果,SAM-Body4Dは時間的安定性とロバスト性を向上できることがわかった。
私たちのコードとデモは、https://github.com/gaomingqi/sam-body4d.comで公開されています。
関連論文リスト
- Restage4D: Reanimating Deformable 3D Reconstruction from a Single Video [56.781766315691854]
ビデオ条件付き4D再生のための幾何学保存パイプラインである textbfRestage4D を紹介する。
DAVIS と PointOdyssey 上のRestage4D の有効性を検証し,幾何整合性,運動品質,3次元追跡性能の向上を実証した。
論文 参考訳(メタデータ) (2025-08-08T21:31:51Z) - Humans in 4D: Reconstructing and Tracking Humans with Transformers [72.50856500760352]
我々は、人間を再構築し、時間とともに追跡するアプローチを提案する。
このアプローチの中核として、人間のメッシュリカバリのためのネットワークの完全な"トランスフォーマライズ"バージョンを提案する。
このネットワークであるHMR 2.0は、芸術の状態を前進させ、過去に1枚の画像から再構成することが困難であった異常なポーズを分析する能力を示す。
論文 参考訳(メタデータ) (2023-05-31T17:59:52Z) - Human Performance Capture from Monocular Video in the Wild [50.34917313325813]
本研究では,挑戦的な身体ポーズを特徴とするモノクロ映像から動的3次元人体形状をキャプチャする手法を提案する。
本手法は,現在開発中の3DPWビデオデータセットにおいて,最先端の手法よりも優れる。
論文 参考訳(メタデータ) (2021-11-29T16:32:41Z) - PC-HMR: Pose Calibration for 3D Human Mesh Recovery from 2D
Images/Videos [47.601288796052714]
我々は2つの新しいPoseフレームワーク、すなわちSerial PC-HMRとParallel PC-HMRを開発した。
当社のフレームワークは、データ駆動学習と幾何学的モデリングの汎用的かつ補完的な統合に基づいています。
我々は一般的なベンチマーク(Human3.6M, 3DPW, SURREAL)について広範な実験を行い、PC-HMRフレームワークがSOTA結果を達成する。
論文 参考訳(メタデータ) (2021-03-16T12:12:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。