論文の概要: MonoPartNeRF:Human Reconstruction from Monocular Video via Part-Based Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2508.08798v1
- Date: Tue, 12 Aug 2025 09:55:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.374402
- Title: MonoPartNeRF:Human Reconstruction from Monocular Video via Part-Based Neural Radiance Fields
- Title(参考訳): モノPartNeRF:部分ベースニューラルラジアンス場を用いたモノクロ映像からのHuman再構成
- Authors: Yao Lu, Jiawei Li, Ming Jiang,
- Abstract要約: 単分子動的人間のレンダリングのための新しいフレームワークMonoPartNeRFを提案する。
部分ベースのレンダリングパラダイムは、人間のセグメンテーションによってガイドされ、構造的な複雑さに基づいた柔軟なパラメータ割り当てを可能にする。
本研究では,グローバルなポーズベクトルを身体領域に基づく局所的な関節埋め込みに分解する部分的ポーズ埋め込み機構を提案する。
- 参考スコア(独自算出の注目度): 12.791949210170124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Neural Radiance Fields (NeRF) have achieved remarkable progress in dynamic human reconstruction and rendering. Part-based rendering paradigms, guided by human segmentation, allow for flexible parameter allocation based on structural complexity, thereby enhancing representational efficiency. However, existing methods still struggle with complex pose variations, often producing unnatural transitions at part boundaries and failing to reconstruct occluded regions accurately in monocular settings. We propose MonoPartNeRF, a novel framework for monocular dynamic human rendering that ensures smooth transitions and robust occlusion recovery. First, we build a bidirectional deformation model that combines rigid and non-rigid transformations to establish a continuous, reversible mapping between observation and canonical spaces. Sampling points are projected into a parameterized surface-time space (u, v, t) to better capture non-rigid motion. A consistency loss further suppresses deformation-induced artifacts and discontinuities. We introduce a part-based pose embedding mechanism that decomposes global pose vectors into local joint embeddings based on body regions. This is combined with keyframe pose retrieval and interpolation, along three orthogonal directions, to guide pose-aware feature sampling. A learnable appearance code is integrated via attention to model dynamic texture changes effectively. Experiments on the ZJU-MoCap and MonoCap datasets demonstrate that our method significantly outperforms prior approaches under complex pose and occlusion conditions, achieving superior joint alignment, texture fidelity, and structural continuity.
- Abstract(参考訳): 近年、ニューラル・レージアンス・フィールド(NeRF)は人間の動的再構成とレンダリングにおいて顕著な進歩を遂げている。
部分ベースのレンダリングパラダイムは、人間のセグメンテーションによってガイドされ、構造的複雑性に基づく柔軟なパラメータ割り当てを可能にし、表現効率を向上する。
しかし、既存の手法は複雑なポーズのバリエーションに苦慮しており、しばしば部分境界で不自然な遷移を生じさせ、単分子的な設定で隠蔽領域を正確に再構築することができない。
単分子動的レンダリングのための新しいフレームワークであるMonoPartNeRFを提案し,スムーズな遷移と頑健な閉塞回復を実現する。
まず、剛性と非剛性変換を組み合わせた双方向変形モデルを構築し、観測空間と標準空間の間の連続的可逆写像を確立する。
サンプリングポイントはパラメータ化された表面時間空間(u, v, t)に投影され、非剛体運動をよりよく捉える。
整合性損失は、変形誘起アーティファクトと不連続をさらに抑制する。
本研究では,グローバルなポーズベクトルを身体領域に基づく局所的な関節埋め込みに分解する部分的ポーズ埋め込み機構を提案する。
これは、3つの直交方向に沿って、キーフレームのポーズ検索と補間と組み合わせて、ポーズ認識特徴サンプリングを誘導する。
学習可能な外観コードは、動的テクスチャの変化を効果的にモデル化するために注意を通して統合される。
ZJU-MoCapデータセットとMonoCapデータセットを用いた実験により, 複雑なポーズや閉塞条件下での先行手法よりも優れ, 優れた関節アライメント, テクスチャの忠実度, 構造的連続性が得られた。
関連論文リスト
- SplitGaussian: Reconstructing Dynamic Scenes via Visual Geometry Decomposition [14.381223353489062]
textbfSplitGaussianは、シーン表現を静的および動的コンポーネントに明示的に分解する新しいフレームワークである。
SplitGaussianは、レンダリング品質、幾何学的安定性、動き分離において、最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2025-08-06T09:00:13Z) - SHaDe: Compact and Consistent Dynamic 3D Reconstruction via Tri-Plane Deformation and Latent Diffusion [0.0]
本稿では3つの重要な要素を統合した動的3次元シーン再構成のための新しいフレームワークを提案する。
明示的な三面変形場、球面調和(SH)注目の視野条件付き正準場、時間的に認識される潜在拡散。
提案手法は,時間とともに進化する3つの2次元特徴面を用いて4次元シーンを符号化し,効率的なコンパクト表現を実現する。
論文 参考訳(メタデータ) (2025-05-22T11:25:38Z) - Combining Neural Fields and Deformation Models for Non-Rigid 3D Motion Reconstruction from Partial Data [7.327850781641328]
本研究では,非剛性変形形状の非構造観察から時間的コヒーレントな3次元運動を再構成するための,新しいデータ駆動型アプローチを提案する。
我々のゴールは、ゆるい服を着ている人間など、ほぼ等尺変形する形状の高忠実な動き再構成を実現することである。
本手法は, モノクローナルディープビデオから再構成したヒトおよび動物の動き系列に適用することにより, 最先端のアプローチよりも優れる。
論文 参考訳(メタデータ) (2024-12-11T16:24:08Z) - TFS-NeRF: Template-Free NeRF for Semantic 3D Reconstruction of Dynamic Scene [25.164085646259856]
本稿では,スパースやシングルビューRGBビデオから撮影したダイナミックシーンのためのテンプレートレス3DセマンティックNeRFを提案する。
相互作用する物体の動きを遠ざけ, 濃度ごとのスキン厚みを最適化することにより, 高精度でセマンティックに分離可能なジオメトリを効率的に生成する。
論文 参考訳(メタデータ) (2024-09-26T01:34:42Z) - REACTO: Reconstructing Articulated Objects from a Single Video [64.89760223391573]
関節の柔軟な変形を維持しつつ各部の剛性を向上する新しい変形モデルを提案する。
提案手法は, 従来よりも高忠実度な3D再構成を実現する上で, 従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-04-17T08:01:55Z) - D-SCo: Dual-Stream Conditional Diffusion for Monocular Hand-Held Object Reconstruction [74.49121940466675]
モノクローナルハンドヘルドオブジェクト再構成のためのCentroid-fixed dual-stream conditionalfusionを導入する。
まず、対象のセントロイドがずれることを避けるために、手動制約付きセントロイド固定パラダイムを用いる。
第2に、意味的および幾何学的に手動物体の相互作用をモデル化するための二重ストリームデノイザを導入する。
論文 参考訳(メタデータ) (2023-11-23T20:14:50Z) - SceNeRFlow: Time-Consistent Reconstruction of General Dynamic Scenes [75.9110646062442]
我々はSceNeRFlowを提案し、時間的一貫性のある方法で一般的な非剛体シーンを再構築する。
提案手法は,カメラパラメータを入力として,静止カメラからのマルチビューRGBビデオと背景画像を取得する。
実験により,小規模動作のみを扱う先行作業とは異なり,スタジオスケール動作の再構築が可能であることが示された。
論文 参考訳(メタデータ) (2023-08-16T09:50:35Z) - MonoHuman: Animatable Human Neural Field from Monocular Video [30.113937856494726]
そこで我々は,任意のポーズの下で,ビュー一貫性と高忠実度アバターを強固に描画する新しいフレームワークMonoHumanを提案する。
我々のキーとなる洞察は、変形場を双方向の制約でモデル化し、オフザペグ情報を明示的に活用して、特徴を一貫性のある結果の推論を行うことである。
論文 参考訳(メタデータ) (2023-04-04T17:55:03Z) - Editing Out-of-domain GAN Inversion via Differential Activations [56.62964029959131]
本稿では,構成分解パラダイムを用いて,ドメイン外反転問題に対処する新しいGAN事前編集フレームワークを提案する。
生成されたDiff-CAMマスクの助けを借りて、粗い再構成を直感的に元の画像と編集された画像で合成することができる。
また, 分解段階において, 粗い再構成から最終微編集画像を切り離すための, GAN 以前のデゴーストネットワークを提示する。
論文 参考訳(メタデータ) (2022-07-17T10:34:58Z) - SparseFusion: Dynamic Human Avatar Modeling from Sparse RGBD Images [49.52782544649703]
本稿では,RGBDフレームのスパース集合に基づく3次元人体形状の再構築手法を提案する。
主な課題は、これらのスパースフレームを標準的な3Dモデルにしっかりと融合させる方法だ。
私たちのフレームワークは柔軟で、潜在的なアプリケーションは形状の再構築を超えています。
論文 参考訳(メタデータ) (2020-06-05T18:53:36Z) - Monocular Human Pose and Shape Reconstruction using Part Differentiable
Rendering [53.16864661460889]
近年の研究では、3次元基底真理によって教師されるディープニューラルネットワークを介してパラメトリックモデルを直接推定する回帰に基づく手法が成功している。
本稿では,ボディセグメンテーションを重要な監視対象として紹介する。
部分分割による再構成を改善するために,部分分割により部分ベースモデルを制御可能な部分レベル微分可能部を提案する。
論文 参考訳(メタデータ) (2020-03-24T14:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。