論文の概要: HuPrior3R: Incorporating Human Priors for Better 3D Dynamic Reconstruction from Monocular Videos
- arxiv url: http://arxiv.org/abs/2512.06368v2
- Date: Tue, 09 Dec 2025 08:25:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 14:12:22.932495
- Title: HuPrior3R: Incorporating Human Priors for Better 3D Dynamic Reconstruction from Monocular Videos
- Title(参考訳): HuPrior3R: モノクラー映像の3D動的再構成に人類の優先事項を組み込む
- Authors: Weitao Xiong, Zhiyuan Yuan, Jiahao Lu, Chengfeng Zhao, Peng Li, Yuan Liu,
- Abstract要約: 本稿では,SMPLの人体モデルと単眼深度推定を併用したハイブリッド幾何学的先行モデルを提案する。
HuPrior3Rは階層的なパイプラインと精製部品を備え、その後、戦略的な収穫と人間固有の詳細強化に相互注意融合を適用した。
TUM DynamicsとGTA-IMデータセットの実験は、人間の動的再構成において優れた性能を示す。
- 参考スコア(独自算出の注目度): 20.256869569776118
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Monocular dynamic video reconstruction faces significant challenges in dynamic human scenes due to geometric inconsistencies and resolution degradation issues. Existing methods lack 3D human structural understanding, producing geometrically inconsistent results with distorted limb proportions and unnatural human-object fusion, while memory-constrained downsampling causes human boundary drift toward background geometry. To address these limitations, we propose to incorporate hybrid geometric priors that combine SMPL human body models with monocular depth estimation. Our approach leverages structured human priors to maintain surface consistency while capturing fine-grained geometric details in human regions. We introduce HuPrior3R, featuring a hierarchical pipeline with refinement components that processes full-resolution images for overall scene geometry, then applies strategic cropping and cross-attention fusion for human-specific detail enhancement. The method integrates SMPL priors through a Feature Fusion Module to ensure geometrically plausible reconstruction while preserving fine-grained human boundaries. Extensive experiments on TUM Dynamics and GTA-IM datasets demonstrate superior performance in dynamic human reconstruction.
- Abstract(参考訳): モノクロダイナミックビデオ再構成は、幾何学的不整合と分解分解の問題により、動的人間のシーンにおいて重大な課題に直面している。
既存の手法では3次元の人間の構造的理解が欠如しており、歪んだ手足の比率と不自然な人・物体の融合による幾何学的に矛盾した結果を生み出している。
これらの制約に対処するために,SMPLの人体モデルと単眼深度推定を組み合わせたハイブリッドな幾何学的先行モデルを提案する。
提案手法は,人体領域の微細な幾何学的詳細を把握しながら,表面の整合性を維持するために,構造化された人体前駆体を利用する。
本稿では,HuPrior3Rを紹介する。HuPrior3Rは階層的なパイプラインを特徴とし,全シーン形状のフル解像度画像を処理する。
この手法では、SMPLプリエントをFeature Fusion Moduleを通して統合し、微粒な人的境界を維持しながら幾何的に可視な再構築を確実にする。
TUM DynamicsとGTA-IMデータセットの大規模な実験は、人間の動的再構成において優れた性能を示す。
関連論文リスト
- Dynamic Avatar-Scene Rendering from Human-centric Context [75.95641456716373]
分離されたモデルと最適化されたモデルをブリッジするbf分離マップ(StM)戦略を提案する。
StMは、視覚的品質とレンダリングの精度の両方において、既存の最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2025-11-13T17:39:06Z) - HumanCrafter: Synergizing Generalizable Human Reconstruction and Semantic 3D Segmentation [51.27178551863772]
本研究では,1つの画像から外見と人間部分のセマンティクスをモデリングする統合的なフレームワークを提案する。
HumanCrafterは、3Dの人間の部分分割と1枚の画像からの3Dの人間の再構築の両方において、既存の最先端の手法を超越している。
論文 参考訳(メタデータ) (2025-11-01T09:29:36Z) - GRACE: Estimating Geometry-level 3D Human-Scene Contact from 2D Images [54.602947113980655]
人景接触の幾何レベルを推定することは、特定の接触面点を3次元の人間ジオメトリに接することを目的としている。
GRACE(Geometry-level Reasoning for 3D Human-scene Contact Estimation)は,3次元接触推定のための新しいパラダイムである。
ポイントクラウドエンコーダ/デコーダアーキテクチャと階層的特徴抽出と融合モジュールが組み込まれている。
論文 参考訳(メタデータ) (2025-05-10T09:25:46Z) - HumanDreamer-X: Photorealistic Single-image Human Avatars Reconstruction via Gaussian Restoration [29.03216532351979]
textbfHumanDreamer-Xは、マルチビューのヒューマン生成と再構築を統合パイプラインに統合する新しいフレームワークである。
このフレームワークでは、初期幾何学と外観優先を提供するために、3Dガウススプラッティングが明示的な3D表現として機能する。
また,多視点にわたる幾何的細部アイデンティティの整合性を効果的に向上するアテンション変調戦略を提案する。
論文 参考訳(メタデータ) (2025-04-04T15:35:14Z) - GeneMAN: Generalizable Single-Image 3D Human Reconstruction from Multi-Source Human Data [61.05815629606135]
高忠実度3Dモデルを構築するのが難しい課題です。
GeneMANは高品質な人間のデータを総合的に収集する。
GeneMANは、単一の画像入力から高品質な3Dモデルを生成することができ、最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-11-27T18:59:54Z) - PSHuman: Photorealistic Single-image 3D Human Reconstruction using Cross-Scale Multiview Diffusion and Explicit Remeshing [47.191113407993015]
PSHumanは、マルチビュー拡散モデルから事前情報を利用した人間のメッシュを明示的に再構築する新しいフレームワークである。
単視点の人間の画像に直接多視点拡散を適用すると、厳密な幾何学的歪みが生じることが判明した。
そこで我々は, SMPL-Xのようなパラメトリックモデルを用いて, 人間のポーズの断面形状の整合性を高めるために, 生成モデルを定式化した。
論文 参考訳(メタデータ) (2024-09-16T10:13:06Z) - CrossHuman: Learning Cross-Guidance from Multi-Frame Images for Human
Reconstruction [6.450579406495884]
CrossHumanは、パラメトリック人間モデルとマルチフレームRGB画像からクロスガイダンスを学ぶ新しい方法である。
トラッカーベース手法とトラッカーフリー手法を組み合わせた再構成パイプラインを設計する。
これまでの研究と比較すると、CrossHumanは目に見える領域と見えない領域の両方で、高忠実度な幾何学的詳細とテクスチャを可能にする。
論文 参考訳(メタデータ) (2022-07-20T08:25:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。