論文の概要: Dynamic Avatar-Scene Rendering from Human-centric Context
- arxiv url: http://arxiv.org/abs/2511.10539v1
- Date: Fri, 14 Nov 2025 01:56:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.914387
- Title: Dynamic Avatar-Scene Rendering from Human-centric Context
- Title(参考訳): 人間中心の文脈からの動的アバターシーンレンダリング
- Authors: Wenqing Wang, Haosen Yang, Josef Kittler, Xiatian Zhu,
- Abstract要約: 分離されたモデルと最適化されたモデルをブリッジするbf分離マップ(StM)戦略を提案する。
StMは、視覚的品質とレンダリングの精度の両方において、既存の最先端の手法を著しく上回っている。
- 参考スコア(独自算出の注目度): 75.95641456716373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing dynamic humans interacting with real-world environments from monocular videos is an important and challenging task. Despite considerable progress in 4D neural rendering, existing approaches either model dynamic scenes holistically or model scenes and backgrounds separately aim to introduce parametric human priors. However, these approaches either neglect distinct motion characteristics of various components in scene especially human, leading to incomplete reconstructions, or ignore the information exchange between the separately modeled components, resulting in spatial inconsistencies and visual artifacts at human-scene boundaries. To address this, we propose {\bf Separate-then-Map} (StM) strategy that introduces a dedicated information mapping mechanism to bridge separately defined and optimized models. Our method employs a shared transformation function for each Gaussian attribute to unify separately modeled components, enhancing computational efficiency by avoiding exhaustive pairwise interactions while ensuring spatial and visual coherence between humans and their surroundings. Extensive experiments on monocular video datasets demonstrate that StM significantly outperforms existing state-of-the-art methods in both visual quality and rendering accuracy, particularly at challenging human-scene interaction boundaries.
- Abstract(参考訳): モノクロビデオから現実世界の環境と対話する動的な人間を再構築することは、重要かつ困難な作業である。
4Dニューラルレンダリングの大幅な進歩にもかかわらず、既存のアプローチは動的シーンを水平にモデル化するか、モデルシーンと背景を別々にモデル化し、パラメトリックな人間の先例を導入することを目指している。
しかし、これらのアプローチはシーン内の様々なコンポーネントの異なる動作特性を無視し、不完全な再構成をもたらすか、個別にモデル化されたコンポーネント間の情報交換を無視し、人間とシーンの境界における空間的不整合と視覚的アーティファクトをもたらす。
そこで本研究では,個別に定義されたモデルと最適化されたモデルをブリッジする専用情報マッピング機構を導入するためのStM戦略を提案する。
提案手法では,各ガウス属性の共有変換関数を用いて,個別にモデル化されたコンポーネントを統一し,空間的・視覚的コヒーレンスを確保しつつ,一対相互作用の徹底を回避することにより計算効率を向上させる。
モノクロビデオデータセットの大規模な実験により、StMは、視覚的品質とレンダリングの精度の両方において、特に人間とシーンの相互作用境界の挑戦において、既存の最先端の手法を著しく上回っていることが示された。
関連論文リスト
- HOComp: Interaction-Aware Human-Object Composition [62.93211305213214]
HOCompは、人中心の背景画像に前景オブジェクトを合成するための新しいアプローチである。
実験結果から,HOCompは一貫した外見を持つ人間と物体の相互作用を効果的に生成することが示された。
論文 参考訳(メタデータ) (2025-07-22T17:59:21Z) - Reconstructing Close Human Interaction with Appearance and Proxemics Reasoning [50.76723760768117]
既存の人間のポーズ推定手法では、既存の映像からもっともらしい密接な相互作用を回復できない。
人間の外見は、これらの障害に対処するための簡単な手がかりとなる。
本研究では,人間の外見,社会的プロキシ,物理法則に制約された身体接触により,正確な対話動作を再構築するための2分岐最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-03T12:19:26Z) - EgoGaussian: Dynamic Scene Understanding from Egocentric Video with 3D Gaussian Splatting [95.44545809256473]
エゴガウスアン(EgoGaussian)は、3Dシーンを同時に再構築し、RGBエゴセントリックな入力のみから3Dオブジェクトの動きを動的に追跡する手法である。
動的オブジェクトと背景再構築の品質の両面で,最先端技術と比較して大きな改善が見られた。
論文 参考訳(メタデータ) (2024-06-28T10:39:36Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - NeuralFusion: Neural Volumetric Rendering under Human-object
Interactions [46.70371238621842]
本稿では,スパース・コンシューマRGBDセンサを用いたボリューム・オブジェクトのキャプチャとレンダリングのためのニューラル・アプローチを提案する。
幾何学的モデリングでは,非剛性鍵体積融合を用いたニューラル暗黙的推論方式を提案する。
また,空間的領域と時間的領域の両方において,ボリュームと画像に基づくレンダリングを組み合わせた階層的ヒューマンオブジェクトテクスチャレンダリング手法を提案する。
論文 参考訳(メタデータ) (2022-02-25T17:10:07Z) - RobustFusion: Robust Volumetric Performance Reconstruction under
Human-object Interactions from Monocular RGBD Stream [27.600873320989276]
現実のシナリオでは、さまざまなオブジェクトと複雑な相互作用を持つ人間のパフォーマンスの高品質の4D再構築が不可欠です。
近年の進歩は、信頼性の高い性能回復には至っていない。
人間と物体のインタラクションシナリオのための堅牢なボリュームパフォーマンス再構築システムであるRobustFusionを提案する。
論文 参考訳(メタデータ) (2021-04-30T08:41:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。