論文の概要: NeuralFusion: Neural Volumetric Rendering under Human-object
Interactions
- arxiv url: http://arxiv.org/abs/2202.12825v2
- Date: Mon, 28 Feb 2022 16:19:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 11:52:52.016491
- Title: NeuralFusion: Neural Volumetric Rendering under Human-object
Interactions
- Title(参考訳): ニューラルフュージョン:人間と物体の相互作用によるニューラルボリュームレンダリング
- Authors: Yuheng Jiang, Suyi Jiang, Guoxing Sun, Zhuo Su, Kaiwen Guo, Minye Wu,
Jingyi Yu, Lan Xu
- Abstract要約: 本稿では,スパース・コンシューマRGBDセンサを用いたボリューム・オブジェクトのキャプチャとレンダリングのためのニューラル・アプローチを提案する。
幾何学的モデリングでは,非剛性鍵体積融合を用いたニューラル暗黙的推論方式を提案する。
また,空間的領域と時間的領域の両方において,ボリュームと画像に基づくレンダリングを組み合わせた階層的ヒューマンオブジェクトテクスチャレンダリング手法を提案する。
- 参考スコア(独自算出の注目度): 46.70371238621842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 4D modeling of human-object interactions is critical for numerous
applications. However, efficient volumetric capture and rendering of complex
interaction scenarios, especially from sparse inputs, remain challenging. In
this paper, we propose NeuralFusion, a neural approach for volumetric
human-object capture and rendering using sparse consumer RGBD sensors. It
marries traditional non-rigid fusion with recent neural implicit modeling and
blending advances, where the captured humans and objects are layerwise
disentangled. For geometry modeling, we propose a neural implicit inference
scheme with non-rigid key-volume fusion, as well as a template-aid robust
object tracking pipeline. Our scheme enables detailed and complete geometry
generation under complex interactions and occlusions. Moreover, we introduce a
layer-wise human-object texture rendering scheme, which combines volumetric and
image-based rendering in both spatial and temporal domains to obtain
photo-realistic results. Extensive experiments demonstrate the effectiveness
and efficiency of our approach in synthesizing photo-realistic free-view
results under complex human-object interactions.
- Abstract(参考訳): 人-物体相互作用の4次元モデリングは多くの応用において重要である。
しかし、複雑な相互作用シナリオ、特にスパース入力の効率的なボリュームキャプチャとレンダリングは依然として困難である。
本稿では,sparse consumer rgbdセンサーを用いた量的ヒューマンオブジェクトキャプチャとレンダリングのためのニューラル・アプローチであるneuralfusionを提案する。
従来の非剛体融合と最近のニューラル暗黙のモデリングとブレンディングの進歩を融合させ、捕獲された人間と物体は階層的に切り離されている。
幾何学的モデリングでは,非厳密な鍵体積融合を用いた暗黙的推論手法と,テンプレートエイドの頑健なオブジェクト追跡パイプラインを提案する。
複雑な相互作用と閉塞下での詳細なかつ完全な幾何生成が可能となる。
さらに,空間領域と時間領域の両方においてボリュームレンダリングとイメージベースレンダリングを組み合わせて,フォトリアリスティックな結果を得る階層型ヒューマンオブジェクトテクスチャレンダリングスキームを提案する。
複雑な人・物間相互作用下でのフォトリアリスティックなフリービュー結果の合成におけるアプローチの有効性と有効性を示す。
関連論文リスト
- DreamHOI: Subject-Driven Generation of 3D Human-Object Interactions with Diffusion Priors [4.697267141773321]
人-物体相互作用(HOI)のゼロショット合成法であるDreamHOIを提案する。
我々は、何十億もの画像キャプチャーペアで訓練されたテキストと画像の拡散モデルを利用して、リアルなHOIを生成する。
提案手法は広範囲な実験を通じて検証し,現実的なHOIを生成する上での有効性を実証する。
論文 参考訳(メタデータ) (2024-09-12T17:59:49Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - Instant-NVR: Instant Neural Volumetric Rendering for Human-object
Interactions from Monocular RGBD Stream [14.844982083586306]
Instant-NVRは,1台のRGBDカメラを用いて,物体追跡とレンダリングを瞬時に行うニューラルネットワークである。
トラッキングフロントエンドでは、十分な動作先を提供するために、頑健な人間オブジェクトキャプチャー方式を採用する。
また,移動優先探索による動的・静電放射場をオンザフライで再構築する手法も提案する。
論文 参考訳(メタデータ) (2023-04-06T16:09:51Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - Geometry-Guided Progressive NeRF for Generalizable and Efficient Neural
Human Rendering [139.159534903657]
我々は、高忠実度自由視点人体詳細のための一般化可能で効率的なニューラルレーダランス・フィールド(NeRF)パイプラインを開発した。
自己閉塞性を改善するため,幾何誘導型多視点機能統合手法を考案した。
高いレンダリング効率を達成するため,幾何誘導型プログレッシブレンダリングパイプラインを導入する。
論文 参考訳(メタデータ) (2021-12-08T14:42:10Z) - Neural Free-Viewpoint Performance Rendering under Complex Human-object
Interactions [35.41116017268475]
没入型VR/AR体験と人間の活動理解には,人間と物体の相互作用の4次元再構築が不可欠である。
近年の進歩は、細かなRGB入力から細かな幾何学やテクスチャ結果の回復には至っていない。
本研究では,人間と物体の高画質なテクスチャとフォトリアリスティックなテクスチャを両立させるニューラル・ヒューマン・パフォーマンス・キャプチャー・レンダリングシステムを提案する。
論文 参考訳(メタデータ) (2021-08-01T04:53:54Z) - RobustFusion: Robust Volumetric Performance Reconstruction under
Human-object Interactions from Monocular RGBD Stream [27.600873320989276]
現実のシナリオでは、さまざまなオブジェクトと複雑な相互作用を持つ人間のパフォーマンスの高品質の4D再構築が不可欠です。
近年の進歩は、信頼性の高い性能回復には至っていない。
人間と物体のインタラクションシナリオのための堅牢なボリュームパフォーマンス再構築システムであるRobustFusionを提案する。
論文 参考訳(メタデータ) (2021-04-30T08:41:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。