論文の概要: Revisit Human-Scene Interaction via Space Occupancy
- arxiv url: http://arxiv.org/abs/2312.02700v1
- Date: Tue, 5 Dec 2023 12:03:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 15:40:14.854389
- Title: Revisit Human-Scene Interaction via Space Occupancy
- Title(参考訳): 宇宙活動による人間とシーンのインタラクションの再考
- Authors: Xinpeng Liu, Haowen Hou, Yanchao Yang, Yong-Lu Li, Cewu Lu
- Abstract要約: HSI(Human-Scene Interaction)の生成は、さまざまな下流タスクに不可欠な課題である。
本研究では,シーンとのインタラクションが,抽象的な物理的視点からシーンの空間占有と本質的に相互作用していることを論じる。
純粋な動きシーケンスを、見えないシーン占有と相互作用する人間の記録として扱うことで、動きのみのデータを大規模にペア化された人間-占有相互作用データベースに集約することができる。
- 参考スコア(独自算出の注目度): 59.732387568308816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human-scene Interaction (HSI) generation is a challenging task and crucial
for various downstream tasks. However, one of the major obstacles is the
limited data scale. High-quality data with simultaneously captured human and 3D
environments is rare, resulting in limited data diversity and complexity. In
this work, we argue that interaction with a scene is essentially interacting
with the space occupancy of the scene from an abstract physical perspective,
leading us to a unified novel view of Human-Occupancy Interaction. By treating
pure motion sequences as records of humans interacting with invisible scene
occupancy, we can aggregate motion-only data into a large-scale paired
human-occupancy interaction database: Motion Occupancy Base (MOB). Thus, the
need for costly paired motion-scene datasets with high-quality scene scans can
be substantially alleviated. With this new unified view of Human-Occupancy
interaction, a single motion controller is proposed to reach the target state
given the surrounding occupancy. Once trained on MOB with complex occupancy
layout, the controller could handle cramped scenes and generalize well to
general scenes with limited complexity. With no GT 3D scenes for training, our
method can generate realistic and stable HSI motions in diverse scenarios,
including both static and dynamic scenes. Our code and data would be made
publicly available at https://foruck.github.io/occu-page/.
- Abstract(参考訳): HSI(Human-Scene Interaction)の生成は、さまざまな下流タスクに不可欠な課題である。
しかし、大きな障害の1つは、限られたデータスケールである。
同時にキャプチャされた人間と3D環境による高品質なデータはまれであり、データ多様性と複雑さが制限される。
本研究では,シーンとの相互作用は抽象的な物理的視点からシーンの空間占有と本質的に相互作用し,人間と空間の相互作用を統一した新しい視点へと導く。
純粋な動作シーケンスを、目に見えないシーンの占有者と相互作用する人間の記録として扱うことにより、動きのみのデータを大規模な対人・占有者相互作用データベースmob(motion occupancy base)に集約することができる。
したがって、高品質なシーンスキャンによるコスト対動シーンデータセットの必要性を大幅に軽減することができる。
この新たな統合された人間-職業相互作用の視点により、周囲の占有状況から目標状態に到達するための単一のモーションコントローラが提案される。
複雑な占有レイアウトを持つモブでトレーニングされたら、コントローラーは狭いシーンを扱い、複雑さの少ない一般的なシーンにうまく一般化することができる。
トレーニング用のGT 3Dシーンがないため、静的シーンと動的シーンの両方を含む様々なシナリオにおいて、現実的で安定したHSIモーションを生成できる。
私たちのコードとデータはhttps://foruck.github.io/occu-page/で公開されます。
関連論文リスト
- Human-Aware 3D Scene Generation with Spatially-constrained Diffusion Models [16.259040755335885]
従来の自己回帰に基づく3Dシーン生成手法は、複数の物体と入力人間の関節分布を正確に捉えるのに苦労してきた。
本研究では,人間-物体衝突回避機構とオブジェクト-部屋境界制約という2つの空間衝突誘導機構を導入する。
我々のフレームワークは、人間とシーンのインタラクションを正確に行うことで、より自然でわかりやすい3Dシーンを生成することができる。
論文 参考訳(メタデータ) (2024-06-26T08:18:39Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - Synthesizing Physically Plausible Human Motions in 3D Scenes [41.1310197485928]
物理的にシミュレートされたキャラクタが,多様で散らばった,見えない場面で長時間のインタラクションタスクを実行できるフレームワークを提案する。
具体的には、InterConには2つの補完的なポリシーが含まれており、文字が対話状態に入り、去ることができる。
異なる場所でのオブジェクトとのインタラクションを生成するために,3Dシーンの自由空間において文字の動きを保ち続けるために,ポリシーに従う軌道であるNavConをさらに設計する。
論文 参考訳(メタデータ) (2023-08-17T15:17:49Z) - Synthesizing Diverse Human Motions in 3D Indoor Scenes [16.948649870341782]
そこで本研究では,仮想人間による3次元屋内シーンの映像化手法を提案する。
既存のアプローチは、キャプチャーされた人間の動きと、それらが相互作用する3Dシーンを含むトレーニングシーケンスに依存している。
仮想人間が3Dシーンをナビゲートし、現実的かつ自律的にオブジェクトと対話できる強化学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T09:22:24Z) - CIRCLE: Capture In Rich Contextual Environments [69.97976304918149]
そこで我々は,アクターが仮想世界において知覚し,操作する新たな動き獲得システムを提案する。
9つのシーンにわたる5人の被験者から10時間のフルボディ到達動作を含むデータセットであるCIRCLEを提示する。
このデータセットを用いて、シーン情報に基づいて人間の動きを生成するモデルを訓練する。
論文 参考訳(メタデータ) (2023-03-31T09:18:12Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Synthesizing Physical Character-Scene Interactions [64.26035523518846]
仮想キャラクタとその周辺環境間のこのような相互作用を合成する必要がある。
本稿では,逆模倣学習と強化学習を用いて物理シミュレーション文字を学習するシステムを提案する。
我々のアプローチは、物理学に基づくキャラクターモーション生成を広い適用性に一歩近づいた。
論文 参考訳(メタデータ) (2023-02-02T05:21:32Z) - HUMANISE: Language-conditioned Human Motion Generation in 3D Scenes [54.61610144668777]
本稿では,3次元シーンで3次元人間の動きを生成できる新しいシーン・アンド・ランゲージ・コンディショニング・ジェネレーション・モデルを提案する。
実験により,我々のモデルは3次元シーンにおいて多様で意味的に一貫した人間の動きを生成できることを示した。
論文 参考訳(メタデータ) (2022-10-18T10:14:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。