論文の概要: PACE: Data-Driven Virtual Agent Interaction in Dense and Cluttered
Environments
- arxiv url: http://arxiv.org/abs/2303.14255v1
- Date: Fri, 24 Mar 2023 19:49:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 21:07:05.693918
- Title: PACE: Data-Driven Virtual Agent Interaction in Dense and Cluttered
Environments
- Title(参考訳): PACE:DenseとCluttered環境におけるデータ駆動型仮想エージェントインタラクション
- Authors: James Mullen, Dinesh Manocha
- Abstract要約: PACEは,高密度で散らばった3Dシーン全体と対話し,移動するために,モーションキャプチャーされた仮想エージェントを改良する新しい手法である。
本手法では,環境中の障害物や物体に適応するために,仮想エージェントの動作シーケンスを必要に応じて変更する。
提案手法を先行動作生成技術と比較し,本手法の利点を知覚的研究と身体的妥当性の指標と比較した。
- 参考スコア(独自算出の注目度): 69.03289331433874
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present PACE, a novel method for modifying motion-captured virtual agents
to interact with and move throughout dense, cluttered 3D scenes. Our approach
changes a given motion sequence of a virtual agent as needed to adjust to the
obstacles and objects in the environment. We first take the individual frames
of the motion sequence most important for modeling interactions with the scene
and pair them with the relevant scene geometry, obstacles, and semantics such
that interactions in the agents motion match the affordances of the scene
(e.g., standing on a floor or sitting in a chair). We then optimize the motion
of the human by directly altering the high-DOF pose at each frame in the motion
to better account for the unique geometric constraints of the scene. Our
formulation uses novel loss functions that maintain a realistic flow and
natural-looking motion. We compare our method with prior motion generating
techniques and highlight the benefits of our method with a perceptual study and
physical plausibility metrics. Human raters preferred our method over the prior
approaches. Specifically, they preferred our method 57.1% of the time versus
the state-of-the-art method using existing motions, and 81.0% of the time
versus a state-of-the-art motion synthesis method. Additionally, our method
performs significantly higher on established physical plausibility and
interaction metrics. Specifically, we outperform competing methods by over 1.2%
in terms of the non-collision metric and by over 18% in terms of the contact
metric. We have integrated our interactive system with Microsoft HoloLens and
demonstrate its benefits in real-world indoor scenes. Our project website is
available at https://gamma.umd.edu/pace/.
- Abstract(参考訳): PACEは,高密度で散らばった3Dシーン全体と対話し,移動するために,モーションキャプチャーされた仮想エージェントを修正する新しい手法である。
提案手法は,環境中の障害物や物体に適応するために,仮想エージェントの所定の動作順序を変化させる。
まず、シーンとの相互作用をモデル化する上で最も重要な動きシーケンスの個々のフレームを、関連するシーンの幾何学、障害物、セマンティクスと組み合わせて、エージェントの動作がシーンの余裕(例えば、床に立ったり、椅子に座ったり)と一致するようにします。
次に、シーンの特異な幾何学的制約を考慮し、各フレームの高DOFポーズを直接変更することで、人間の動きを最適化する。
我々の定式化は、現実的な流れと自然な動きを維持する新しい損失関数を用いる。
提案手法を先行動作生成技術と比較し,本手法の利点を知覚研究および身体的妥当性指標と比較した。
人間のラテンダーは、我々の手法を以前のアプローチよりも好んだ。
具体的には,既存の動作を用いた最先端の手法に対して57.1%,最先端の動作合成法に対して81.0%を好んだ。
さらに,本手法は,確立された物理的可能性と相互作用の指標において有意に高い性能を示す。
具体的には,非衝突距離では1.2%以上,接触距離では18%以上,競合手法では1.2%以上である。
インタラクティブなシステムをMicrosoft HoloLensに統合し、現実世界の屋内シーンでそのメリットを実証しました。
プロジェクトのwebサイトはhttps://gamma.umd.edu/pace/で閲覧できます。
関連論文リスト
- Generating Human Interaction Motions in Scenes with Text Control [66.74298145999909]
本稿では,デノナイズ拡散モデルに基づくテキスト制御されたシーン認識動作生成手法TeSMoを提案する。
我々のアプローチは、シーンに依存しないテキスト-モーション拡散モデルの事前学習から始まります。
トレーニングを容易にするため,シーン内に注釈付きナビゲーションと対話動作を組み込む。
論文 参考訳(メタデータ) (2024-04-16T16:04:38Z) - PACE: Human and Camera Motion Estimation from in-the-wild Videos [113.76041632912577]
本研究では,移動カメラのグローバルシーンにおける人間の動きを推定する手法を提案する。
これは、ビデオ中の人間とカメラの動きが混ざり合っているため、非常に難しい作業である。
本研究では,人体とカメラの動作を前景の人体と背景の両方の特徴を用いてアンハングリングする共同最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-20T19:04:14Z) - Synthesizing Diverse Human Motions in 3D Indoor Scenes [16.948649870341782]
そこで本研究では,仮想人間による3次元屋内シーンの映像化手法を提案する。
既存のアプローチは、キャプチャーされた人間の動きと、それらが相互作用する3Dシーンを含むトレーニングシーケンスに依存している。
仮想人間が3Dシーンをナビゲートし、現実的かつ自律的にオブジェクトと対話できる強化学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T09:22:24Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Synthesizing Physical Character-Scene Interactions [64.26035523518846]
仮想キャラクタとその周辺環境間のこのような相互作用を合成する必要がある。
本稿では,逆模倣学習と強化学習を用いて物理シミュレーション文字を学習するシステムを提案する。
我々のアプローチは、物理学に基づくキャラクターモーション生成を広い適用性に一歩近づいた。
論文 参考訳(メタデータ) (2023-02-02T05:21:32Z) - Physics-based Human Motion Estimation and Synthesis from Videos [0.0]
単眼のRGBビデオから直接、身体的に可視な人間の動きの生成モデルを訓練するための枠組みを提案する。
提案手法のコアとなるのは,不完全な画像に基づくポーズ推定を補正する新しい最適化式である。
その結果,我々の身体的補正動作は,ポーズ推定における先行作業よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-09-21T01:57:54Z) - Contact-Aware Retargeting of Skinned Motion [49.71236739408685]
本稿では,自己接触を保存し,相互接続を防止する動作推定手法を提案する。
入力運動における自己接触と接地を同定し、出力骨格に適用するための動作を最適化する。
実験では,従来の手法を定量的に上回り,近年の成果よりも高い品質で再ターゲットされた動きを評価できるユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-09-15T17:05:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。