論文の概要: IMoS: Intent-Driven Full-Body Motion Synthesis for Human-Object
Interactions
- arxiv url: http://arxiv.org/abs/2212.07555v2
- Date: Fri, 16 Dec 2022 18:39:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 15:03:27.588077
- Title: IMoS: Intent-Driven Full-Body Motion Synthesis for Human-Object
Interactions
- Title(参考訳): IMoS:人間-物体インタラクションのためのインテント駆動フルボディモーション合成
- Authors: Anindita Ghosh, Rishabh Dabral, Vladislav Golyanik, Christian
Theobalt, Philipp Slusallek
- Abstract要約: そこで本研究では,仮想人物の全身動作を3Dオブジェクトで合成する最初のフレームワークを提案する。
本システムでは,オブジェクトと仮想文字の関連意図を入力テキストとして記述する。
その結果, 80%以上のシナリオにおいて, 合成された全身運動は参加者よりリアルに見えることがわかった。
- 参考スコア(独自算出の注目度): 69.95820880360345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Can we make virtual characters in a scene interact with their surrounding
objects through simple instructions? Is it possible to synthesize such motion
plausibly with a diverse set of objects and instructions? Inspired by these
questions, we present the first framework to synthesize the full-body motion of
virtual human characters performing specified actions with 3D objects placed
within their reach. Our system takes as input textual instructions specifying
the objects and the associated intentions of the virtual characters and outputs
diverse sequences of full-body motions. This is in contrast to existing work,
where full-body action synthesis methods generally do not consider object
interactions, and human-object interaction methods focus mainly on synthesizing
hand or finger movements for grasping objects. We accomplish our objective by
designing an intent-driven full-body motion generator, which uses a pair of
decoupled conditional variational autoencoders (CVAE) to learn the motion of
the body parts in an autoregressive manner. We also optimize for the positions
of the objects with six degrees of freedom (6DoF) such that they plausibly fit
within the hands of the synthesized characters. We compare our proposed method
with the existing methods of motion synthesis and establish a new and stronger
state-of-the-art for the task of intent-driven motion synthesis. Through a user
study, we further show that our synthesized full-body motions appear more
realistic to the participants in more than 80% of scenarios compared to the
current state-of-the-art methods, and are perceived to be as good as the ground
truth on several occasions.
- Abstract(参考訳): シーン内の仮想キャラクタを、簡単な指示で周囲のオブジェクトとやりとりできるだろうか?
このような動作を多種多様なオブジェクトや命令でうまく合成することは可能か?
これらの疑問に触発されて,本研究では,仮想人体文字が到達範囲内に3Dオブジェクトを配置した特定の動作を行う場合のフルボディ動作を合成する最初のフレームワークを提案する。
本システムでは,オブジェクトと仮想文字の関連意図を入力テキストで指定し,全身動作の多種多様なシーケンスを出力する。
これは、主に物体をつかむための手や指の動きを合成することに焦点を当てた、全身動作合成法が一般的にオブジェクトの相互作用を考慮しない既存の研究とは対照的である。
一対の分離条件付き変分オートエンコーダ(CVAE)を用いて、自己回帰的に身体部分の動きを学習するインテント駆動フルボディモーションジェネレータを設計し、その目的を達成する。
また、6自由度(6dof)の物体の位置を最適化し、合成された文字の手に収まるようにした。
提案手法を既存の動作合成法と比較し,意図駆動動作合成の課題に対して,新しい,より強固な状態を確立する。
ユーザ・スタディにより,本合成された全身動作は,現在の最先端手法と比較して80%以上のシナリオで参加者にとってより現実的に見えること,また,いくつかの場面において基礎的真理と同等であると考えられた。
関連論文リスト
- Object Motion Guided Human Motion Synthesis [22.08240141115053]
大規模物体の操作におけるフルボディ人体動作合成の問題点について検討する。
条件付き拡散フレームワークであるOMOMO(Object Motion Guided Human Motion synthesis)を提案する。
我々は、操作対象物にスマートフォンを装着するだけで、全身の人間の操作動作をキャプチャする新しいシステムを開発した。
論文 参考訳(メタデータ) (2023-09-28T08:22:00Z) - GRIP: Generating Interaction Poses Using Spatial Cues and Latent Consistency [57.9920824261925]
手は器用で多用途なマニピュレータであり、人間が物体や環境とどのように相互作用するかの中心である。
現実的な手オブジェクトの相互作用をモデル化することは、コンピュータグラフィックス、コンピュータビジョン、混合現実の応用において重要である。
GRIPは、体と物体の3次元運動を入力として取り、物体の相互作用の前、中、後の両方の両手の現実的な動きを合成する学習ベースの手法である。
論文 参考訳(メタデータ) (2023-08-22T17:59:51Z) - NIFTY: Neural Object Interaction Fields for Guided Human Motion
Synthesis [21.650091018774972]
我々は、特定の物体に付随する神経相互作用場を作成し、人間のポーズを入力として与えられた有効な相互作用多様体までの距離を出力する。
この相互作用場は、対象条件付きヒトの運動拡散モデルのサンプリングを導く。
いくつかの物体で座ったり持ち上げたりするための現実的な動きを合成し、動きの質や動作完了の成功の観点から、代替のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-14T17:59:38Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Compositional Human-Scene Interaction Synthesis with Semantic Control [16.93177243590465]
高レベルのセマンティック仕様によって制御された所定の3Dシーンと相互作用する人間を合成することを目的としている。
本研究では,3次元人体表面点と3次元物体を共同符号化したトランスフォーマーを用いた新しい生成モデルを設計する。
人間が同時に複数の物体と相互作用できる相互作用の構成的性質に着想を得て、相互作用のセマンティクスを原子間相互作用-対象対の様々な数の合成として定義する。
論文 参考訳(メタデータ) (2022-07-26T11:37:44Z) - Towards Diverse and Natural Scene-aware 3D Human Motion Synthesis [117.15586710830489]
本研究では,ターゲットアクションシーケンスの誘導の下で,多様なシーンを意識した人間の動作を合成する問題に焦点をあてる。
この因子化スキームに基づいて、各サブモジュールが1つの側面をモデリングする責任を負う階層的なフレームワークが提案されている。
実験の結果,提案手法は,多様性と自然性の観点から,従来の手法よりも著しく優れていた。
論文 参考訳(メタデータ) (2022-05-25T18:20:01Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - SAGA: Stochastic Whole-Body Grasping with Contact [60.43627793243098]
人間の握り合成には、AR/VR、ビデオゲーム、ロボット工学など多くの応用がある。
本研究の目的は,体全体をつかむ動作を合成することである。3次元物体が与えられたら,物体に接近してつかむような,多様で自然な人体の動きを生成することを目的としている。
論文 参考訳(メタデータ) (2021-12-19T10:15:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。