論文の概要: Locomotion-Action-Manipulation: Synthesizing Human-Scene Interactions in
Complex 3D Environments
- arxiv url: http://arxiv.org/abs/2301.02667v1
- Date: Mon, 9 Jan 2023 18:59:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 18:49:23.967653
- Title: Locomotion-Action-Manipulation: Synthesizing Human-Scene Interactions in
Complex 3D Environments
- Title(参考訳): ロコモーション・アクション・マニピュレーション:複雑な3次元環境における人間とシーンの相互作用の合成
- Authors: Jiye Lee, Hanbyul Joo
- Abstract要約: 複雑な屋内環境下での自然および可視的長期的人間の運動を合成するためのLAMA, Locomotion-Action-Manipulationを提案する。
LAMAの鍵となる動機は、日常生活でよく見られる一連の動きを包含する統一的なフレームワークを構築することである。
- 参考スコア(独自算出の注目度): 15.917920855439204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthesizing interaction-involved human motions has been challenging due to
the high complexity of 3D environments and the diversity of possible human
behaviors within. We present LAMA, Locomotion-Action-MAnipulation, to
synthesize natural and plausible long term human movements in complex indoor
environments. The key motivation of LAMA is to build a unified framework to
encompass a series of motions commonly observable in our daily lives, including
locomotion, interactions with 3D scenes, and manipulations of 3D objects. LAMA
is based on a reinforcement learning framework coupled with a motion matching
algorithm to synthesize locomotion and scene interaction seamlessly under
common constraints and collision avoidance handling. LAMA also exploits a
motion editing framework via manifold learning to cover possible variations in
interaction and manipulation motions. We quantitatively and qualitatively
demonstrate that LAMA outperforms existing approaches in various challenging
scenarios. Project webpage: https://lama-www.github.io/ .
- Abstract(参考訳): 相互作用に関わる人間の動きの合成は、3D環境の複雑さと人間の行動の多様性のために困難である。
複雑な屋内環境下での自然および可視的長期的人間の運動を合成するためのLAMA, Locomotion-Action-Manipulationを提案する。
LAMAの主な動機は、移動、3Dシーンとのインタラクション、3Dオブジェクトの操作など、日常生活でよく見られる一連の動きを含む統一されたフレームワークを構築することである。
LAMAは、運動マッチングアルゴリズムと組み合わせた強化学習フレームワークに基づいて、共通の制約と衝突回避処理の下でシームレスに移動とシーンインタラクションを合成する。
lamaはまた、マニホールド学習によるモーション編集フレームワークを利用して、インタラクションと操作動作のバリエーションをカバーできる。
LAMAが様々な挑戦シナリオにおいて既存のアプローチよりも優れていることを定量的に定性的に実証する。
プロジェクトWebページ: https://lama-www.github.io/
関連論文リスト
- Sitcom-Crafter: A Plot-Driven Human Motion Generation System in 3D Scenes [83.55301458112672]
Sitcom-Crafterは3D空間における人間のモーション生成システムである。
機能生成モジュールの中心は、我々の新しい3Dシーン対応ヒューマン・ヒューマン・インタラクションモジュールである。
拡張モジュールは、コマンド生成のためのプロット理解、異なるモーションタイプのシームレスな統合のためのモーション同期を含む。
論文 参考訳(メタデータ) (2024-10-14T17:56:19Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - NIFTY: Neural Object Interaction Fields for Guided Human Motion
Synthesis [21.650091018774972]
我々は、特定の物体に付随する神経相互作用場を作成し、人間のポーズを入力として与えられた有効な相互作用多様体までの距離を出力する。
この相互作用場は、対象条件付きヒトの運動拡散モデルのサンプリングを導く。
いくつかの物体で座ったり持ち上げたりするための現実的な動きを合成し、動きの質や動作完了の成功の観点から、代替のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-14T17:59:38Z) - Synthesizing Diverse Human Motions in 3D Indoor Scenes [16.948649870341782]
そこで本研究では,仮想人間による3次元屋内シーンの映像化手法を提案する。
既存のアプローチは、キャプチャーされた人間の動きと、それらが相互作用する3Dシーンを含むトレーニングシーケンスに依存している。
仮想人間が3Dシーンをナビゲートし、現実的かつ自律的にオブジェクトと対話できる強化学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T09:22:24Z) - IMoS: Intent-Driven Full-Body Motion Synthesis for Human-Object
Interactions [69.95820880360345]
そこで本研究では,仮想人物の全身動作を3Dオブジェクトで合成する最初のフレームワークを提案する。
本システムでは,オブジェクトと仮想文字の関連意図を入力テキストとして記述する。
その結果, 80%以上のシナリオにおいて, 合成された全身運動は参加者よりリアルに見えることがわかった。
論文 参考訳(メタデータ) (2022-12-14T23:59:24Z) - Compositional Human-Scene Interaction Synthesis with Semantic Control [16.93177243590465]
高レベルのセマンティック仕様によって制御された所定の3Dシーンと相互作用する人間を合成することを目的としている。
本研究では,3次元人体表面点と3次元物体を共同符号化したトランスフォーマーを用いた新しい生成モデルを設計する。
人間が同時に複数の物体と相互作用できる相互作用の構成的性質に着想を得て、相互作用のセマンティクスを原子間相互作用-対象対の様々な数の合成として定義する。
論文 参考訳(メタデータ) (2022-07-26T11:37:44Z) - Towards Diverse and Natural Scene-aware 3D Human Motion Synthesis [117.15586710830489]
本研究では,ターゲットアクションシーケンスの誘導の下で,多様なシーンを意識した人間の動作を合成する問題に焦点をあてる。
この因子化スキームに基づいて、各サブモジュールが1つの側面をモデリングする責任を負う階層的なフレームワークが提案されている。
実験の結果,提案手法は,多様性と自然性の観点から,従来の手法よりも著しく優れていた。
論文 参考訳(メタデータ) (2022-05-25T18:20:01Z) - iGibson, a Simulation Environment for Interactive Tasks in Large
Realistic Scenes [54.04456391489063]
iGibsonは、大規模な現実的なシーンにおける対話的なタスクのためのロボットソリューションを開発するための、新しいシミュレーション環境である。
私たちの環境には、厳密で明瞭な物体が密集した15のインタラクティブなホームサイズシーンが含まれています。
iGibsonの機能はナビゲーションエージェントの一般化を可能にし、人間-iGibsonインターフェースと統合されたモーションプランナーは、単純な人間の実演行動の効率的な模倣学習を促進する。
論文 参考訳(メタデータ) (2020-12-05T02:14:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。