論文の概要: Synthesizing Physical Character-Scene Interactions
- arxiv url: http://arxiv.org/abs/2302.00883v1
- Date: Thu, 2 Feb 2023 05:21:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 15:14:04.909373
- Title: Synthesizing Physical Character-Scene Interactions
- Title(参考訳): 物理キャラクタ・シーン相互作用の合成
- Authors: Mohamed Hassan, Yunrong Guo, Tingwu Wang, Michael Black, Sanja Fidler,
Xue Bin Peng
- Abstract要約: 仮想キャラクタとその周辺環境間のこのような相互作用を合成する必要がある。
本稿では,逆模倣学習と強化学習を用いて物理シミュレーション文字を学習するシステムを提案する。
我々のアプローチは、物理学に基づくキャラクターモーション生成を広い適用性に一歩近づいた。
- 参考スコア(独自算出の注目度): 64.26035523518846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Movement is how people interact with and affect their environment. For
realistic character animation, it is necessary to synthesize such interactions
between virtual characters and their surroundings. Despite recent progress in
character animation using machine learning, most systems focus on controlling
an agent's movements in fairly simple and homogeneous environments, with
limited interactions with other objects. Furthermore, many previous approaches
that synthesize human-scene interactions require significant manual labeling of
the training data. In contrast, we present a system that uses adversarial
imitation learning and reinforcement learning to train physically-simulated
characters that perform scene interaction tasks in a natural and life-like
manner. Our method learns scene interaction behaviors from large unstructured
motion datasets, without manual annotation of the motion data. These scene
interactions are learned using an adversarial discriminator that evaluates the
realism of a motion within the context of a scene. The key novelty involves
conditioning both the discriminator and the policy networks on scene context.
We demonstrate the effectiveness of our approach through three challenging
scene interaction tasks: carrying, sitting, and lying down, which require
coordination of a character's movements in relation to objects in the
environment. Our policies learn to seamlessly transition between different
behaviors like idling, walking, and sitting. By randomizing the properties of
the objects and their placements during training, our method is able to
generalize beyond the objects and scenarios depicted in the training dataset,
producing natural character-scene interactions for a wide variety of object
shapes and placements. The approach takes physics-based character motion
generation a step closer to broad applicability.
- Abstract(参考訳): 動きとは、人々が環境と対話し、影響を及ぼす方法である。
現実のキャラクタアニメーションでは,仮想キャラクタとその周囲とのインタラクションを合成する必要がある。
機械学習を用いたキャラクターアニメーションの最近の進歩にもかかわらず、ほとんどのシステムはエージェントの動きを比較的単純で均質な環境で制御することに集中している。
さらに、人間とシーンの相互作用を合成する以前の多くのアプローチでは、トレーニングデータのかなりの手動ラベリングが必要である。
対照的に、逆模倣学習と強化学習を用いて、自然と生活のような方法でシーンインタラクションタスクを行う物理的にシミュレーションされたキャラクターを訓練するシステムを提案する。
本手法は,動きデータの手動アノテーションを使わずに,大規模な動きデータセットからシーンインタラクションの振る舞いを学習する。
これらのシーンの相互作用は、シーンのコンテキスト内の動きの現実性を評価する敵の判別器を用いて学習される。
重要な新規性は、差別者とポリシーネットワークの両方をシーンコンテキストで条件付けることである。
本研究では,環境中の物体に対するキャラクターの動きの調整を必要とする3つの場面インタラクションタスク,すなわち搬送,着座,横転によるアプローチの有効性を実証する。
私たちの方針は、アイドリング、歩行、着座といったさまざまな行動のシームレスな移行を学習します。
トレーニング中にオブジェクトの性質と配置をランダムにすることで、トレーニングデータセットに表されるオブジェクトやシナリオを超えて一般化し、さまざまなオブジェクト形状や配置に対して自然な文字とシーンのインタラクションを生成することができる。
このアプローチは、物理学に基づくキャラクターモーション生成を幅広い適用性に一歩近づける。
関連論文リスト
- Generating Human Interaction Motions in Scenes with Text Control [66.74298145999909]
本稿では,デノナイズ拡散モデルに基づくテキスト制御されたシーン認識動作生成手法TeSMoを提案する。
我々のアプローチは、シーンに依存しないテキスト-モーション拡散モデルの事前学習から始まります。
トレーニングを容易にするため,シーン内に注釈付きナビゲーションと対話動作を組み込む。
論文 参考訳(メタデータ) (2024-04-16T16:04:38Z) - Revisit Human-Scene Interaction via Space Occupancy [55.67657438543008]
HSI(Human-Scene Interaction)の生成は、さまざまな下流タスクに不可欠な課題である。
本研究では,シーンとのインタラクションが,抽象的な物理的視点からシーンの空間占有と本質的に相互作用していることを論じる。
純粋な動きシーケンスを、見えないシーン占有と相互作用する人間の記録として扱うことで、動きのみのデータを大規模にペア化された人間-占有相互作用データベースに集約することができる。
論文 参考訳(メタデータ) (2023-12-05T12:03:00Z) - MAAIP: Multi-Agent Adversarial Interaction Priors for imitation from
fighting demonstrations for physics-based characters [5.303375034962503]
提案手法は, マルチエージェント・ジェネレーティブ・ジェネレーティブ・シミュレーション・ラーニングに基づく新しいアプローチである。
我々のシステムは、各キャラクターが各アクターに関連する対話的スキルを模倣できるように、制御ポリシーを訓練する。
このアプローチはボクシングとフルボディの格闘技の2つの異なるスタイルでテストされ、異なるスタイルを模倣する手法の能力を実証している。
論文 参考訳(メタデータ) (2023-11-04T20:40:39Z) - QuestEnvSim: Environment-Aware Simulated Motion Tracking from Sparse
Sensors [69.75711933065378]
ヘッドセットとコントローラーのポーズは,高度に制約された環境においても,現実的なフルボディのポーズを生成可能であることを示す。
本稿では,環境表現,接触報酬,シーンランダム化の3つの特徴について論じる。
論文 参考訳(メタデータ) (2023-06-09T04:40:38Z) - Synthesizing Diverse Human Motions in 3D Indoor Scenes [16.948649870341782]
そこで本研究では,仮想人間による3次元屋内シーンの映像化手法を提案する。
既存のアプローチは、キャプチャーされた人間の動きと、それらが相互作用する3Dシーンを含むトレーニングシーケンスに依存している。
仮想人間が3Dシーンをナビゲートし、現実的かつ自律的にオブジェクトと対話できる強化学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T09:22:24Z) - PACE: Data-Driven Virtual Agent Interaction in Dense and Cluttered
Environments [69.03289331433874]
PACEは,高密度で散らばった3Dシーン全体と対話し,移動するために,モーションキャプチャーされた仮想エージェントを改良する新しい手法である。
本手法では,環境中の障害物や物体に適応するために,仮想エージェントの動作シーケンスを必要に応じて変更する。
提案手法を先行動作生成技術と比較し,本手法の利点を知覚的研究と身体的妥当性の指標と比較した。
論文 参考訳(メタデータ) (2023-03-24T19:49:08Z) - IMoS: Intent-Driven Full-Body Motion Synthesis for Human-Object
Interactions [69.95820880360345]
そこで本研究では,仮想人物の全身動作を3Dオブジェクトで合成する最初のフレームワークを提案する。
本システムでは,オブジェクトと仮想文字の関連意図を入力テキストとして記述する。
その結果, 80%以上のシナリオにおいて, 合成された全身運動は参加者よりリアルに見えることがわかった。
論文 参考訳(メタデータ) (2022-12-14T23:59:24Z) - Stochastic Scene-Aware Motion Prediction [41.6104600038666]
本稿では,対象物に対して所定の動作を行う異なるスタイルをモデル化する,データ駆動合成動作法を提案する。
SAMP (Scene Aware Motion Prediction) と呼ばれる本手法は, 様々なジオメトリ対象を対象とし, キャラクタが散らばったシーンで移動できるように一般化する。
論文 参考訳(メタデータ) (2021-08-18T17:56:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。