論文の概要: PMP: Learning to Physically Interact with Environments using Part-wise
Motion Priors
- arxiv url: http://arxiv.org/abs/2305.03249v1
- Date: Fri, 5 May 2023 02:27:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 15:38:35.841166
- Title: PMP: Learning to Physically Interact with Environments using Part-wise
Motion Priors
- Title(参考訳): pmp:part-wise motion priorsを用いた物理的相互作用の学習
- Authors: Jinseok Bae, Jungdam Won, Donggeun Lim, Cheol-Hui Min, Young Min Kim
- Abstract要約: 複数部分移動先(PMP)を組み込んだ文字をアニメーション化する手法を提案する。
提案したPMPにより,複数のパートスキルを組み立ててキャラクタをアニメーションし,既存のデータの組み合わせの異なる多様な動作セットを作成することができる。
- 参考スコア(独自算出の注目度): 10.370115975772402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method to animate a character incorporating multiple part-wise
motion priors (PMP). While previous works allow creating realistic articulated
motions from reference data, the range of motion is largely limited by the
available samples. Especially for the interaction-rich scenarios, it is
impractical to attempt acquiring every possible interacting motion, as the
combination of physical parameters increases exponentially. The proposed PMP
allows us to assemble multiple part skills to animate a character, creating a
diverse set of motions with different combinations of existing data. In our
pipeline, we can train an agent with a wide range of part-wise priors.
Therefore, each body part can obtain a kinematic insight of the style from the
motion captures, or at the same time extract dynamics-related information from
the additional part-specific simulation. For example, we can first train a
general interaction skill, e.g. grasping, only for the dexterous part, and then
combine the expert trajectories from the pre-trained agent with the kinematic
priors of other limbs. Eventually, our whole-body agent learns a novel physical
interaction skill even with the absence of the object trajectories in the
reference motion sequence.
- Abstract(参考訳): 本稿では,複数のPMPを組み込んだキャラクタをアニメーション化する手法を提案する。
以前の研究では、参照データから現実的な調音運動を作成できるが、動きの範囲は利用可能なサンプルによって大きく制限されている。
特に相互作用に富むシナリオでは、物理的パラメータの組合せが指数関数的に増加するため、あらゆる可能な相互作用運動を取得することは不可能である。
提案したPMPにより,複数のパートスキルを組み立ててキャラクタをアニメーションし,既存のデータの組み合わせの異なる多様な動作セットを作成することができる。
私たちのパイプラインでは、幅広い部分的な事前のエージェントをトレーニングできます。
したがって、各本体部は、モーションキャプチャーからスタイルのキネマティックな洞察を得ることができ、同時に、追加部分特定シミュレーションからダイナミクス関連情報を抽出することができる。
例えば、まず、手足の部分だけをつかむような一般的な相互作用スキルを訓練し、訓練済みのエージェントからの専門家の軌跡と他の手足のキネマティックな先駆体を組み合わせることができる。
最終的に、我々の全身エージェントは、参照動作シーケンスに物体軌跡が存在しない場合でも、新しい物理的相互作用スキルを学習する。
関連論文リスト
- MoChat: Joints-Grouped Spatio-Temporal Grounding LLM for Multi-Turn Motion Comprehension and Description [13.12764192547871]
MoChatは人間の動きの微粒な時間的接地が可能なモデルである。
我々は,ヒト解剖学的構造に基づいて,各骨格の空間情報をグループ化する。
共同トレーニングのためにさまざまなアノテーションが生成される。
論文 参考訳(メタデータ) (2024-10-15T08:49:59Z) - Generating Human Interaction Motions in Scenes with Text Control [66.74298145999909]
本稿では,デノナイズ拡散モデルに基づくテキスト制御されたシーン認識動作生成手法TeSMoを提案する。
我々のアプローチは、シーンに依存しないテキスト-モーション拡散モデルの事前学習から始まります。
トレーニングを容易にするため,シーン内に注釈付きナビゲーションと対話動作を組み込む。
論文 参考訳(メタデータ) (2024-04-16T16:04:38Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Learn the Force We Can: Enabling Sparse Motion Control in Multi-Object
Video Generation [26.292052071093945]
単一のフレームとスパース動作入力からビデオを生成する教師なしの手法を提案する。
我々の訓練されたモデルは、目に見えない現実的なオブジェクト間相互作用を生成できる。
ヨダは、制御性と映像品質の両面において、先行するアートビデオ生成の状況と同等かそれ以上であることを示す。
論文 参考訳(メタデータ) (2023-06-06T19:50:02Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Human Motion Diffusion as a Generative Prior [20.004837564647367]
拡散先行に基づく3種類の合成法を提案する。
長いシーケンス生成の課題に取り組みます。
並列合成を用いて、2人の世代に向けた有望なステップを示す。
論文 参考訳(メタデータ) (2023-03-02T17:09:27Z) - IMoS: Intent-Driven Full-Body Motion Synthesis for Human-Object
Interactions [69.95820880360345]
そこで本研究では,仮想人物の全身動作を3Dオブジェクトで合成する最初のフレームワークを提案する。
本システムでは,オブジェクトと仮想文字の関連意図を入力テキストとして記述する。
その結果, 80%以上のシナリオにおいて, 合成された全身運動は参加者よりリアルに見えることがわかった。
論文 参考訳(メタデータ) (2022-12-14T23:59:24Z) - SoMoFormer: Multi-Person Pose Forecasting with Transformers [15.617263162155062]
マルチパーソン3Dポーズ予測のためのソーシャルモーショントランスフォーマー(SoMoFormer)を提案する。
我々のトランスアーキテクチャは、人間の動作入力を時系列ではなくジョイントシーケンスとして一意にモデル化する。
この問題の修正により、SoMoFormerは自然に、シーン内のすべての人の関節を入力クエリとして使用することで、マルチパーソンシーンに拡張できることを示す。
論文 参考訳(メタデータ) (2022-08-30T06:59:28Z) - Interaction Transformer for Human Reaction Generation [61.22481606720487]
本稿では,時間的,空間的両方の注意を持つトランスフォーマーネットワークからなる対話型トランスフォーマー(InterFormer)を提案する。
我々の手法は一般的であり、より複雑で長期的な相互作用を生成するのに利用できる。
論文 参考訳(メタデータ) (2022-07-04T19:30:41Z) - Hierarchical Style-based Networks for Motion Synthesis [150.226137503563]
本研究では,特定の目標地点を達成するために,長距離・多種多様・多様な行動を生成する自己指導手法を提案する。
提案手法は,長距離生成タスクを階層的に分解することで人間の動作をモデル化する。
大規模な骨格データから, 提案手法は長距離, 多様な, もっともらしい動きを合成できることを示す。
論文 参考訳(メタデータ) (2020-08-24T02:11:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。