論文の概要: MAAIP: Multi-Agent Adversarial Interaction Priors for imitation from
fighting demonstrations for physics-based characters
- arxiv url: http://arxiv.org/abs/2311.02502v1
- Date: Sat, 4 Nov 2023 20:40:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 17:17:53.413186
- Title: MAAIP: Multi-Agent Adversarial Interaction Priors for imitation from
fighting demonstrations for physics-based characters
- Title(参考訳): MAAIP:物理系文字に対する実演の模倣を前提とした多エージェント対人インタラクション
- Authors: Mohamed Younes, Ewa Kijak, Richard Kulpa, Simon Malinowski, Franck
Multon
- Abstract要約: 提案手法は, マルチエージェント・ジェネレーティブ・ジェネレーティブ・シミュレーション・ラーニングに基づく新しいアプローチである。
我々のシステムは、各キャラクターが各アクターに関連する対話的スキルを模倣できるように、制御ポリシーを訓練する。
このアプローチはボクシングとフルボディの格闘技の2つの異なるスタイルでテストされ、異なるスタイルを模倣する手法の能力を実証している。
- 参考スコア(独自算出の注目度): 5.303375034962503
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simulating realistic interaction and motions for physics-based characters is
of great interest for interactive applications, and automatic secondary
character animation in the movie and video game industries. Recent works in
reinforcement learning have proposed impressive results for single character
simulation, especially the ones that use imitation learning based techniques.
However, imitating multiple characters interactions and motions requires to
also model their interactions. In this paper, we propose a novel Multi-Agent
Generative Adversarial Imitation Learning based approach that generalizes the
idea of motion imitation for one character to deal with both the interaction
and the motions of the multiple physics-based characters. Two unstructured
datasets are given as inputs: 1) a single-actor dataset containing motions of a
single actor performing a set of motions linked to a specific application, and
2) an interaction dataset containing a few examples of interactions between
multiple actors. Based on these datasets, our system trains control policies
allowing each character to imitate the interactive skills associated with each
actor, while preserving the intrinsic style. This approach has been tested on
two different fighting styles, boxing and full-body martial art, to demonstrate
the ability of the method to imitate different styles.
- Abstract(参考訳): 物理に基づくキャラクターのリアルな相互作用と動きのシミュレーションは、インタラクティブなアプリケーションや、映画やビデオゲーム産業における自動セカンダリキャラクタアニメーションに非常に関心がある。
近年の強化学習の成果は, シングルキャラクタシミュレーション, 特に模倣学習に基づく手法を用いた実験において, 顕著な結果が提案されている。
しかし、複数の文字の相互作用と動きを模倣するには、その相互作用をモデル化する必要がある。
本稿では,複数の物理系文字の相互作用と動作の両方を扱うために,一つの文字に対する動き模倣の考え方を一般化した,新しいマルチエージェント生成逆模倣学習手法を提案する。
入力として2つの非構造化データセットが与えられる。
1) 特定のアプリケーションにリンクした一連の動作を行う単一のアクターの動作を含む単一アクターデータセット
2) 複数のアクター間のインタラクションのいくつかの例を含むインタラクションデータセット。
これらのデータセットに基づいて,本システムは,本質的なスタイルを保ちながら,各キャラクターが各アクターに関連する対話的スキルを模倣できるように制御ポリシーを訓練する。
このアプローチはボクシングとフルボディの格闘技の2つの異なるスタイルでテストされ、異なるスタイルを模倣する手法の能力を実証している。
関連論文リスト
- Versatile Motion Language Models for Multi-Turn Interactive Agents [28.736843383405603]
本稿では,言語と運動の両モードを統合したVersatile Interactive Motion言語モデルを提案する。
動作関連タスク,テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声
論文 参考訳(メタデータ) (2024-10-08T02:23:53Z) - Generating Human Interaction Motions in Scenes with Text Control [66.74298145999909]
本稿では,デノナイズ拡散モデルに基づくテキスト制御されたシーン認識動作生成手法TeSMoを提案する。
我々のアプローチは、シーンに依存しないテキスト-モーション拡散モデルの事前学習から始まります。
トレーニングを容易にするため,シーン内に注釈付きナビゲーションと対話動作を組み込む。
論文 参考訳(メタデータ) (2024-04-16T16:04:38Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Synthesizing Physical Character-Scene Interactions [64.26035523518846]
仮想キャラクタとその周辺環境間のこのような相互作用を合成する必要がある。
本稿では,逆模倣学習と強化学習を用いて物理シミュレーション文字を学習するシステムを提案する。
我々のアプローチは、物理学に基づくキャラクターモーション生成を広い適用性に一歩近づいた。
論文 参考訳(メタデータ) (2023-02-02T05:21:32Z) - Interaction Mix and Match: Synthesizing Close Interaction using
Conditional Hierarchical GAN with Multi-Hot Class Embedding [4.864897201841002]
本研究では,異なる種類の密接な相互作用を混合し,マッチングすることで,リアルな人間の反応運動を作り出す新しい方法を提案する。
実験はノイズ(深度ベース)と高品質(リバーサベース)の相互作用データセットの両方で実施される。
論文 参考訳(メタデータ) (2022-07-23T16:13:10Z) - Dual-AI: Dual-path Actor Interaction Learning for Group Activity
Recognition [103.62363658053557]
空間および時間変換器を柔軟に配置するDual-path Actor Interaction (DualAI) フレームワークを提案する。
また,Dual-AIの2つのインタラクティブパスの間に,MAC-Loss(Multiscale Actor Contrastive Loss)を導入する。
我々のデュアルAIは、異なるアクターの識別的特徴を融合させることでグループ活動の認識を促進することができる。
論文 参考訳(メタデータ) (2022-04-05T12:17:40Z) - Triangular Character Animation Sampling with Motion, Emotion, and
Relation [78.80083186208712]
本稿では,キャラクターの身体の動き,表情,社会的関係を関連づけることで,アニメーションのサンプリングと合成を行う新しい枠組みを提案する。
本手法は,3次元キャラクタアニメーションの自動生成,非プレーヤキャラクタ(NPC)間のインタラクションの合成,バーチャルリアリティ(VR)におけるマシン感情インテリジェンスの向上を支援するアニメーターを提供する。
論文 参考訳(メタデータ) (2022-03-09T18:19:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。