論文の概要: ActFormer: A GAN Transformer Framework towards General
Action-Conditioned 3D Human Motion Generation
- arxiv url: http://arxiv.org/abs/2203.07706v1
- Date: Tue, 15 Mar 2022 07:50:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 16:15:13.320640
- Title: ActFormer: A GAN Transformer Framework towards General
Action-Conditioned 3D Human Motion Generation
- Title(参考訳): ActFormer: 一般動作型3次元モーション生成に向けたGANトランスフォーマーフレームワーク
- Authors: Ziyang Song, Dongliang Wang, Nan Jiang, Zhicheng Fang, Chenjing Ding,
Weihao Gan, Wei Wu
- Abstract要約: 一般動作条件付き3次元モーション生成のためのGANトランスフォーマフレームワークを提案する。
我々のアプローチは、GANトレーニングスキームの下で強力なActFormer(ActFormer)によって構成される。
ActFormerは、時間的相関とトランスフォーマーエンコーダとのヒューマンインタラクションを交互にモデル化することで、自然にマルチパーソン動作に拡張することができる。
- 参考スコア(独自算出の注目度): 16.1094669439815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a GAN Transformer framework for general action-conditioned 3D
human motion generation, including not only single-person actions but also
multi-person interactive actions. Our approach consists of a powerful
Action-conditioned motion transFormer (ActFormer) under a GAN training scheme,
equipped with a Gaussian Process latent prior. Such a design combines the
strong spatio-temporal representation capacity of Transformer, superiority in
generative modeling of GAN, and inherent temporal correlations from latent
prior. Furthermore, ActFormer can be naturally extended to multi-person motions
by alternately modeling temporal correlations and human interactions with
Transformer encoders. We validate our approach by comparison with other methods
on larger-scale benchmarks, including NTU RGB+D 120 and BABEL. We also
introduce a new synthetic dataset of complex multi-person combat behaviors to
facilitate research on multi-person motion generation. Our method demonstrates
adaptability to various human motion representations and achieves leading
performance over SOTA methods on both single-person and multi-person motion
generation tasks, indicating a hopeful step towards a universal human motion
generator.
- Abstract(参考訳): 本稿では,1対1の動作だけでなく,複数対1の対話行動を含む,一般的な動作条件付き3次元動作生成のためのGANトランスフォーマーフレームワークを提案する。
提案手法は,ガウスプロセスが先行するGANトレーニングスキームの下で,強力な動作条件変換器(ActFormer)から構成される。
このような設計は、トランスフォーマーの強い時空間表現能力、GANの生成モデルにおける優越性、潜伏前の時間的相関を組み合わせている。
さらに、時相相関とトランスフォーマーエンコーダとのヒューマンインタラクションを交互にモデル化することにより、ActFormerは自然に多人数動作に拡張することができる。
NTU RGB+D 120 や BABEL など,大規模ベンチマークにおける他の手法との比較により,本手法の有効性を検証した。
また、複雑な多対人戦闘行動の合成データセットを導入し、多対人動作生成の研究を容易にする。
本手法は, 多様な動作表現への適応性を実証し, 一人称動作生成タスクと複数人称動作生成タスクの両方において, SOTA法よりも優れた性能を実現する。
関連論文リスト
- Motion-Agent: A Conversational Framework for Human Motion Generation with LLMs [67.59291068131438]
Motion-Agentは、一般的な人間の動きの生成、編集、理解のために設計された会話フレームワークである。
Motion-Agentはオープンソースの事前学習言語モデルを使用して、モーションとテキストのギャップを埋める生成エージェントであるMotionLLMを開発した。
論文 参考訳(メタデータ) (2024-05-27T09:57:51Z) - FreeMotion: A Unified Framework for Number-free Text-to-Motion Synthesis [65.85686550683806]
そこで本稿では, 条件付き動作分布を用いて, 単独動作と多人数動作を統一する動き生成手法を提案する。
筆者らの枠組みに基づいて,現在ある一対一動作空間制御手法をシームレスに統合し,多対一動作の正確な制御を実現する。
論文 参考訳(メタデータ) (2024-05-24T17:57:57Z) - in2IN: Leveraging individual Information to Generate Human INteractions [29.495166514135295]
In2IN(in2IN)は、人間と人間の動作生成を個別に記述した新しい拡散モデルである。
In2INで生成された動きと、HumanML3Dで事前訓練された1人の動きによって生成された動きとを組み合わせたモデル合成手法であるDualMDMを提案する。
論文 参考訳(メタデータ) (2024-04-15T17:59:04Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - TransFusion: A Practical and Effective Transformer-based Diffusion Model
for 3D Human Motion Prediction [1.8923948104852863]
本研究では,3次元動作予測のための革新的で実用的な拡散モデルであるTransFusionを提案する。
我々のモデルは、浅い層と深い層の間の長いスキップ接続を持つバックボーンとしてTransformerを活用している。
クロスアテンションや適応層正規化のような余分なモジュールを利用する従来の拡散モデルとは対照的に、条件を含む全ての入力をトークンとして扱い、より軽量なモデルを作成する。
論文 参考訳(メタデータ) (2023-07-30T01:52:07Z) - Persistent-Transient Duality: A Multi-mechanism Approach for Modeling
Human-Object Interaction [58.67761673662716]
人間は高度に適応可能で、異なるタスク、状況、状況を扱うために異なるモードを素早く切り替える。
人間と物体の相互作用(HOI)において、これらのモードは、(1)活動全体に対する大規模な一貫した計画、(2)タイムラインに沿って開始・終了する小規模の子どもの対話的行動の2つのメカニズムに起因していると考えられる。
本研究は、人間の動作を協調的に制御する2つの同時メカニズムをモデル化することを提案する。
論文 参考訳(メタデータ) (2023-07-24T12:21:33Z) - Stochastic Multi-Person 3D Motion Forecasting [21.915057426589744]
我々は、人間の動き予測に先立つ作業において、無視された現実世界の複雑さに対処する。
私たちのフレームワークは一般的なもので、異なる生成モデルでインスタンス化します。
このアプローチは多種多人数の予測を多種多様な精度で生成し,技術水準を著しく上回っている。
論文 参考訳(メタデータ) (2023-06-08T17:59:09Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z) - MUGL: Large Scale Multi Person Conditional Action Generation with
Locomotion [9.30315673109153]
MUGLは、大規模で多様な1対複数対多のポーズベースのアクションシーケンスをロコモーションで生成するための、新しいディープニューラルネットワークモデルである。
我々の制御可能なアプローチは、100以上のカテゴリで、アクションカテゴリによってカスタマイズ可能な可変長世代を可能にする。
論文 参考訳(メタデータ) (2021-10-21T20:11:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。