論文の概要: PaCMO: Partner Dependent Human Motion Generation in Dyadic Human
Activity using Neural Operators
- arxiv url: http://arxiv.org/abs/2211.16210v1
- Date: Fri, 25 Nov 2022 22:20:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 15:56:36.789282
- Title: PaCMO: Partner Dependent Human Motion Generation in Dyadic Human
Activity using Neural Operators
- Title(参考訳): pacmo:ニューラルオペレーターを用いたdyadic human activityにおけるパートナー依存型人間の運動生成
- Authors: Md Ashiqur Rahman, Jasorsi Ghosh, Hrishikesh Viswanath, Kamyar
Azizzadenesheli, Aniket Bera
- Abstract要約: 機能空間におけるパートナーの動きによって条件付けられた人間の動きの分布を学習するニューラル演算子に基づく生成モデルを提案する。
我々のモデルは任意の時間分解能で長いラベルのないアクションシーケンスを処理できる。
NTU RGB+DとDuetDanceのデータセット上でPaCMOを検証し,現実的な結果を得た。
- 参考スコア(独自算出の注目度): 20.45590914720127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address the problem of generating 3D human motions in dyadic activities.
In contrast to the concurrent works, which mainly focus on generating the
motion of a single actor from the textual description, we generate the motion
of one of the actors from the motion of the other participating actor in the
action. This is a particularly challenging, under-explored problem, that
requires learning intricate relationships between the motion of two actors
participating in an action and also identifying the action from the motion of
one actor. To address these, we propose partner conditioned motion operator
(PaCMO), a neural operator-based generative model which learns the distribution
of human motion conditioned by the partner's motion in function spaces through
adversarial training. Our model can handle long unlabeled action sequences at
arbitrary time resolution. We also introduce the "Functional Frechet Inception
Distance" ($F^2ID$) metric for capturing similarity between real and generated
data for function spaces. We test PaCMO on NTU RGB+D and DuetDance datasets and
our model produces realistic results evidenced by the $F^2ID$ score and the
conducted user study.
- Abstract(参考訳): ダイアディック活動における3次元人間の動作生成の問題に対処する。
テキスト記述から1人の俳優の動きを主に生成することに焦点を当てたコンカレント作品とは対照的に,他の俳優の動作から1人の俳優の動きを生成する。
これは特に困難で未熟な問題であり、アクションに参加している2人の俳優の動作と、そのアクションを1人の俳優の動作から識別することの間の複雑な関係を学ぶ必要がある。
このような問題に対処するために,パートナーの運動によって条件付けられた人間の動きの分布を,ニューラルネットワークを用いた生成モデルPaCMO(Partner Conditioned Motion operator)を提案する。
我々のモデルは任意の時間分解能で長いラベルなしのアクションシーケンスを処理できる。
また,関数空間における実データと生成データとの類似性を捉えるための「機能的フレシェインセプション距離」(f^2id$)メトリックも導入する。
NTU RGB+D と DuetDance のデータセット上で PaCMO を検証し,F^2ID$ スコアとユーザスタディによって実証された現実的な結果を生成する。
関連論文リスト
- ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - NIFTY: Neural Object Interaction Fields for Guided Human Motion
Synthesis [21.650091018774972]
我々は、特定の物体に付随する神経相互作用場を作成し、人間のポーズを入力として与えられた有効な相互作用多様体までの距離を出力する。
この相互作用場は、対象条件付きヒトの運動拡散モデルのサンプリングを導く。
いくつかの物体で座ったり持ち上げたりするための現実的な動きを合成し、動きの質や動作完了の成功の観点から、代替のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-14T17:59:38Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z) - GAN-based Reactive Motion Synthesis with Class-aware Discriminators for
Human-human Interaction [14.023527193608144]
本稿では,他のキャラクタからアクティブな動作を与えられたキャラクタの反応運動を合成する半教師付きGANシステムを提案する。
合成運動の高品質さは, ジェネレータの有効設計を示し, 合成の識別性もまた, 判別器の強度を示している。
論文 参考訳(メタデータ) (2021-10-01T13:13:07Z) - Scene-aware Generative Network for Human Motion Synthesis [125.21079898942347]
シーンと人間の動きの相互作用を考慮した新しい枠組みを提案する。
人間の動きの不確実性を考慮すると、このタスクを生成タスクとして定式化する。
我々は、人間の動きと文脈シーンとの整合性を強制するための識別器を備えた、GANに基づく学習アプローチを導出する。
論文 参考訳(メタデータ) (2021-05-31T09:05:50Z) - Action2Motion: Conditioned Generation of 3D Human Motions [28.031644518303075]
我々は3Dで人間の動作シーケンスを生成することを目的としている。
それぞれのサンプル配列は、自然界の体動力学に忠実に類似している。
新しい3DモーションデータセットであるHumanAct12も構築されている。
論文 参考訳(メタデータ) (2020-07-30T05:29:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。