論文の概要: Interaction Transformer for Human Reaction Generation
- arxiv url: http://arxiv.org/abs/2207.01685v1
- Date: Mon, 4 Jul 2022 19:30:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 06:37:19.786688
- Title: Interaction Transformer for Human Reaction Generation
- Title(参考訳): 人間反応生成のためのインタラクショントランス
- Authors: Baptiste Chopin, Hao Tang, Naima Otberdout, Mohamed Daoudi, Nicu Sebe
- Abstract要約: 本稿では,時間的,空間的両方の注意を持つトランスフォーマーネットワークからなる対話型トランスフォーマー(InterFormer)を提案する。
我々の手法は一般的であり、より複雑で長期的な相互作用を生成するのに利用できる。
- 参考スコア(独自算出の注目度): 61.22481606720487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address the challenging task of human reaction generation which aims to
generate a corresponding reaction based on an input action. Most of the
existing works do not focus on generating and predicting the reaction and
cannot generate the motion when only the action is given as input. To address
this limitation, we propose a novel interaction Transformer (InterFormer)
consisting of a Transformer network with both temporal and spatial attentions.
Specifically, the temporal attention captures the temporal dependencies of the
motion of both characters and of their interaction, while the spatial attention
learns the dependencies between the different body parts of each character and
those which are part of the interaction. Moreover, we propose using graphs to
increase the performance of the spatial attention via an interaction distance
module that helps focus on nearby joints from both characters. Extensive
experiments on the SBU interaction, K3HI, and DuetDance datasets demonstrate
the effectiveness of InterFormer. Our method is general and can be used to
generate more complex and long-term interactions.
- Abstract(参考訳): 入力動作に基づいて対応する反応を生成することを目的としたヒト反応生成の課題に対処する。
既存の作業の多くは、反応の生成と予測に焦点を合わせておらず、アクションのみを入力として与えたときに動作を生成できない。
そこで,本稿では,時間的および空間的に注目されるトランスネットワークからなるインタラクショントランス(interformer)を提案する。
具体的には、時間的注意は両方の文字の動きと相互作用の時間的依存関係を捉え、空間的注意は各文字の異なる身体部分と相互作用の一部であるものの間の依存関係を学習する。
さらに,両文字間の相互作用距離モジュールを用いて空間的注意力の向上を図るために,グラフを用いた手法を提案する。
SBUインタラクション、K3HI、DuetDanceデータセットに関する大規模な実験は、InterFormerの有効性を示している。
提案手法は汎用的であり,より複雑かつ長期的な相互作用を生成できる。
関連論文リスト
- Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Interactive Spatiotemporal Token Attention Network for Skeleton-based
General Interactive Action Recognition [8.513434732050749]
本稿では,空間的,時間的,対話的な関係を同時にモデル化する対話型時空間意識ネットワーク(ISTA-Net)を提案する。
我々のネットワークには対話的時空間トークン(IST)を分割するトークン機構があり、これは複数の多様なエンティティの動作を表現する統一的な方法である。
ISTの3次元に沿って共同学習するために、3次元畳み込みと統合されたマルチヘッド自己認識ブロックは、トークン間の相関を捉えるように設計されている。
論文 参考訳(メタデータ) (2023-07-14T16:51:25Z) - InterGen: Diffusion-based Multi-human Motion Generation under Complex Interactions [49.097973114627344]
動作拡散プロセスに人間と人間の相互作用を組み込んだ効果的な拡散ベースアプローチであるInterGenを提案する。
我々はまず、InterHumanという名前のマルチモーダルデータセットをコントリビュートする。これは、様々な2人インタラクションのための約107Mフレームで構成され、正確な骨格運動と23,337の自然言語記述を持つ。
本稿では,世界規模での2人のパフォーマーのグローバルな関係を明示的に定式化した対話拡散モデルにおける動作入力の表現を提案する。
論文 参考訳(メタデータ) (2023-04-12T08:12:29Z) - SoMoFormer: Social-Aware Motion Transformer for Multi-Person Motion
Prediction [10.496276090281825]
本稿では,ソーシャル・アウェア・モーション・トランスフォーマー(SoMoFormer)を提案する。
SoMoFormerは、変位軌道空間のサブシーケンスから運動特徴を抽出し、各個人に対する局所的およびグローバルなポーズダイナミクスを学習する。
さらに,SoMoFormerに新たなソーシャル・アウェア・アテンション・アテンション・メカニズムを考案し,動的表現をさらに最適化し,相互依存を同時に捉える。
論文 参考訳(メタデータ) (2022-08-19T08:57:34Z) - Interaction Mix and Match: Synthesizing Close Interaction using
Conditional Hierarchical GAN with Multi-Hot Class Embedding [4.864897201841002]
本研究では,異なる種類の密接な相互作用を混合し,マッチングすることで,リアルな人間の反応運動を作り出す新しい方法を提案する。
実験はノイズ(深度ベース)と高品質(リバーサベース)の相互作用データセットの両方で実施される。
論文 参考訳(メタデータ) (2022-07-23T16:13:10Z) - GAN-based Reactive Motion Synthesis with Class-aware Discriminators for
Human-human Interaction [14.023527193608144]
本稿では,他のキャラクタからアクティブな動作を与えられたキャラクタの反応運動を合成する半教師付きGANシステムを提案する。
合成運動の高品質さは, ジェネレータの有効設計を示し, 合成の識別性もまた, 判別器の強度を示している。
論文 参考訳(メタデータ) (2021-10-01T13:13:07Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。