論文の概要: ReactionMamba: Generating Short &Long Human Reaction Sequences
- arxiv url: http://arxiv.org/abs/2512.00208v1
- Date: Fri, 28 Nov 2025 21:19:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.112238
- Title: ReactionMamba: Generating Short &Long Human Reaction Sequences
- Title(参考訳): ReactionMamba: ショート・ロング・ヒューマン・リアクション・シーケンスの生成
- Authors: Hajra Anwar Beg, Baptiste Chopin, Hao Tang, Mohamed Daoudi,
- Abstract要約: リアクションマンバ(ReactionMamba)は、長い3次元人間の反応運動を生成するための新しいフレームワークである。
この設計により、ReactionMambaは単純な動きの短いシーケンスとダンスや武道のような複雑な動きの長いシーケンスの両方を生成することができる。
我々は、NTU120-AS、Lindy Hop、InterXの3つのデータセット上でReactionMambaを評価し、リアリズム、多様性、ロングシーケンス生成の点で競合性能を示す。
- 参考スコア(独自算出の注目度): 11.690951925430573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present ReactionMamba, a novel framework for generating long 3D human reaction motions. Reaction-Mamba integrates a motion VAE for efficient motion encoding with Mamba-based state-space models to decode temporally consistent reactions. This design enables ReactionMamba to generate both short sequences of simple motions and long sequences of complex motions, such as dance and martial arts. We evaluate ReactionMamba on three datasets--NTU120-AS, Lindy Hop, and InterX--and demonstrate competitive performance in terms of realism, diversity, and long-sequence generation compared to previous methods, including InterFormer, ReMoS, and Ready-to-React, while achieving substantial improvements in inference speed.
- Abstract(参考訳): リアクションマンバ(ReactionMamba)は、長い3次元人間の反応運動を生成するための新しいフレームワークである。
反応マンバは、効率的な動き符号化のための動きVAEと、マンバに基づく状態空間モデルを統合して、時間的に一貫した反応をデコードする。
この設計により、ReactionMambaは単純な動きの短いシーケンスとダンスや武道のような複雑な動きの長いシーケンスの両方を生成することができる。
我々は、NTU120-AS、Lindy Hop、InterXの3つのデータセット上でReactionMambaを評価し、InterFormer、ReMoS、Ready-to-Reactといった従来の手法と比較して、リアリズム、多様性、ロングシーケンス生成における競合性能を実証し、推論速度を大幅に改善した。
関連論文リスト
- Dyadic Mamba: Long-term Dyadic Human Motion Synthesis [14.409918076336462]
任意の長さのハイクオリティな人間の動きを生成する新しいアプローチであるDyadic Mambaを紹介する。
本手法は,個々の動き列間の情報の流れを簡易かつ効果的に制御するアーキテクチャを用いている。
本稿では,長期動作の合成品質を評価するための新しいベンチマークを提案し,将来の研究のための標準化されたフレームワークを提供する。
論文 参考訳(メタデータ) (2025-05-14T22:12:34Z) - ReCoM: Realistic Co-Speech Motion Generation with Recurrent Embedded Transformer [58.49950218437718]
音声に同期した高忠実で一般化可能な人体動作を生成するための効率的なフレームワークであるReCoMを提案する。
Recurrent Embedded Transformer (RET)は、動的埋め込み正規化(DER)をViT(Vit)コアアーキテクチャに統合する。
モデルロバスト性を高めるため,ノイズ抵抗とクロスドメイン一般化の二重性を持つモデルに,提案したDER戦略を取り入れた。
論文 参考訳(メタデータ) (2025-03-27T16:39:40Z) - ARFlow: Human Action-Reaction Flow Matching with Physical Guidance [36.052383171690614]
Action-Reaction Flow Matching (ARFlow)は、直接アクションから反応へのマッピングを確立する新しいフレームワークである。
本手法では,身体の浸透を効果的に防止する,フローマッチング(FM)に特化して設計された物理誘導機構を提案する。
論文 参考訳(メタデータ) (2025-03-21T09:41:24Z) - Infinite Motion: Extended Motion Generation via Long Text Instructions [51.61117351997808]
『無限運動』は、長文を長文から拡張運動生成に活用する新しいアプローチである。
我々のモデルの主な革新は、任意の長さのテキストを入力として受け入れることである。
テキストのタイムスタンプ設計を取り入れ、生成されたシーケンス内のローカルセグメントの正確な編集を可能にする。
論文 参考訳(メタデータ) (2024-07-11T12:33:56Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - ReMoDiffuse: Retrieval-Augmented Motion Diffusion Model [33.64263969970544]
3Dのモーション生成はクリエイティブ産業にとって不可欠だ。
近年の進歩は、テキスト駆動モーション生成のためのドメイン知識を持つ生成モデルに依存している。
本稿では拡散モデルに基づく動き生成フレームワークReMoDiffuseを提案する。
論文 参考訳(メタデータ) (2023-04-03T16:29:00Z) - Interaction Transformer for Human Reaction Generation [61.22481606720487]
本稿では,時間的,空間的両方の注意を持つトランスフォーマーネットワークからなる対話型トランスフォーマー(InterFormer)を提案する。
我々の手法は一般的であり、より複雑で長期的な相互作用を生成するのに利用できる。
論文 参考訳(メタデータ) (2022-07-04T19:30:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。