論文の概要: ReactionMamba: Generating Short &Long Human Reaction Sequences
- arxiv url: http://arxiv.org/abs/2512.00208v1
- Date: Fri, 28 Nov 2025 21:19:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.112238
- Title: ReactionMamba: Generating Short &Long Human Reaction Sequences
- Title(参考訳): ReactionMamba: ショート・ロング・ヒューマン・リアクション・シーケンスの生成
- Authors: Hajra Anwar Beg, Baptiste Chopin, Hao Tang, Mohamed Daoudi,
- Abstract要約: リアクションマンバ(ReactionMamba)は、長い3次元人間の反応運動を生成するための新しいフレームワークである。
この設計により、ReactionMambaは単純な動きの短いシーケンスとダンスや武道のような複雑な動きの長いシーケンスの両方を生成することができる。
我々は、NTU120-AS、Lindy Hop、InterXの3つのデータセット上でReactionMambaを評価し、リアリズム、多様性、ロングシーケンス生成の点で競合性能を示す。
- 参考スコア(独自算出の注目度): 11.690951925430573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present ReactionMamba, a novel framework for generating long 3D human reaction motions. Reaction-Mamba integrates a motion VAE for efficient motion encoding with Mamba-based state-space models to decode temporally consistent reactions. This design enables ReactionMamba to generate both short sequences of simple motions and long sequences of complex motions, such as dance and martial arts. We evaluate ReactionMamba on three datasets--NTU120-AS, Lindy Hop, and InterX--and demonstrate competitive performance in terms of realism, diversity, and long-sequence generation compared to previous methods, including InterFormer, ReMoS, and Ready-to-React, while achieving substantial improvements in inference speed.
- Abstract(参考訳): リアクションマンバ(ReactionMamba)は、長い3次元人間の反応運動を生成するための新しいフレームワークである。
反応マンバは、効率的な動き符号化のための動きVAEと、マンバに基づく状態空間モデルを統合して、時間的に一貫した反応をデコードする。
この設計により、ReactionMambaは単純な動きの短いシーケンスとダンスや武道のような複雑な動きの長いシーケンスの両方を生成することができる。
我々は、NTU120-AS、Lindy Hop、InterXの3つのデータセット上でReactionMambaを評価し、InterFormer、ReMoS、Ready-to-Reactといった従来の手法と比較して、リアリズム、多様性、ロングシーケンス生成における競合性能を実証し、推論速度を大幅に改善した。
関連論文リスト
- IRG-MotionLLM: Interleaving Motion Generation, Assessment and Refinement for Text-to-Motion Generation [54.36300724708094]
評価と改善のタスクは、理解と生成の間の双方向の知識フローを可能にするために重要なブリッジとして機能する。
動作生成、評価、改善をシームレスにインターリーブし、生成性能を向上させる最初のモデルであるIRG-MotionLLMを紹介する。
論文 参考訳(メタデータ) (2025-12-11T15:16:06Z) - PMGS: Reconstruction of Projectile Motion across Large Spatiotemporal Spans via 3D Gaussian Splatting [9.314869696272297]
本研究では,3次元ガウス散乱によるプロジェクタイルの再構成に着目したPMGSを提案する。
本稿では,ニュートン力学を橋渡し,ポーズ推定を行う加速度制約を導入し,運動状態に基づいて学習率を適応的にスケジュールする動的シミュレート変形戦略を設計する。
論文 参考訳(メタデータ) (2025-08-04T17:49:37Z) - Dyadic Mamba: Long-term Dyadic Human Motion Synthesis [14.409918076336462]
任意の長さのハイクオリティな人間の動きを生成する新しいアプローチであるDyadic Mambaを紹介する。
本手法は,個々の動き列間の情報の流れを簡易かつ効果的に制御するアーキテクチャを用いている。
本稿では,長期動作の合成品質を評価するための新しいベンチマークを提案し,将来の研究のための標準化されたフレームワークを提供する。
論文 参考訳(メタデータ) (2025-05-14T22:12:34Z) - GENMO: A GENeralist Model for Human MOtion [64.16188966024542]
本稿では,1つのフレームワークで動作推定と生成を橋渡しする汎用人体運動モデル GENMO を提案する。
我々の重要な洞察は、出力運動が観測された条件信号を正確に満たさなければならないような制約された動き生成として運動推定を再構成することである。
我々の新しいアーキテクチャは、可変長動きと混合マルチモーダル条件(テキスト、オーディオ、ビデオ)を異なる時間間隔で処理し、柔軟な制御を提供する。
論文 参考訳(メタデータ) (2025-05-02T17:59:55Z) - ReCoM: Realistic Co-Speech Motion Generation with Recurrent Embedded Transformer [58.49950218437718]
音声に同期した高忠実で一般化可能な人体動作を生成するための効率的なフレームワークであるReCoMを提案する。
Recurrent Embedded Transformer (RET)は、動的埋め込み正規化(DER)をViT(Vit)コアアーキテクチャに統合する。
モデルロバスト性を高めるため,ノイズ抵抗とクロスドメイン一般化の二重性を持つモデルに,提案したDER戦略を取り入れた。
論文 参考訳(メタデータ) (2025-03-27T16:39:40Z) - ARFlow: Human Action-Reaction Flow Matching with Physical Guidance [36.052383171690614]
Action-Reaction Flow Matching (ARFlow)は、直接アクションから反応へのマッピングを確立する新しいフレームワークである。
本手法では,身体の浸透を効果的に防止する,フローマッチング(FM)に特化して設計された物理誘導機構を提案する。
論文 参考訳(メタデータ) (2025-03-21T09:41:24Z) - Infinite Motion: Extended Motion Generation via Long Text Instructions [51.61117351997808]
『無限運動』は、長文を長文から拡張運動生成に活用する新しいアプローチである。
我々のモデルの主な革新は、任意の長さのテキストを入力として受け入れることである。
テキストのタイムスタンプ設計を取り入れ、生成されたシーケンス内のローカルセグメントの正確な編集を可能にする。
論文 参考訳(メタデータ) (2024-07-11T12:33:56Z) - Motion Mamba: Efficient and Long Sequence Motion Generation [26.777455596989526]
状態空間モデル(SSM)の最近の進歩は、長いシーケンスモデリングにおいてかなりの可能性を秘めている。
我々は,SSMを用いた先駆的な動き生成モデルを示す,シンプルで効率的な手法であるモーション・マンバを提案する。
提案手法は,HumanML3DおよびKIT-MLデータセットの最大50%のFID改善と最大4倍の高速化を実現する。
論文 参考訳(メタデータ) (2024-03-12T10:25:29Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - ReMoDiffuse: Retrieval-Augmented Motion Diffusion Model [33.64263969970544]
3Dのモーション生成はクリエイティブ産業にとって不可欠だ。
近年の進歩は、テキスト駆動モーション生成のためのドメイン知識を持つ生成モデルに依存している。
本稿では拡散モデルに基づく動き生成フレームワークReMoDiffuseを提案する。
論文 参考訳(メタデータ) (2023-04-03T16:29:00Z) - Interaction Transformer for Human Reaction Generation [61.22481606720487]
本稿では,時間的,空間的両方の注意を持つトランスフォーマーネットワークからなる対話型トランスフォーマー(InterFormer)を提案する。
我々の手法は一般的であり、より複雑で長期的な相互作用を生成するのに利用できる。
論文 参考訳(メタデータ) (2022-07-04T19:30:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。