論文の概要: MoReact: Generating Reactive Motion from Textual Descriptions
- arxiv url: http://arxiv.org/abs/2509.23911v1
- Date: Sun, 28 Sep 2025 14:31:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.526942
- Title: MoReact: Generating Reactive Motion from Textual Descriptions
- Title(参考訳): MoReact: テキスト記述からリアクティブモーションを生成する
- Authors: Xiyan Xu, Sirui Xu, Yu-Xiong Wang, Liang-Yan Gui,
- Abstract要約: MoReactは拡散に基づく手法で、グローバルな軌跡と局所的な動きを連続的に引き離すように設計されている。
2人の動作データセットから適応したデータを用いて,本手法の有効性を実証した。
- 参考スコア(独自算出の注目度): 57.642436102978245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modeling and generating human reactions poses a significant challenge with broad applications for computer vision and human-computer interaction. Existing methods either treat multiple individuals as a single entity, directly generating interactions, or rely solely on one person's motion to generate the other's reaction, failing to integrate the rich semantic information that underpins human interactions. Yet, these methods often fall short in adaptive responsiveness, i.e., the ability to accurately respond to diverse and dynamic interaction scenarios. Recognizing this gap, our work introduces an approach tailored to address the limitations of existing models by focusing on text-driven human reaction generation. Our model specifically generates realistic motion sequences for individuals that responding to the other's actions based on a descriptive text of the interaction scenario. The goal is to produce motion sequences that not only complement the opponent's movements but also semantically fit the described interactions. To achieve this, we present MoReact, a diffusion-based method designed to disentangle the generation of global trajectories and local motions sequentially. This approach stems from the observation that generating global trajectories first is crucial for guiding local motion, ensuring better alignment with given action and text. Furthermore, we introduce a novel interaction loss to enhance the realism of generated close interactions. Our experiments, utilizing data adapted from a two-person motion dataset, demonstrate the efficacy of our approach for this novel task, which is capable of producing realistic, diverse, and controllable reactions that not only closely match the movements of the counterpart but also adhere to the textual guidance. Please find our webpage at https://xiyan-xu.github.io/MoReactWebPage.
- Abstract(参考訳): 人間の反応のモデル化と生成は、コンピュータビジョンと人間とコンピュータの相互作用に対する幅広い応用において大きな課題となる。
既存の方法は、複数の個人を一つの実体として扱うか、直接の相互作用を生成するか、または相手の反応を生成するために人の動きのみに依存するかのいずれかであり、人間の相互作用の基盤となる豊富な意味情報を統合できない。
しかし、これらの手法は適応応答性、すなわち多様な動的相互作用のシナリオに正確に反応する能力に欠けることが多い。
このギャップを認識して、本研究は、テキスト駆動型人間反応生成に焦点を当て、既存のモデルの限界に対処するためのアプローチを導入する。
本モデルでは,対話シナリオの記述的テキストに基づいて,相手の行動に反応する個人に対して,現実的な動作シーケンスを特に生成する。
目標は、相手の動きを補完するだけでなく、記述された相互作用に意味的に適合する動き列を生成することである。
そこで本研究では,グローバルな軌跡や局所的な動きの発生を逐次抑制する拡散法であるMoReactを提案する。
このアプローチは、まずグローバルな軌跡を生成することが、局所的な動きを誘導し、与えられた行動とテキストとの整合性を確保するために不可欠である、という観察に由来する。
さらに、生成した密接な相互作用のリアリズムを高めるために、新しい相互作用損失を導入する。
本研究は,2人の動作データセットに適応したデータを用いて,本手法の有効性を実証するものである。
Webページはhttps://xiyan-xu.github.io/MoReactWebPage.comで参照してください。
関連論文リスト
- Ready-to-React: Online Reaction Policy for Two-Character Interaction Generation [82.73098356401725]
本稿では,過去観測された動きに基づいて次のキャラクターのポーズを生成するためのオンライン反応ポリシーであるReady-to-Reactを提案する。
各キャラクターは独自の反応ポリシーを「脳」として持っており、実際の人間のようにストリーミングで対話することができる。
われわれのアプローチはスパース信号で制御でき、VRや他のオンラインインタラクティブ環境にも適している。
論文 参考訳(メタデータ) (2025-02-27T18:40:30Z) - KinMo: Kinematic-aware Human Motion Understanding and Generation [6.962697597686156]
現在のヒューマンモーション合成フレームワークは、グローバルなアクション記述に依存している。
ランのような単一の粗い記述は、速度の変動、手足の位置決め、運動力学といった詳細を捉えるのに失敗する。
階層的な記述可能な動作表現に基づいて構築された統合フレームワークであるKinMoを紹介する。
論文 参考訳(メタデータ) (2024-11-23T06:50:11Z) - THOR: Text to Human-Object Interaction Diffusion via Relation Intervention [51.02435289160616]
我々は、リレーショナルインターベンション(THOR)を用いたテキスト誘導型ヒューマンオブジェクト相互作用拡散モデルを提案する。
各拡散段階において、テキスト誘導された人間と物体の動きを開始し、その後、人と物体の関係を利用して物体の動きに介入する。
テキスト記述をシームレスに統合するText2HOIデータセットであるText-BEHAVEを,現在最大規模で公開されている3D HOIデータセットに構築する。
論文 参考訳(メタデータ) (2024-03-17T13:17:25Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - NIFTY: Neural Object Interaction Fields for Guided Human Motion
Synthesis [21.650091018774972]
我々は、特定の物体に付随する神経相互作用場を作成し、人間のポーズを入力として与えられた有効な相互作用多様体までの距離を出力する。
この相互作用場は、対象条件付きヒトの運動拡散モデルのサンプリングを導く。
いくつかの物体で座ったり持ち上げたりするための現実的な動きを合成し、動きの質や動作完了の成功の観点から、代替のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-14T17:59:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。