論文の概要: Environment-aware Motion Matching
- arxiv url: http://arxiv.org/abs/2510.22632v1
- Date: Sun, 26 Oct 2025 11:28:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 17:41:21.977921
- Title: Environment-aware Motion Matching
- Title(参考訳): 環境に配慮したモーションマッチング
- Authors: Jose Luis Ponton, Sheldon Andrews, Carlos Andujar, Nuria Pelechano,
- Abstract要約: 環境対応モーションマッチングは、フルボディのキャラクターアニメーションのための新しいリアルタイムシステムである。
本手法により,キャラクターは自然にポーズや軌道を調整し,混雑するシーンをナビゲートすることができる。
- 参考スコア(独自算出の注目度): 6.397763079214294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interactive applications demand believable characters that respond naturally to dynamic environments. Traditional character animation techniques often struggle to handle arbitrary situations, leading to a growing trend of dynamically selecting motion-captured animations based on predefined features. While Motion Matching has proven effective for locomotion by aligning to target trajectories, animating environment interactions and crowd behaviors remains challenging due to the need to consider surrounding elements. Existing approaches often involve manual setup or lack the naturalism of motion capture. Furthermore, in crowd animation, body animation is frequently treated as a separate process from trajectory planning, leading to inconsistencies between body pose and root motion. To address these limitations, we present Environment-aware Motion Matching, a novel real-time system for full-body character animation that dynamically adapts to obstacles and other agents, emphasizing the bidirectional relationship between pose and trajectory. In a preprocessing step, we extract shape, pose, and trajectory features from a motion capture database. At runtime, we perform an efficient search that matches user input and current pose while penalizing collisions with a dynamic environment. Our method allows characters to naturally adjust their pose and trajectory to navigate crowded scenes.
- Abstract(参考訳): インタラクティブなアプリケーションは、動的環境に自然に応答する信じられない文字を要求する。
伝統的なキャラクターアニメーション技術は、任意の状況を扱うのに苦労することが多く、事前に定義された特徴に基づいて動的にモーションキャプチャーされたアニメーションを選択する傾向が増している。
運動マッチングは目標軌道に合わせることで移動に有効であることが証明されているが、周囲の要素を考える必要があるため、環境相互作用のアニメーションや群衆の行動は依然として困難である。
既存のアプローチでは手動のセットアップやモーションキャプチャーの自然主義が欠如していることが多い。
さらに、群衆アニメーションでは、身体のアニメーションは軌道計画とは別のプロセスとして扱われることが多く、身体のポーズと根の動きの矛盾が生じる。
これらの制約に対処するため,実写キャラクターアニメーションのための新しいリアルタイムシステムであるEnvironment-Aware Motion Matchingを提案し,ポーズと軌道の双方向関係を強調した。
前処理のステップでは、モーションキャプチャーデータベースから形状、ポーズ、軌跡の特徴を抽出する。
実行時に、動的環境との衝突をペナルティ化しながら、ユーザの入力と現在のポーズとを一致させる効率的な探索を行う。
本手法により,キャラクターは自然にポーズや軌道を調整し,混雑するシーンをナビゲートすることができる。
関連論文リスト
- Animate Anyone 2: High-Fidelity Character Image Animation with Environment Affordance [30.225654002561512]
Animate Anyone 2を紹介する。
本研究では,文字と環境の関係をより効果的に特徴づける形状に依存しないマスク戦略を提案する。
また、モデルがより多様な動きパターンを扱えるように、ポーズ変調戦略を導入する。
論文 参考訳(メタデータ) (2025-02-10T04:20:11Z) - X-Dyna: Expressive Dynamic Human Image Animation [49.896933584815926]
X-Dynaは、単一の人間のイメージをアニメーションするための、ゼロショットで拡散ベースのパイプラインである。
対象と周辺環境の両方に対して現実的でコンテキスト対応のダイナミクスを生成する。
論文 参考訳(メタデータ) (2025-01-17T08:10:53Z) - Motion Prompting: Controlling Video Generation with Motion Trajectories [57.049252242807874]
スパースもしくは高密度なビデオ軌跡を条件とした映像生成モデルを訓練する。
ハイレベルなユーザリクエストを,詳細なセミセンスな動作プロンプトに変換する。
我々は、カメラや物体の動き制御、画像との「相互作用」、動画転送、画像編集など、様々な応用を通してアプローチを実証する。
論文 参考訳(メタデータ) (2024-12-03T18:59:56Z) - Physics-based Scene Layout Generation from Human Motion [21.939444709132395]
本研究では、シーンレイアウト生成を同時に最適化し、物理シミュレータで動く人間をシミュレートする物理に基づくアプローチを提案する。
我々は、強化学習を用いて、キャラクタ動作模倣コントローラとシーンレイアウトジェネレータの両方の二重最適化を行う。
提案手法は,SAMPとPROXの動作を用いて評価し,従来のキネマティクス法と比較して,物理的に妥当なシーンレイアウトの再構築を示す。
論文 参考訳(メタデータ) (2024-05-21T02:36:37Z) - Motion In-Betweening with Phase Manifolds [29.673541655825332]
本稿では,周期的オートエンコーダによって学習された位相変数を利用して,文字のターゲットポーズに到達するための,新たなデータ駆動型動作制御システムを提案する。
提案手法では,経験的ニューラルネットワークモデルを用いて,空間と時間の両方のクラスタの動きを,異なる専門家の重みで解析する。
論文 参考訳(メタデータ) (2023-08-24T12:56:39Z) - QuestEnvSim: Environment-Aware Simulated Motion Tracking from Sparse
Sensors [69.75711933065378]
ヘッドセットとコントローラーのポーズは,高度に制約された環境においても,現実的なフルボディのポーズを生成可能であることを示す。
本稿では,環境表現,接触報酬,シーンランダム化の3つの特徴について論じる。
論文 参考訳(メタデータ) (2023-06-09T04:40:38Z) - Synthesizing Physical Character-Scene Interactions [64.26035523518846]
仮想キャラクタとその周辺環境間のこのような相互作用を合成する必要がある。
本稿では,逆模倣学習と強化学習を用いて物理シミュレーション文字を学習するシステムを提案する。
我々のアプローチは、物理学に基づくキャラクターモーション生成を広い適用性に一歩近づいた。
論文 参考訳(メタデータ) (2023-02-02T05:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。