論文の概要: UniPhys: Unified Planner and Controller with Diffusion for Flexible Physics-Based Character Control
- arxiv url: http://arxiv.org/abs/2504.12540v1
- Date: Thu, 17 Apr 2025 00:04:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:35:20.223476
- Title: UniPhys: Unified Planner and Controller with Diffusion for Flexible Physics-Based Character Control
- Title(参考訳): UniPhys:フレキシブル物理ベースの文字制御のための統一プランナーと拡散制御器
- Authors: Yan Wu, Korrawe Karunratanakul, Zhengyi Luo, Siyu Tang,
- Abstract要約: 拡散に基づく行動クローニングフレームワークであるUniPhysを導入し,動作計画と制御をひとつのモデルに統一する。
UniPhysは、テキスト、軌跡、ゴールなどのマルチモーダル入力に条件付けされた柔軟で表現力のあるキャラクターの動きを可能にする。
また,UniPhysは,様々な制御タスクにおいて,動作自然性,一般化,ロバスト性において,従来の手法よりも優れていたことを示す。
- 参考スコア(独自算出の注目度): 11.084032074792763
- License:
- Abstract: Generating natural and physically plausible character motion remains challenging, particularly for long-horizon control with diverse guidance signals. While prior work combines high-level diffusion-based motion planners with low-level physics controllers, these systems suffer from domain gaps that degrade motion quality and require task-specific fine-tuning. To tackle this problem, we introduce UniPhys, a diffusion-based behavior cloning framework that unifies motion planning and control into a single model. UniPhys enables flexible, expressive character motion conditioned on multi-modal inputs such as text, trajectories, and goals. To address accumulated prediction errors over long sequences, UniPhys is trained with the Diffusion Forcing paradigm, learning to denoise noisy motion histories and handle discrepancies introduced by the physics simulator. This design allows UniPhys to robustly generate physically plausible, long-horizon motions. Through guided sampling, UniPhys generalizes to a wide range of control signals, including unseen ones, without requiring task-specific fine-tuning. Experiments show that UniPhys outperforms prior methods in motion naturalness, generalization, and robustness across diverse control tasks.
- Abstract(参考訳): 自然と物理的に可視なキャラクターの動きを生成することは、特に様々な誘導信号を持つ長距離制御において、依然として困難である。
従来の作業では、高レベルの拡散ベースのモーションプランナーと低レベルの物理コントローラを組み合わせるが、これらのシステムは、動作品質を低下させ、タスク固有の微調整を必要とする領域ギャップに悩まされる。
この問題に対処するために,1つのモデルに運動計画と制御を統一する拡散型行動クローニングフレームワークUniPhysを紹介する。
UniPhysは、テキスト、軌跡、ゴールなどのマルチモーダル入力に条件付けされた柔軟で表現力のあるキャラクターの動きを可能にする。
長いシーケンスで蓄積された予測エラーに対処するために、UniPhysは拡散強制パラダイムを用いて訓練され、ノイズの多い運動履歴を識別し、物理シミュレータが導入した矛盾に対処する。
この設計により、UniPhysは物理的に可塑性で長い水平運動を強く生成できる。
ガイド付きサンプリングにより、UniPhysはタスク固有の微調整を必要とせず、見えないものを含む幅広い制御信号を一般化する。
実験により、UniPhysは様々な制御タスクの動作自然性、一般化、堅牢性において、先行手法よりも優れていたことが示されている。
関連論文リスト
- Morph: A Motion-free Physics Optimization Framework for Human Motion Generation [25.51726849102517]
我々のフレームワークは、身体的可視性を大幅に向上させながら、最先端のモーション生成品質を実現する。
テキスト・トゥ・モーション・アンド・ミュージック・トゥ・ダンス・ジェネレーション・タスクの実験は、我々のフレームワークが最先端のモーション・ジェネレーション・クオリティを達成することを示す。
論文 参考訳(メタデータ) (2024-11-22T14:09:56Z) - Optimal-state Dynamics Estimation for Physics-based Human Motion Capture from Videos [6.093379844890164]
オンライン環境での運動学観測に物理モデルを選択的に組み込む新しい手法を提案する。
リカレントニューラルネットワークを導入し、キネマティックス入力とシミュレートされた動作を熱心にバランスするカルマンフィルタを実現する。
提案手法は,物理に基づく人間のポーズ推定作業に優れ,予測力学の物理的妥当性を示す。
論文 参考訳(メタデータ) (2024-10-10T10:24:59Z) - MaskedMimic: Unified Physics-Based Character Control Through Masked Motion Inpainting [38.15158715821526]
MaskedMimicは、物理に基づく文字制御を一般的なモーションインペイント問題として定式化する新しいアプローチである。
MaskedMimicは、モーションインペイントによる文字制御を統一することにより、多目的な仮想文字を生成する。
これらのキャラクターは複雑なシーンに動的に適応し、必要に応じて多様な動きを構成でき、よりインタラクティブで没入的な体験を可能にする。
論文 参考訳(メタデータ) (2024-09-22T11:10:59Z) - Programmable Motion Generation for Open-Set Motion Control Tasks [51.73738359209987]
我々は新しいパラダイム、プログラム可能なモーション生成を導入する。
このパラダイムでは、任意の運動制御タスクは原子制約の組み合わせに分解される。
これらの制約は、運動列がそれに付着する程度を定量化するエラー関数にプログラムされる。
論文 参考訳(メタデータ) (2024-05-29T17:14:55Z) - InsActor: Instruction-driven Physics-based Characters [65.4702927454252]
本稿では,物理系文字の命令駆動型アニメーションを生成する,原理的生成フレームワークを提案する。
我々のフレームワークは、InsActorに高レベルな人間の指示とキャラクターの動きの間の複雑な関係をキャプチャする権限を与える。
InsActorは、命令駆動のモーション生成や命令駆動のウェイポイント誘導など、様々なタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-28T17:10:31Z) - DROP: Dynamics Responses from Human Motion Prior and Projective Dynamics [21.00283279991885]
DROPは、生成的mOtionと射影力学を用いた人間のダイナミクス応答をモデリングするための新しいフレームワークである。
様々な動作タスクや様々な物理的摂動にまたがってモデルを広範囲に評価し、応答のスケーラビリティと多様性を実証する。
論文 参考訳(メタデータ) (2023-09-24T20:25:59Z) - PhysFormer++: Facial Video-based Physiological Measurement with SlowFast
Temporal Difference Transformer [76.40106756572644]
最近のディープラーニングアプローチは、時間的受容の限られた畳み込みニューラルネットワークを用いた微妙な手がかりのマイニングに重点を置いている。
本稿では,PhysFormerとPhys++++をベースとした2つのエンドツーエンドビデオ変換器を提案する。
4つのベンチマークデータセットで総合的な実験を行い、時間内テストとクロスデータセットテストの両方において優れた性能を示す。
論文 参考訳(メタデータ) (2023-02-07T15:56:03Z) - PlasticineLab: A Soft-Body Manipulation Benchmark with Differentiable
Physics [89.81550748680245]
PasticineLabと呼ばれる新しい微分可能な物理ベンチマークを導入する。
各タスクにおいて、エージェントはマニピュレータを使用して、プラスチックを所望の構成に変形させる。
本稿では,既存の強化学習(RL)手法と勾配に基づく手法について評価する。
論文 参考訳(メタデータ) (2021-04-07T17:59:23Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z) - UniCon: Universal Neural Controller For Physics-based Character Motion [70.45421551688332]
大規模動作データセットから学習することで,異なるスタイルで数千の動作を習得する物理ベースのユニバーサルニューラルコントローラ(UniCon)を提案する。
UniConは、キーボード駆動制御をサポートし、ロコモーションとアクロバティックスキルの大きなプールから引き出されたモーションシーケンスを作成し、ビデオで撮影した人を物理ベースの仮想アバターにテレポートする。
論文 参考訳(メタデータ) (2020-11-30T18:51:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。