論文の概要: PP-Motion: Physical-Perceptual Fidelity Evaluation for Human Motion Generation
- arxiv url: http://arxiv.org/abs/2508.08179v1
- Date: Mon, 11 Aug 2025 16:59:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.222051
- Title: PP-Motion: Physical-Perceptual Fidelity Evaluation for Human Motion Generation
- Title(参考訳): PP-Motion:人間の運動生成のための物理的知覚的忠実度評価
- Authors: Sihan Zhao, Zixuan Wang, Tianyu Luan, Jia Jia, Wentao Zhu, Jiebo Luo, Junsong Yuan, Nan Xi,
- Abstract要約: 人間の運動生成は、AR/VR、映画、スポーツ、医療リハビリテーションに広く応用されている。
従来のアプローチでは、人間の知覚や身体的制約を用いた動きの忠実度評価が試みられている。
人間の運動の身体的および知覚的忠実度を評価するための新しいデータ駆動計量PP-Motionを提案する。
- 参考スコア(独自算出の注目度): 84.40992836326613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human motion generation has found widespread applications in AR/VR, film, sports, and medical rehabilitation, offering a cost-effective alternative to traditional motion capture systems. However, evaluating the fidelity of such generated motions is a crucial, multifaceted task. Although previous approaches have attempted at motion fidelity evaluation using human perception or physical constraints, there remains an inherent gap between human-perceived fidelity and physical feasibility. Moreover, the subjective and coarse binary labeling of human perception further undermines the development of a robust data-driven metric. We address these issues by introducing a physical labeling method. This method evaluates motion fidelity by calculating the minimum modifications needed for a motion to align with physical laws. With this approach, we are able to produce fine-grained, continuous physical alignment annotations that serve as objective ground truth. With these annotations, we propose PP-Motion, a novel data-driven metric to evaluate both physical and perceptual fidelity of human motion. To effectively capture underlying physical priors, we employ Pearson's correlation loss for the training of our metric. Additionally, by incorporating a human-based perceptual fidelity loss, our metric can capture fidelity that simultaneously considers both human perception and physical alignment. Experimental results demonstrate that our metric, PP-Motion, not only aligns with physical laws but also aligns better with human perception of motion fidelity than previous work.
- Abstract(参考訳): 人間のモーション生成は、AR/VR、映画、スポーツ、医療再生に広く応用されており、従来のモーションキャプチャシステムに代わる費用対効果がある。
しかし、そのような動きの忠実さを評価することは重要であり、多面的課題である。
従来のアプローチでは、人間の知覚や身体的制約を用いた動きの忠実度評価を試みてきたが、人間の知覚の忠実度と身体的実現可能性の間には、固有のギャップが残っている。
さらに、人間の知覚の主観的かつ粗大なバイナリラベリングは、ロバストなデータ駆動メトリックの開発をさらに損なう。
物理的ラベリング手法を導入することにより,これらの課題に対処する。
本手法は,運動法則に整合するために必要な最小修正量を計算することにより,運動の忠実度を評価する。
このアプローチにより、客観的な基礎的真理として機能する細粒で連続的な物理的アライメントアノテーションを作成できる。
これらのアノテーションを用いて,人間の動作の身体的および知覚的忠実度を評価するための新しいデータ駆動計量PP-Motionを提案する。
基礎となる物理的前提を効果的に把握するために、我々の計量の訓練にピアソンの相関損失を用いる。
さらに、人間の知覚的忠実度損失を組み込むことで、人間の知覚と身体的アライメントの両方を同時に考慮した忠実度を捉えることができる。
実験の結果,我々の測定値であるPP-Motionは,物理法則に適合するだけでなく,人間の運動の忠実性も従来よりも良く一致していることがわかった。
関連論文リスト
- Reconstructing Close Human Interaction with Appearance and Proxemics Reasoning [50.76723760768117]
既存の人間のポーズ推定手法では、既存の映像からもっともらしい密接な相互作用を回復できない。
人間の外見は、これらの障害に対処するための簡単な手がかりとなる。
本研究では,人間の外見,社会的プロキシ,物理法則に制約された身体接触により,正確な対話動作を再構築するための2分岐最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-03T12:19:26Z) - Measuring Physical Plausibility of 3D Human Poses Using Physics Simulation [19.26289173517333]
本研究では,任意の3次元姿勢推定モデルから予測された3次元ポーズの物理的妥当性と安定性を捉えるための2つの指標を提案する。
物理シミュレーションを用いて,既存の可視性測定値との相関と運動時の安定性の測定を行う。
論文 参考訳(メタデータ) (2025-02-06T20:15:49Z) - COIN: Control-Inpainting Diffusion Prior for Human and Camera Motion Estimation [98.05046790227561]
COINは、人間の動きとカメラの動きを細粒度に制御できる、コントロール・インパインティング・モーション拡散である。
COINは、グローバルな人間の動き推定とカメラの動き推定という観点から、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-08-29T10:36:29Z) - OPPH: A Vision-Based Operator for Measuring Body Movements for Personal Healthcare [19.468689776476104]
視覚に基づく運動推定法は、医療目的のために人体の動きを正確にかつ控えめに推定する。
これらの方法は、医療目的のために特別に設計されたものではなく、現実世界のアプリケーションにおいて課題に直面している。
本稿では,現在の視覚に基づく動き推定手法を強化するためのOPPH演算子を提案する。
論文 参考訳(メタデータ) (2024-08-18T08:52:22Z) - Aligning Human Motion Generation with Human Perceptions [51.831338643012444]
本研究では,大規模人間の知覚評価データセットであるMotionPerceptと,人間の動作批判モデルであるMotionCriticを導入することにより,ギャップを埋めるデータ駆動型アプローチを提案する。
我々の批評家モデルは、運動品質を評価するためのより正確な指標を提供しており、容易に運動生成パイプラインに統合することができる。
論文 参考訳(メタデータ) (2024-07-02T14:01:59Z) - Neural MoCon: Neural Motion Control for Physically Plausible Human
Motion Capture [12.631678059354593]
我々は、高精度で微分不可能な物理シミュレータを利用して、モーションキャプチャーに動的制約を組み込む。
我々のキーイデアは、実際の物理的な監督を利用して、サンプリングベースのモーションコントロールの前にターゲットのポーズ分布をトレーニングすることです。
その結果, 複雑な地形相互作用, 人体形状の変化, 多様な行動を伴う身体的可視な人体運動が得られた。
論文 参考訳(メタデータ) (2022-03-26T12:48:41Z) - Contact-Aware Retargeting of Skinned Motion [49.71236739408685]
本稿では,自己接触を保存し,相互接続を防止する動作推定手法を提案する。
入力運動における自己接触と接地を同定し、出力骨格に適用するための動作を最適化する。
実験では,従来の手法を定量的に上回り,近年の成果よりも高い品質で再ターゲットされた動きを評価できるユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-09-15T17:05:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。