論文の概要: MotionAug: Augmentation with Physical Correction for Human Motion
Prediction
- arxiv url: http://arxiv.org/abs/2203.09116v4
- Date: Thu, 17 Aug 2023 07:00:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 20:13:07.560335
- Title: MotionAug: Augmentation with Physical Correction for Human Motion
Prediction
- Title(参考訳): MotionAug:人間の動作予測のための物理的補正による強化
- Authors: Takahiro Maeda and Norimichi Ukita
- Abstract要約: 本稿では,動き合成を取り入れた動きデータ拡張手法を提案する。
提案手法は,リカレントニューラルネットワークとグラフ畳み込みネットワークを併用した人間の動き予測モデルにおいて,従来の雑音に基づく動き増進手法よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 19.240717471864723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a motion data augmentation scheme incorporating motion
synthesis encouraging diversity and motion correction imposing physical
plausibility. This motion synthesis consists of our modified Variational
AutoEncoder (VAE) and Inverse Kinematics (IK). In this VAE, our proposed
sampling-near-samples method generates various valid motions even with
insufficient training motion data. Our IK-based motion synthesis method allows
us to generate a variety of motions semi-automatically. Since these two schemes
generate unrealistic artifacts in the synthesized motions, our motion
correction rectifies them. This motion correction scheme consists of imitation
learning with physics simulation and subsequent motion debiasing. For this
imitation learning, we propose the PD-residual force that significantly
accelerates the training process. Furthermore, our motion debiasing
successfully offsets the motion bias induced by imitation learning to maximize
the effect of augmentation. As a result, our method outperforms previous
noise-based motion augmentation methods by a large margin on both Recurrent
Neural Network-based and Graph Convolutional Network-based human motion
prediction models. The code is available at
https://github.com/meaten/MotionAug.
- Abstract(参考訳): 本稿では,多様性と運動補正を奨励する運動合成を組み込んだ運動データ拡張方式を提案する。
この運動合成は改良型変分オートエンコーダ (vae) と逆キネマティックス (ik) から構成される。
このvaeにおいて,本提案手法では,訓練動作データ不足であっても様々な有効動作を生成する。
IKに基づく動作合成法により,半自動で様々な動きを生成できる。
これらの2つのスキームは合成された動きに非現実的なアーティファクトを生成するので、我々の運動補正はそれらを修正します。
この運動補正スキームは、物理シミュレーションによる模倣学習とその後の運動偏りを含む。
この模倣学習のために,訓練過程を著しく加速するPD残留力を提案する。
さらに, 模倣学習によって引き起こされる運動バイアスをオフセットし, 強化の効果を最大化する。
その結果,本手法は,ニューラルネットワークとグラフ畳み込みネットワークに基づく人間の動き予測モデルの両方において,従来のノイズベース動作拡張手法を大きなマージンで上回っている。
コードはhttps://github.com/meaten/motionaugで入手できる。
関連論文リスト
- A Plug-and-Play Physical Motion Restoration Approach for In-the-Wild High-Difficulty Motions [56.709280823844374]
動作コンテキストとビデオマスクを利用して、欠陥のある動作を修復するマスクベースの動作補正モジュール(MCM)を導入する。
また,運動模倣のための事前訓練および適応手法を用いた物理ベースの運動伝達モジュール (PTM) を提案する。
本手法は,高速な移動を含む映像モーションキャプチャ結果を物理的に洗練するためのプラグイン・アンド・プレイモジュールとして設計されている。
論文 参考訳(メタデータ) (2024-12-23T08:26:00Z) - MotionStone: Decoupled Motion Intensity Modulation with Diffusion Transformer for Image-to-Video Generation [55.238542326124545]
静止画像に画像間(I2V)生成を条件付け、動き強度を付加的な制御信号として最近強化した。
これらの動き認識モデルは多様な動きパターンを生成するために魅力的だが、そのようなモデルを野生の大規模ビデオでトレーニングするための信頼性の高い動き推定器は存在しない。
本稿では,映像中の物体とカメラのデカップリング運動強度を計測できる新しい動き推定器の課題に対処する。
論文 参考訳(メタデータ) (2024-12-08T08:12:37Z) - Optimal-state Dynamics Estimation for Physics-based Human Motion Capture from Videos [6.093379844890164]
オンライン環境での運動学観測に物理モデルを選択的に組み込む新しい手法を提案する。
リカレントニューラルネットワークを導入し、キネマティックス入力とシミュレートされた動作を熱心にバランスするカルマンフィルタを実現する。
提案手法は,物理に基づく人間のポーズ推定作業に優れ,予測力学の物理的妥当性を示す。
論文 参考訳(メタデータ) (2024-10-10T10:24:59Z) - Spectral Motion Alignment for Video Motion Transfer using Diffusion Models [54.32923808964701]
スペクトル運動アライメント(英: Spectral Motion Alignment、SMA)は、フーリエ変換とウェーブレット変換を用いて運動ベクトルを洗練・整列するフレームワークである。
SMAは周波数領域の正規化を取り入れて動きパターンを学習し、全体フレームのグローバルな動きのダイナミクスの学習を容易にする。
大規模な実験は、様々なビデオカスタマイズフレームワーク間の計算効率と互換性を維持しながら、モーション転送を改善するSMAの有効性を示す。
論文 参考訳(メタデータ) (2024-03-22T14:47:18Z) - DEMOS: Dynamic Environment Motion Synthesis in 3D Scenes via Local
Spherical-BEV Perception [54.02566476357383]
本研究では,動的環境運動合成フレームワーク(DEMOS)を提案する。
次に、最終動作合成のために潜在動作を動的に更新する。
その結果,本手法は従来の手法よりも優れ,動的環境の処理性能も優れていた。
論文 参考訳(メタデータ) (2024-03-04T05:38:16Z) - Motion Flow Matching for Human Motion Synthesis and Editing [75.13665467944314]
本研究では,効率的なサンプリングと効率性を備えた人体運動生成のための新しい生成モデルであるemphMotion Flow Matchingを提案する。
提案手法は, 従来の拡散モデルにおいて, サンプリングの複雑さを1000ステップから10ステップに減らし, テキスト・ツー・モーション・ジェネレーション・ベンチマークやアクション・ツー・モーション・ジェネレーション・ベンチマークで同等の性能を実現する。
論文 参考訳(メタデータ) (2023-12-14T12:57:35Z) - Motion Matters: Neural Motion Transfer for Better Camera Physiological
Measurement [25.27559386977351]
身体の動きは、ビデオから微妙な心臓の脈を回復しようとするとき、最も重要なノイズ源の1つである。
我々は,遠隔光合成のタスクのために,ニューラルビデオ合成アプローチをビデオの拡張に適用する。
各種の最先端手法を用いて,既存のデータセット間結果よりも47%向上したことを示す。
論文 参考訳(メタデータ) (2023-03-21T17:51:23Z) - HumanMAC: Masked Motion Completion for Human Motion Prediction [62.279925754717674]
人間の動き予測はコンピュータビジョンとコンピュータグラフィックスの古典的な問題である。
従来の効果はエンコーディング・デコード方式に基づく経験的性能を実現している。
本稿では,新しい視点から新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-07T18:34:59Z) - Physics-based Human Motion Estimation and Synthesis from Videos [0.0]
単眼のRGBビデオから直接、身体的に可視な人間の動きの生成モデルを訓練するための枠組みを提案する。
提案手法のコアとなるのは,不完全な画像に基づくポーズ推定を補正する新しい最適化式である。
その結果,我々の身体的補正動作は,ポーズ推定における先行作業よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-09-21T01:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。