論文の概要: Perpetual Motion: Generating Unbounded Human Motion
- arxiv url: http://arxiv.org/abs/2007.13886v1
- Date: Mon, 27 Jul 2020 21:50:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 08:56:04.794041
- Title: Perpetual Motion: Generating Unbounded Human Motion
- Title(参考訳): 永久運動:非有界ヒト運動の生成
- Authors: Yan Zhang and Michael J. Black and Siyu Tang
- Abstract要約: 我々は、長期的な予測、つまり、人間の動きの長いシーケンスを生成することに焦点を当てる。
本研究では,非決定論的,テキストに変化する,永続的な人間の動きを生成するモデルを提案する。
我々は、これをホワイトノイズガウス過程のKL分岐の重み付き関数を用いて訓練し、潜時シーケンスの時間依存性を許容する。
- 参考スコア(独自算出の注目度): 61.40259979876424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The modeling of human motion using machine learning methods has been widely
studied. In essence it is a time-series modeling problem involving predicting
how a person will move in the future given how they moved in the past. Existing
methods, however, typically have a short time horizon, predicting a only few
frames to a few seconds of human motion. Here we focus on long-term prediction;
that is, generating long sequences (potentially infinite) of human motion that
is plausible. Furthermore, we do not rely on a long sequence of input motion
for conditioning, but rather, can predict how someone will move from as little
as a single pose. Such a model has many uses in graphics (video games and crowd
animation) and vision (as a prior for human motion estimation or for dataset
creation). To address this problem, we propose a model to generate
non-deterministic, \textit{ever-changing}, perpetual human motion, in which the
global trajectory and the body pose are cross-conditioned. We introduce a novel
KL-divergence term with an implicit, unknown, prior. We train this using a
heavy-tailed function of the KL divergence of a white-noise Gaussian process,
allowing latent sequence temporal dependency. We perform systematic experiments
to verify its effectiveness and find that it is superior to baseline methods.
- Abstract(参考訳): 機械学習を用いた人間の動きのモデル化は広く研究されている。
本質的には、過去にどのように動いたかを考えると、人が将来どのように動くかを予測することを伴う時系列モデリングの問題である。
しかし、既存の方法は通常、短い時間軸を持ち、わずか数フレームから数秒の人間の動きを予測している。
ここでは、人間の動きの長いシーケンス(潜在的に無限)を生成するという長期的な予測に焦点を当てます。
さらに,コンディショニングのための入力動作の長いシーケンスに頼るのではなく,1回のポーズで人がどのように動くかを予測できる。
このようなモデルは、グラフィックス(ビデオゲームや群衆アニメーション)や視覚(人間の動き推定やデータセット作成の先駆けとして)に多くの用途がある。
この問題に対処するために,大域的軌道と身体の姿勢がクロスコンディショニングされた永久的人間の運動を非決定論的に生成するモデルを提案する。
我々は,新しいkl-divergence項と暗黙的未知項を導入する。
我々は、白色雑音ガウス過程のkl発散の重尾関数を用いてこれを訓練し、潜在シーケンスの時間依存性を許容する。
提案手法の有効性を検証し,ベースライン法よりも優れていることを示す。
関連論文リスト
- DMMGAN: Diverse Multi Motion Prediction of 3D Human Joints using
Attention-Based Generative Adverserial Network [9.247294820004143]
本稿では,多種多様な人間の動きを予測するためのトランスフォーマーに基づく生成モデルを提案する。
本モデルでは、まず、股関節に対する身体の姿勢を予測し、次に、textitHip予測モジュールが、予測された各ポーズフレームに対する股関節運動の軌跡を予測する。
本研究では,ヒトの動作予測において,股関節運動を伴う多動将来の軌跡を予測しながら,最先端の動作予測に優れることを示す。
論文 参考訳(メタデータ) (2022-09-13T23:22:33Z) - 3D Skeleton-based Human Motion Prediction with Manifold-Aware GAN [3.1313293632309827]
本研究では,3次元骨格を用いた人体動作予測の新しい手法を提案する。
我々は,人間の運動の時間的および空間的依存を捉える,多様体を意識したワッサーシュタイン生成逆数モデルを構築した。
CMU MoCapとHuman 3.6Mデータセットで実験が行われた。
論文 参考訳(メタデータ) (2022-03-01T20:49:13Z) - Investigating Pose Representations and Motion Contexts Modeling for 3D
Motion Prediction [63.62263239934777]
歴史的ポーズシーケンスから人間の動きを予測することは、機械が人間と知的な相互作用を成功させるために不可欠である。
本研究では,様々なポーズ表現に関する詳細な研究を行い,その動作予測課題に対する効果に着目した。
AHMR(Attentive Hierarchical Motion Recurrent Network)と呼ばれる新しいRNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-30T10:45:22Z) - Generating Smooth Pose Sequences for Diverse Human Motion Prediction [90.45823619796674]
本稿では,多様な動作予測と制御可能な動作予測のための統合された深部生成ネットワークを提案する。
標準ベンチマークデータセットであるHuman3.6MとHumanEva-Iの2つの実験は、我々のアプローチがサンプルの多様性と精度の両方において最先端のベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2021-08-19T00:58:00Z) - 3D Human motion anticipation and classification [8.069283749930594]
人間の動き予測と特徴学習のための新しいシーケンス・トゥ・シークエンスモデルを提案する。
我々のモデルは、同じ入力シーケンスから複数の人間のポーズの将来のシーケンスを予測することを学習する。
識別器から学習した特徴を用いて,行動認識ネットワークを訓練するには,エポック数の半分以下しかかからないことを示す。
論文 参考訳(メタデータ) (2020-12-31T00:19:39Z) - Long Term Motion Prediction Using Keyposes [122.22758311506588]
長期的な予測を達成するには、瞬時に人間のポーズを予測する必要があると論じている。
このようなポーズを「キーポス」と呼び、後続のキーポスを線形に補間して近似する複素運動と呼ぶ。
このようなキープレースのシーケンスを学習することで,将来的には最大5秒まで,非常に長期にわたる動作を予測できることが示される。
論文 参考訳(メタデータ) (2020-12-08T20:45:51Z) - We are More than Our Joints: Predicting how 3D Bodies Move [63.34072043909123]
我々は、潜時周波数から動きを生成する新しい変分オートエンコーダを訓練する。
実験の結果,本手法は最先端の3Dボディアニメーションとリアルな3Dボディアニメーションを生成することがわかった。
論文 参考訳(メタデータ) (2020-12-01T16:41:04Z) - Motion Prediction Using Temporal Inception Module [96.76721173517895]
人間の動作を符号化するTIM(Temporal Inception Module)を提案する。
本フレームワークは,異なる入力長に対して異なるカーネルサイズを用いて,畳み込み層を用いて入力埋め込みを生成する。
標準的な動き予測ベンチマークデータセットであるHuman3.6MとCMUのモーションキャプチャデータセットの実験結果から,我々の手法は一貫して技術手法の状態を上回ります。
論文 参考訳(メタデータ) (2020-10-06T20:26:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。