論文の概要: Convolutional Autoencoders for Human Motion Infilling
- arxiv url: http://arxiv.org/abs/2010.11531v1
- Date: Thu, 22 Oct 2020 08:45:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 07:00:01.127575
- Title: Convolutional Autoencoders for Human Motion Infilling
- Title(参考訳): 人間の運動入力のための畳み込みオートエンコーダ
- Authors: Manuel Kaufmann, Emre Aksan, Jie Song, Fabrizio Pece, Remo Ziegler,
Otmar Hilliges
- Abstract要約: モーションインフィルメントは、入力されたポーズがスタートシーケンスを確実に予測し、エンドシーケンスに自然に遷移するような、欠落したギャップを埋めることを目的としている。
一つのモデルを用いて、異なるタイプのアクティビティ間の自然な遷移を生成できることが示される。
提案手法は, 欠落フレーム全体を埋めるだけでなく, 部分的なポーズが利用できるようなギャップを埋めるのにも利用できる。
- 参考スコア(独自算出の注目度): 37.16099544563645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose a convolutional autoencoder to address the problem
of motion infilling for 3D human motion data. Given a start and end sequence,
motion infilling aims to complete the missing gap in between, such that the
filled in poses plausibly forecast the start sequence and naturally transition
into the end sequence. To this end, we propose a single, end-to-end trainable
convolutional autoencoder. We show that a single model can be used to create
natural transitions between different types of activities. Furthermore, our
method is not only able to fill in entire missing frames, but it can also be
used to complete gaps where partial poses are available (e.g. from end
effectors), or to clean up other forms of noise (e.g. Gaussian). Also, the
model can fill in an arbitrary number of gaps that potentially vary in length.
In addition, no further post-processing on the model's outputs is necessary
such as smoothing or closing discontinuities at the end of the gap. At the
heart of our approach lies the idea to cast motion infilling as an inpainting
problem and to train a convolutional de-noising autoencoder on image-like
representations of motion sequences. At training time, blocks of columns are
removed from such images and we ask the model to fill in the gaps. We
demonstrate the versatility of the approach via a number of complex motion
sequences and report on thorough evaluations performed to better understand the
capabilities and limitations of the proposed approach.
- Abstract(参考訳): 本稿では,人間の3次元動作データに対する動作入出力の問題に対処する畳み込みオートエンコーダを提案する。
開始シーケンスと終了シーケンスが与えられたとき、入力されたポーズがスタートシーケンスを確実に予測し、終了シーケンスに自然に遷移するような、中間の欠落を埋めることを目的としている。
そこで本研究では,一対一で訓練可能な畳み込みオートエンコーダを提案する。
一つのモデルを用いて、異なるタイプのアクティビティ間の自然な遷移を生成できることを示す。
さらに,本手法は,欠落したフレーム全体を埋め込むだけでなく,部分的なポーズ(例えば,エンドエフェクタから)が利用可能なギャップを完成させたり,他の種類のノイズ(例えばガウシアン)を浄化したりすることができる。
また、モデルは、潜在的に長さが変化する可能性のある任意の数のギャップを埋めることができる。
加えて、モデルの出力に対するさらなる後処理は、ギャップの最後に不連続を平滑化または閉じるなど不要である。
我々のアプローチの核心は、画像のような動きシーケンスの表現に基づいて、動きの埋め込みを塗装問題としてキャストし、畳み込みデノイズ自動エンコーダを訓練することにある。
トレーニング時には,このような画像から列のブロックを除去し,そのギャップを埋めるようにモデルに依頼する。
提案手法の能力と限界をよりよく理解するために,複数の複雑な動き列を通して,アプローチの汎用性を実証し,詳細な評価結果について報告する。
関連論文リスト
- Text-guided 3D Human Motion Generation with Keyframe-based Parallel Skip Transformer [62.29951737214263]
既存のアルゴリズムは、コストがかかりエラーを起こしやすい全シーケンスを直接生成する。
本稿では,入力テキストに対応する人間の動作系列を生成するKeyMotionを提案する。
我々は,自動エンコーダを潜在空間に投影するために,Kullback-Leibler正規化付き変分符号器(VAE)を用いる。
逆拡散のために,デザインラテントとテキスト条件の相互参照を行う新しいパラレルスキップ変換器を提案する。
論文 参考訳(メタデータ) (2024-05-24T11:12:37Z) - RoHM: Robust Human Motion Reconstruction via Diffusion [58.63706638272891]
RoHMは、モノクロRGB(-D)ビデオから頑健な3次元人間の動きを復元するためのアプローチである。
ノイズと閉鎖された入力データに条件付けし、一貫した大域座標で完全な可塑性運動を再構成した。
本手法は,テスト時に高速でありながら,定性的かつ定量的に最先端の手法より優れる。
論文 参考訳(メタデータ) (2024-01-16T18:57:50Z) - Learning Snippet-to-Motion Progression for Skeleton-based Human Motion
Prediction [14.988322340164391]
人間の動きを予測するために既存のグラフ畳み込みネットワークは、主にワンステップのスキームを採用している。
人間の動きはトランジションパターンを持ち、各トランジションを表すスニペットに分割することができる。
動作予測をサブタスクに分割するスニペット・ツー・モーション・マルチステージ・フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:36:38Z) - Shuffled Autoregression For Motion Interpolation [53.61556200049156]
この作業は、モーションタスクのためのディープラーニングソリューションを提供することを目的としている。
本稿では,自己回帰を任意の(シャッフルされた)順序で生成するために拡張する,emphShuffled AutoRegressionと呼ばれる新しいフレームワークを提案する。
また,3つのステージを終端から終端の時空間運動変換器に組み込んだ依存グラフの構築手法を提案する。
論文 参考訳(メタデータ) (2023-06-10T07:14:59Z) - HumanMAC: Masked Motion Completion for Human Motion Prediction [62.279925754717674]
人間の動き予測はコンピュータビジョンとコンピュータグラフィックスの古典的な問題である。
従来の効果はエンコーディング・デコード方式に基づく経験的性能を実現している。
本稿では,新しい視点から新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-07T18:34:59Z) - Animation from Blur: Multi-modal Blur Decomposition with Motion Guidance [83.25826307000717]
単一の動き赤画像から詳細な動きを復元する際の課題について検討する。
既存の解法では、各領域の運動のあいまいさを考慮せずに単一の画像列を推定する。
本稿では、このような動きのあいまいさを明示的に説明し、複数の可算解をシャープな詳細で生成することができる。
論文 参考訳(メタデータ) (2022-07-20T18:05:53Z) - OTPose: Occlusion-Aware Transformer for Pose Estimation in
Sparsely-Labeled Videos [21.893572076171527]
本稿では, コンバータを用いたフレーム間の時間依存性を符号化する手法を提案する。
我々は、PoseTrack 2017とPoseTrack 2018データセットの最先端のポーズ推定結果を達成する。
論文 参考訳(メタデータ) (2022-07-20T08:06:06Z) - Single-Shot Motion Completion with Transformer [0.0]
本論文では,複数の動作完了問題を解決するための簡易かつ効果的な手法を提案する。
注意に基づくモデルの最近の大きな成功に触発されて、完成はシーケンス予測問題に対するシーケンスであると考える。
本手法は非自己回帰的に動作し,単一のフォワード伝搬内で複数フレームの欠落をリアルタイムに予測する。
論文 参考訳(メタデータ) (2021-03-01T06:00:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。