論文の概要: Pose Transformers (POTR): Human Motion Prediction with
Non-Autoregressive Transformers
- arxiv url: http://arxiv.org/abs/2109.07531v1
- Date: Wed, 15 Sep 2021 18:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 14:00:13.336490
- Title: Pose Transformers (POTR): Human Motion Prediction with
Non-Autoregressive Transformers
- Title(参考訳): ポーズトランスフォーマー(potr) : 非自己回帰トランスフォーマーによる人間の動き予測
- Authors: Angel Mart\'inez-Gonz\'alez, Michael Villamizar, Jean-Marc Odobez
- Abstract要約: 本研究では,トランスフォーマーアーキテクチャを非自己回帰型人間の動作予測に活用することを提案する。
我々のアプローチは、以前の予測を条件にするのではなく、クエリシーケンスから並列に要素をデコードする。
その単純さにもかかわらず、我々のアプローチは2つの公開データセットで競合する結果を達成している。
- 参考スコア(独自算出の注目度): 24.36592204215444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose to leverage Transformer architectures for non-autoregressive human
motion prediction. Our approach decodes elements in parallel from a query
sequence, instead of conditioning on previous predictions such as
instate-of-the-art RNN-based approaches. In such a way our approach is less
computational intensive and potentially avoids error accumulation to long term
elements in the sequence. In that context, our contributions are fourfold: (i)
we frame human motion prediction as a sequence-to-sequence problem and propose
a non-autoregressive Transformer to infer the sequences of poses in parallel;
(ii) we propose to decode sequences of 3D poses from a query sequence generated
in advance with elements from the input sequence;(iii) we propose to perform
skeleton-based activity classification from the encoder memory, in the hope
that identifying the activity can improve predictions;(iv) we show that despite
its simplicity, our approach achieves competitive results in two public
datasets, although surprisingly more for short term predictions rather than for
long term ones.
- Abstract(参考訳): 非自己回帰的人間の運動予測にトランスフォーマーアーキテクチャを活用することを提案する。
本手法では,クエリシーケンスから要素を並列にデコードする。
このように、我々のアプローチは計算集約性が低く、シーケンス内の長期要素へのエラー蓄積を避ける可能性がある。
その文脈では、私たちの貢献は4倍です。
(i)人間の運動予測をシーケンス・ツー・シーケンス問題とし、ポーズのシーケンスを並列に推測する非自己回帰変圧器を提案する。
(ii)入力シーケンスの要素を予め生成したクエリシーケンスから3次元ポーズのシーケンスをデコードすることを提案する。
(iii)エンコーダメモリからスケルトンベースのアクティビティ分類を行うことにより、アクティビティの特定が予測を改善することを期待する。
(iv)その単純さにもかかわらず、我々のアプローチは2つの公開データセットで競争力のある結果を得るが、長期的な予測よりも短期的な予測の方が驚くほど高い。
関連論文リスト
- Uncovering mesa-optimization algorithms in Transformers [61.06055590704677]
いくつかの自己回帰モデルは、入力シーケンスが処理されたときに学習でき、パラメータの変更を受けずに、それを行うように明示的に訓練されていない。
我々は,新しい入力が明らかになったときにモデルを調整するための補助学習アルゴリズムが,標準の次トーケン予測誤差最小化によって生まれることを示す。
本研究は、自己回帰損失最小化の産物としてコンテキスト内学習を説明し、新しい最適化ベースのトランスフォーマー層の設計を通知する。
論文 参考訳(メタデータ) (2023-09-11T22:42:50Z) - CoMusion: Towards Consistent Stochastic Human Motion Prediction via Motion Diffusion [6.862357145175449]
本稿では,単一段階の終端拡散型HMPフレームワークであるCoMusionを提案する。
CoMusionは、スムーズな将来のポーズ予測性能が空間予測性能を改善するという洞察から着想を得ている。
提案手法はTransformer-GCNモジュール設計と分散スケジューラによって促進され,精度,現実性,一貫した動作を予測する。
論文 参考訳(メタデータ) (2023-05-21T19:31:56Z) - Overlooked Poses Actually Make Sense: Distilling Privileged Knowledge
for Human Motion Prediction [26.25110973770013]
人間の動作予測に関するこれまでの研究は、観測されたシーケンスと予測されるシーケンスの間のマッピング関係を構築するパターンに従っている。
本稿では,従来見過ごされていた人間のポーズを導入し,予測タスクを実装した新しい予測パターンを提案する。
これらのポーズは予測シーケンスの後に存在し、特権シーケンスを形成する。
論文 参考訳(メタデータ) (2022-08-02T08:13:43Z) - Inducing Transformer's Compositional Generalization Ability via
Auxiliary Sequence Prediction Tasks [86.10875837475783]
体系的な構成性は人間の言語において必須のメカニズムであり、既知の部品の組換えによって新しい表現を作り出すことができる。
既存のニューラルモデルには、記号構造を学習する基本的な能力がないことが示されている。
本稿では,関数の進行と引数のセマンティクスを追跡する2つの補助シーケンス予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-30T16:41:19Z) - Don't Take It Literally: An Edit-Invariant Sequence Loss for Text
Generation [109.46348908829697]
生成したn-gramのすべてのn-gramとの一致損失を計算した新しい編集不変シーケンス損失(EISL)を提案する。
ノイズの多いターゲットシーケンスを持つ機械翻訳,教師なしテキストスタイル転送,非自己回帰型機械翻訳の3つのタスクについて実験を行った。
論文 参考訳(メタデータ) (2021-06-29T03:59:21Z) - Augmenting Sequential Recommendation with Pseudo-Prior Items via
Reversely Pre-training Transformer [61.818320703583126]
逐次レコメンデーションはアイテムシーケンスを時系列的にモデル化することで進化するパターンを特徴付ける。
最近のトランスフォーマの開発はコミュニティに効果的なシーケンスエンコーダの設計を促している。
textbfseudo-prior items(asrep)を用いたtextbfsequential textbfrecommendationのためのtextbfaugmentingの新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-02T18:06:23Z) - Consistent Accelerated Inference via Confident Adaptive Transformers [29.034390810078172]
我々は,大規模で高価な多層トランスの推論を確実に高速化する新しい手法を開発した。
また,本モデルとの確固たる一貫性を高い信頼度で保証しつつ,計算効率を向上させる。
このアプローチの有効性を4つの分類および回帰タスクで実証する。
論文 参考訳(メタデータ) (2021-04-18T10:22:28Z) - Informer: Beyond Efficient Transformer for Long Sequence Time-Series
Forecasting [25.417560221400347]
長周期時系列予測(LSTF)は高い予測能力を必要とする。
最近の研究は、予測能力を高めるトランスフォーマーの可能性を示しています。
我々は3つの特徴を有するlstf用効率的なトランスフォーマーモデル,informerを設計した。
論文 参考訳(メタデータ) (2020-12-14T11:43:09Z) - Multitask Non-Autoregressive Model for Human Motion Prediction [33.98939145212708]
非auToregressive Model (NAT) は、文脈エンコーダと位置エンコードモジュールと同様に、完全な非自己回帰復号方式で提案される。
提案手法はHuman3.6MとCMU-Mocapのベンチマークで評価され,最先端の自己回帰手法よりも優れている。
論文 参考訳(メタデータ) (2020-07-13T15:00:19Z) - Funnel-Transformer: Filtering out Sequential Redundancy for Efficient
Language Processing [112.2208052057002]
本稿では,隠れ状態の列を短く圧縮するFunnel-Transformerを提案する。
Funnel-TransformerはFLOPに匹敵する数が少ないため、様々なシーケンスレベルの予測タスクにおいて標準のTransformerよりも優れている。
論文 参考訳(メタデータ) (2020-06-05T05:16:23Z) - Spike-Triggered Non-Autoregressive Transformer for End-to-End Speech
Recognition [66.47000813920617]
エンドツーエンド音声認識のためのスパイクトリガー付き非自己回帰変換器モデルを提案する。
提案モデルでは,ターゲット列の長さを正確に予測し,競合性能を実現する。
このモデルは0.0056のリアルタイム係数も達成しており、全ての主流音声認識モデルを超えている。
論文 参考訳(メタデータ) (2020-05-16T08:27:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。