論文の概要: A Training Method For VideoPose3D With Ideology of Action Recognition
- arxiv url: http://arxiv.org/abs/2206.06430v1
- Date: Mon, 13 Jun 2022 19:25:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 14:35:50.437875
- Title: A Training Method For VideoPose3D With Ideology of Action Recognition
- Title(参考訳): 行動認識のイデオロギーを用いたビデオPose3Dの訓練方法
- Authors: Hao Bai
- Abstract要約: 本研究は,行動認識に基づくビデオPose3Dのより高速で柔軟なトレーニング手法を示す。
アクション指向と一般的なポーズ推定の両方の問題を扱うことができる。
- 参考スコア(独自算出の注目度): 0.9949781365631559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Action recognition and pose estimation from videos are closely related to
understand human motions, but more literature focuses on how to solve pose
estimation tasks alone from action recognition. This research shows a faster
and more flexible training method for VideoPose3D which is based on action
recognition. This model is fed with the same type of action as the type that
will be estimated, and different types of actions can be trained separately.
Evidence has shown that, for common pose-estimation tasks, this model requires
a relatively small amount of data to carry out similar results with the
original research, and for action-oriented tasks, it outperforms the original
research by 4.5% with a limited receptive field size and training epoch on
Velocity Error of MPJPE. This model can handle both action-oriented and common
pose-estimation problems.
- Abstract(参考訳): 映像からの行動認識とポーズ推定は人間の動きの理解と密接な関係があるが、より多くの文献では、行動認識から単独でポーズ推定タスクを解決する方法に焦点が当てられている。
本研究は,アクション認識に基づくVideoPose3Dのより高速で柔軟なトレーニング手法を示す。
このモデルは、推定される型と同じタイプのアクションで供給され、異なるタイプのアクションを別々にトレーニングすることができます。
エビデンスによれば、一般的なポーズ推定タスクでは、このモデルはオリジナルの研究と同じような結果を得るために比較的少量のデータを必要としており、アクション指向タスクでは、受容野のサイズが限定され、MPJPEのベロシティエラーのトレーニングエポックが4.5%向上している。
このモデルはアクション指向問題と一般的なポーズ推定問題の両方を扱うことができる。
関連論文リスト
- DOAD: Decoupled One Stage Action Detection Network [77.14883592642782]
人々をローカライズし、ビデオからアクションを認識することは、ハイレベルなビデオ理解にとって難しい課題だ。
既存の手法は主に2段階ベースで、1段階は人物境界ボックス生成、もう1段階は行動認識を行う。
本稿では、時間的行動検出の効率を向上させるために、DOADと呼ばれる分離したワンステージネットワークを提案する。
論文 参考訳(メタデータ) (2023-04-01T08:06:43Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - Few-Cost Salient Object Detection with Adversarial-Paced Learning [95.0220555274653]
本稿では,少数のトレーニング画像にのみ手動アノテーションを応用して,効果的なサルエント物体検出モデルを学習することを提案する。
我々は,このタスクを,少額の有能な物体検出とみなし,少数のコストの学習シナリオを促進するために,APL(Adversarialpaced Learning)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-05T14:15:49Z) - Skeleton-DML: Deep Metric Learning for Skeleton-Based One-Shot Action
Recognition [0.5161531917413706]
ワンショットアクション認識は、単一のトレーニング例だけで、人間のパフォーマンスアクションの認識を可能にする。
これは、ロボットが以前に見つからなかった行動に反応できるようにすることで、人間とロボットの相互作用に正の影響を与える。
本稿では,メートル法学習環境において良好に機能する新しい画像に基づく骨格表現を提案する。
論文 参考訳(メタデータ) (2020-12-26T22:31:11Z) - Learning View-Disentangled Human Pose Representation by Contrastive
Cross-View Mutual Information Maximization [33.36330493757669]
本研究では2次元人間のポーズから、ポーズ依存とビュー依存因子を分離する新しい表現学習手法を提案する。
異なる視点から実行された同じポーズの相互情報を最大化する相互情報(CV-MIM)を用いてネットワークを訓練する。
CV-MIMは、シングルショットのクロスビュー設定において、競合する他の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2020-12-02T18:55:35Z) - Action similarity judgment based on kinematic primitives [48.99831733355487]
運動学に基づく計算モデルが動作類似性を決定する範囲について検討する。
選択されたモデルは、発達ロボティクスにルーツを持ち、学習されたキネマティックプリミティブに基づいて行動分類を行う。
その結果, 動作類似性タスクにおいて, モデルと人的性能の双方が, 運動レベルの特徴に基づく精度が高いことがわかった。
論文 参考訳(メタデータ) (2020-08-30T13:58:47Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z) - Delving into 3D Action Anticipation from Streaming Videos [99.0155538452263]
アクション予測は、部分的な観察でアクションを認識することを目的としている。
本稿では,いくつかの相補的評価指標を導入し,フレームワイド動作分類に基づく基本モデルを提案する。
また,全動作表現とクラス非依存行動ラベルという2つの側面から補助情報を取り入れたマルチタスク学習戦略についても検討する。
論文 参考訳(メタデータ) (2019-06-15T10:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。