論文の概要: Memory Group Sampling Based Online Action Recognition Using Kinetic
Skeleton Features
- arxiv url: http://arxiv.org/abs/2011.00553v2
- Date: Tue, 3 Nov 2020 05:09:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 23:46:42.711647
- Title: Memory Group Sampling Based Online Action Recognition Using Kinetic
Skeleton Features
- Title(参考訳): 動的骨格特徴を用いた記憶グループサンプリングに基づくオンライン行動認識
- Authors: Guoliang Liu, Qinghui Zhang, Yichao Cao, Junwei Li, Hao Wu and Guohui
Tian
- Abstract要約: 本稿では,オンライン行動認識問題を扱うための2つの中核的アイデアを提案する。
まず, 空間的特徴と時間的特徴を組み合わせることで, 行動の描写を行う。
次に,従来の動作フレームと現在の動作フレームを組み合わせたメモリグループサンプリング手法を提案する。
第3に、改良された1D CNNネットワークを使用して、サンプルフレームの機能をトレーニングし、テストする。
- 参考スコア(独自算出の注目度): 4.674689979981502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online action recognition is an important task for human centered intelligent
services, which is still difficult to achieve due to the varieties and
uncertainties of spatial and temporal scales of human actions. In this paper,
we propose two core ideas to handle the online action recognition problem.
First, we combine the spatial and temporal skeleton features to depict the
actions, which include not only the geometrical features, but also multi-scale
motion features, such that both the spatial and temporal information of the
action are covered. Second, we propose a memory group sampling method to
combine the previous action frames and current action frames, which is based on
the truth that the neighbouring frames are largely redundant, and the sampling
mechanism ensures that the long-term contextual information is also considered.
Finally, an improved 1D CNN network is employed for training and testing using
the features from sampled frames. The comparison results to the state of the
art methods using the public datasets show that the proposed method is fast and
efficient, and has competitive performance
- Abstract(参考訳): オンライン行動認識は、人間中心の知的サービスにとって重要なタスクであり、人間の行動の空間的および時間的尺度の多様性と不確実性のため、依然として達成が困難である。
本稿では,オンライン行動認識問題を扱うための2つの基本概念を提案する。
まず,行動の空間的特徴と時間的特徴を組み合わせることで,行動の空間的特徴と時間的情報の両方がカバーされるような,幾何学的特徴だけでなく,マルチスケールな動作特徴も記述する。
次に,従来のアクションフレームと現在のアクションフレームを組み合わせるためのメモリグループサンプリング手法を提案する。
最後に、改良された1D CNNネットワークを使用して、サンプルフレームの機能をトレーニングし、テストする。
公開データセットを用いた技術手法の比較結果から,提案手法は高速かつ効率的であり,競合性能を有することが示された。
関連論文リスト
- Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Efficient Global-Local Memory for Real-time Instrument Segmentation of
Robotic Surgical Video [53.14186293442669]
手術器具の知覚における重要な手がかりとして,隣接するフレームからの局所的時間依存性と,長距離における大域的意味的相関があげられる。
本稿では,グローバルとローカルの両方の時間的知識を関連付ける新しいデュアルメモリネットワーク(DMNet)を提案する。
本手法は,実時間速度を維持しながらセグメント化精度を向上する手法である。
論文 参考訳(メタデータ) (2021-09-28T10:10:14Z) - Learning Multi-Granular Spatio-Temporal Graph Network for Skeleton-based
Action Recognition [49.163326827954656]
骨格に基づく行動分類のための新しい多言語時空間グラフネットワークを提案する。
2つの枝の枝からなるデュアルヘッドグラフネットワークを開発し、少なくとも2つの時間分解能を抽出する。
3つの大規模データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-08-10T09:25:07Z) - Modeling long-term interactions to enhance action recognition [81.09859029964323]
本稿では,フレームレベルと時間レベルの両方でオブジェクト間の相互作用のセマンティクスを利用する,エゴセントリックなビデオのアンダースタンドアクションに対する新しいアプローチを提案する。
ユーザの手とほぼ対応するプライマリ領域と、相互作用するオブジェクトに対応する可能性のあるセカンダリ領域のセットを入力として、領域ベースのアプローチを使用する。
提案手法は, 標準ベンチマークの動作認識において, 最先端技術よりも優れている。
論文 参考訳(メタデータ) (2021-04-23T10:08:15Z) - Finding Action Tubes with a Sparse-to-Dense Framework [62.60742627484788]
本稿では,ビデオストリームからのアクションチューブ提案を1つのフォワードパスでスパース・トゥ・デンス方式で生成するフレームワークを提案する。
UCF101-24, JHMDB-21, UCFSportsベンチマークデータセット上で, 本モデルの有効性を評価する。
論文 参考訳(メタデータ) (2020-08-30T15:38:44Z) - Gesture Recognition from Skeleton Data for Intuitive Human-Machine
Interaction [0.6875312133832077]
本稿では,手工芸品の集合に基づく動的ジェスチャーのセグメント化と分類のためのアプローチを提案する。
ジェスチャー認識方法はスライディングウィンドウを適用し、空間次元と時間次元の両方から情報を抽出する。
最終的に、認識されたジェスチャーは、協調ロボットと対話するために使用される。
論文 参考訳(メタデータ) (2020-08-26T11:28:50Z) - Complex Human Action Recognition in Live Videos Using Hybrid FR-DL
Method [1.027974860479791]
入力シーケンス中の代表フレームの自動選択により,前処理フェーズの課題に対処する。
本稿では,バックグラウンドサブトラクションとHOGを用いたハイブリッド手法を提案し,続いて深層ニューラルネットワークと骨格モデリング手法を適用した。
本稿では,このモデルをFR-DL(Feature Reduction & Deep Learning based action recognition method)と呼ぶ。
論文 参考訳(メタデータ) (2020-07-06T15:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。