論文の概要: Gesture Recognition with a Skeleton-Based Keyframe Selection Module
- arxiv url: http://arxiv.org/abs/2112.01736v1
- Date: Fri, 3 Dec 2021 06:20:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 15:52:37.190731
- Title: Gesture Recognition with a Skeleton-Based Keyframe Selection Module
- Title(参考訳): スケルトンベースキーフレーム選択モジュールによるジェスチャー認識
- Authors: Yunsoo Kim and Hyun Myung
- Abstract要約: 効率的なジェスチャー認識のための双方向連続接続型2経路ネットワーク(BCCN)を提案する。
キーフレームはBCCN経路を通過して自分自身の空間的特徴を抽出し、時間的注意経路は時間的意味論を抽出する。
- 参考スコア(独自算出の注目度): 0.19580473532948398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a bidirectional consecutively connected two-pathway network (BCCN)
for efficient gesture recognition. The BCCN consists of two pathways: (i) a
keyframe pathway and (ii) a temporal-attention pathway. The keyframe pathway is
configured using the skeleton-based keyframe selection module. Keyframes pass
through the pathway to extract the spatial feature of itself, and the
temporal-attention pathway extracts temporal semantics. Our model improved
gesture recognition performance in videos and obtained better activation maps
for spatial and temporal properties. Tests were performed on the Chalearn
dataset, the ETRI-Activity 3D dataset, and the Toyota Smart Home dataset.
- Abstract(参考訳): 効率的なジェスチャー認識のための双方向連続接続型2経路ネットワーク(BCCN)を提案する。
bccnは2つの経路からなる。
i)キーフレームの経路と
(ii)時間的注意経路。
キーフレーム経路は、スケルトンベースのキーフレーム選択モジュールを使用して構成される。
キーフレームは自身の空間的特徴を抽出する経路を通過し、時間的意味論を抽出する。
映像のジェスチャー認識性能は向上し,空間的・時間的特性のアクティベーションマップが向上した。
Chalearnデータセット、ETRI-Activity 3Dデータセット、Toyota Smart Homeデータセットでテストが行われた。
関連論文リスト
- Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - Leveraging Spatio-Temporal Dependency for Skeleton-Based Action
Recognition [9.999149887494646]
骨格をベースとした行動認識は、人体の骨格縫合のコンパクトな表現により、かなりの注目を集めている。
グラフ畳み込みニューラルネットワーク(GCN)と畳み込みニューラルネットワーク(CNN)を用いた最近の多くの手法が目覚ましい性能を実現している。
論文 参考訳(メタデータ) (2022-12-09T10:37:22Z) - Spatial-Temporal Attention Network for Open-Set Fine-Grained Image
Recognition [14.450381668547259]
空間的自己注意機構を持つ視覚変換器は、細粒度の異なる画像のカテゴリを識別するために正確な注意マップを学習できなかった。
本稿では,STANと呼ばれる細粒度特徴表現を学習するための時空間アテンションネットワークを提案する。
提案したSTAN-OSFGRは,9つの最先端のオープンセット認識法に優れる。
論文 参考訳(メタデータ) (2022-11-25T07:46:42Z) - Temporal-Viewpoint Transportation Plan for Skeletal Few-shot Action
Recognition [38.27785891922479]
Joint tEmporalとcAmera viewpoiNt alIgnmEntによる3Dスケルトンに基づく動作認識のためのFew-shot Learning Pipeline
論文 参考訳(メタデータ) (2022-10-30T11:46:38Z) - Blockwise Temporal-Spatial Pathway Network [0.2538209532048866]
ブロックワイド時空間経路ネットワーク(BTSNet)と呼ばれる3次元CNNに基づく行動認識モデルを提案する。
画像認識のための空間受容場を適応的に選択する適応型カーネル選択モデルに着想を得た新しいモデルを構築した。
評価のために提案したモデルを,UCF-101,HMDB-51,SVW,EpicKitchenデータセットで検証した。
論文 参考訳(メタデータ) (2022-08-05T08:43:30Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - A Spatio-Temporal Multilayer Perceptron for Gesture Recognition [70.34489104710366]
自律走行車におけるジェスチャー認識のための多層状態重み付きパーセプトロンを提案する。
提案手法の有望な性能を示すため,TCGおよびDrive&Actデータセットの評価を行った。
私たちは、そのリアルタイム能力と安定した実行を示すために、モデルを自動運転車にデプロイします。
論文 参考訳(メタデータ) (2022-04-25T08:42:47Z) - Action Keypoint Network for Efficient Video Recognition [63.48422805355741]
本稿では、時間的・空間的な選択をアクションキーポイントネットワーク(AK-Net)に統合することを提案する。
AK-Netは、アクションキーポイントのセットとして任意の形状の領域に散在する情報的ポイントを選択し、ビデオ認識をポイントクラウド分類に変換する。
実験結果から,AK-Netは複数のビデオ認識ベンチマークにおいて,ベースライン手法の効率と性能を一貫して向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-17T09:35:34Z) - Learning Spatio-Appearance Memory Network for High-Performance Visual
Tracking [79.80401607146987]
既存のオブジェクトトラッキングは通常、フレーム間の視覚的ターゲットにマッチするバウンディングボックスベースのテンプレートを学習する。
本稿では,局所時間メモリネットワークを備え,正確な時空間対応を学習するセグメンテーションに基づくトラッキングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-21T08:12:02Z) - Gesture Recognition from Skeleton Data for Intuitive Human-Machine
Interaction [0.6875312133832077]
本稿では,手工芸品の集合に基づく動的ジェスチャーのセグメント化と分類のためのアプローチを提案する。
ジェスチャー認識方法はスライディングウィンドウを適用し、空間次元と時間次元の両方から情報を抽出する。
最終的に、認識されたジェスチャーは、協調ロボットと対話するために使用される。
論文 参考訳(メタデータ) (2020-08-26T11:28:50Z) - MotioNet: 3D Human Motion Reconstruction from Monocular Video with
Skeleton Consistency [72.82534577726334]
モノクロビデオから3次元人間の骨格の動きを直接再構成するディープニューラルネットワークであるMotioNetを紹介した。
本手法は,動作表現を完全かつ一般的に使用するキネマティックスケルトンを直接出力する最初のデータ駆動型手法である。
論文 参考訳(メタデータ) (2020-06-22T08:50:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。