論文の概要: Sequential convolutional network for behavioral pattern extraction in
gait recognition
- arxiv url: http://arxiv.org/abs/2104.11473v1
- Date: Fri, 23 Apr 2021 08:44:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 18:48:09.551768
- Title: Sequential convolutional network for behavioral pattern extraction in
gait recognition
- Title(参考訳): 歩行認識における行動パターン抽出のための逐次畳み込みネットワーク
- Authors: Xinnan Ding, Kejun Wang, Chenhui Wang, Tianyi Lan, Liangliang Liu
- Abstract要約: 個人の歩行パターンを学習するための逐次畳み込みネットワーク(SCN)を提案する。
SCNでは、時系列の中間特徴写像を理解するために行動情報抽出器(BIE)を構築している。
SCNのマルチフレームアグリゲータは、モバイル3D畳み込み層を介して、長さが不確定なシーケンス上の機能統合を実行する。
- 参考スコア(独自算出の注目度): 0.7874708385247353
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: As a unique and promising biometric, video-based gait recognition has broad
applications. The key step of this methodology is to learn the walking pattern
of individuals, which, however, often suffers challenges to extract the
behavioral feature from a sequence directly. Most existing methods just focus
on either the appearance or the motion pattern. To overcome these limitations,
we propose a sequential convolutional network (SCN) from a novel perspective,
where spatiotemporal features can be learned by a basic convolutional backbone.
In SCN, behavioral information extractors (BIE) are constructed to comprehend
intermediate feature maps in time series through motion templates where the
relationship between frames can be analyzed, thereby distilling the information
of the walking pattern. Furthermore, a multi-frame aggregator in SCN performs
feature integration on a sequence whose length is uncertain, via a mobile 3D
convolutional layer. To demonstrate the effectiveness, experiments have been
conducted on two popular public benchmarks, CASIA-B and OU-MVLP, and our
approach is demonstrated superior performance, comparing with the state-of-art
methods.
- Abstract(参考訳): 独自で有望なバイオメトリックでビデオベースの歩行認識には幅広い応用がある。
この方法論の鍵となるステップは、個人の歩行パターンを学習することである。
既存のほとんどのメソッドは、外観と動きパターンにのみフォーカスする。
これらの制約を克服するため、新しい視点から逐次畳み込みネットワーク(SCN)を提案し、基本畳み込みバックボーンによって時空間の特徴を学習する。
scnでは、フレーム間の関係を解析可能な動作テンプレートを介して時系列の中間特徴マップを理解できるように行動情報抽出器(bie)を構築し、歩行パターンの情報を蒸留する。
さらに、SCN内の多フレームアグリゲータは、移動体3D畳み込み層を介して、長さが不確実なシーケンスに特徴統合を行う。
CASIA-B と OU-MVLP の2つの公開ベンチマークにおいて,本手法の有効性を実証するために実験を行った。
関連論文リスト
- Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - Self-supervised Action Representation Learning from Partial
Spatio-Temporal Skeleton Sequences [29.376328807860993]
本研究では,異なる骨格関節とビデオフレームの局所的関係を利用した部分的時空間学習(PSTL)フレームワークを提案する。
提案手法は, NTURGB+D 60, NTURGBMM+D 120, PKU-Dのダウンストリームタスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-17T17:35:05Z) - Skeleton-based Action Recognition through Contrasting Two-Stream
Spatial-Temporal Networks [11.66009967197084]
本稿では,空間的および時間的モジュールを並列に融合するContrastive GCN-Transformer Network(ConGT)を提案する。
我々は3つのベンチマークデータセットで実験を行い、このモデルが動作認識における最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-01-27T02:12:08Z) - Gait Recognition in the Wild with Multi-hop Temporal Switch [81.35245014397759]
野生での歩行認識は、より実践的な問題であり、マルチメディアとコンピュータビジョンのコミュニティの注目を集めています。
本稿では,現実のシーンにおける歩行パターンの効果的な時間的モデリングを実現するために,新しいマルチホップ時間スイッチ方式を提案する。
論文 参考訳(メタデータ) (2022-09-01T10:46:09Z) - Learning Sequence Representations by Non-local Recurrent Neural Memory [61.65105481899744]
教師付きシーケンス表現学習のためのNon-local Recurrent Neural Memory (NRNM)を提案する。
我々のモデルは長距離依存を捉えることができ、潜伏した高レベル特徴を我々のモデルで抽出することができる。
我々のモデルは、これらのシーケンスアプリケーションごとに特別に設計された他の最先端の手法と比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-07-20T07:26:15Z) - Joint-bone Fusion Graph Convolutional Network for Semi-supervised
Skeleton Action Recognition [65.78703941973183]
本稿では,CD-JBF-GCNをエンコーダとし,ポーズ予測ヘッドをデコーダとして使用する新しい相関駆動型ジョイントボーン・フュージョングラフ畳み込みネットワークを提案する。
具体的には、CD-JBF-GCは、関節ストリームと骨ストリームの間の運動伝達を探索することができる。
自己教師型トレーニング段階におけるポーズ予測に基づくオートエンコーダにより、未ラベルデータから動作表現を学習することができる。
論文 参考訳(メタデータ) (2022-02-08T16:03:15Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - Efficient Modelling Across Time of Human Actions and Interactions [92.39082696657874]
3つの畳み込みニューラルネットワーク(CNND)における現在の固定サイズの時間的カーネルは、入力の時間的変動に対処するために改善できると主張している。
我々は、アーキテクチャの異なるレイヤにまたがる機能の違いを強化することで、アクションのクラス間でどのようにうまく対処できるかを研究する。
提案手法は、いくつかのベンチマークアクション認識データセットで評価され、競合する結果を示す。
論文 参考訳(メタデータ) (2021-10-05T15:39:11Z) - Complex Human Action Recognition in Live Videos Using Hybrid FR-DL
Method [1.027974860479791]
入力シーケンス中の代表フレームの自動選択により,前処理フェーズの課題に対処する。
本稿では,バックグラウンドサブトラクションとHOGを用いたハイブリッド手法を提案し,続いて深層ニューラルネットワークと骨格モデリング手法を適用した。
本稿では,このモデルをFR-DL(Feature Reduction & Deep Learning based action recognition method)と呼ぶ。
論文 参考訳(メタデータ) (2020-07-06T15:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。