論文の概要: Gait Recognition using Multi-Scale Partial Representation Transformation
with Capsules
- arxiv url: http://arxiv.org/abs/2010.09084v1
- Date: Sun, 18 Oct 2020 19:47:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 04:07:39.755394
- Title: Gait Recognition using Multi-Scale Partial Representation Transformation
with Capsules
- Title(参考訳): カプセルを用いた多スケール部分表現変換を用いた歩行認識
- Authors: Alireza Sepas-Moghaddam, Saeed Ghorbani, Nikolaus F. Troje, Ali Etemad
- Abstract要約: 本稿では,カプセルを用いたマルチスケール部分歩行表現の伝達を学習する,新しいディープネットワークを提案する。
我々のネットワークは、まず最先端のディープ部分特徴抽出器を用いて、マルチスケールな部分表現を得る。
その後、前向きと後向きの部分的特徴間のパターンの相関関係と共起関係を繰り返し学習する。
- 参考スコア(独自算出の注目度): 22.99694601595627
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gait recognition, referring to the identification of individuals based on the
manner in which they walk, can be very challenging due to the variations in the
viewpoint of the camera and the appearance of individuals. Current methods for
gait recognition have been dominated by deep learning models, notably those
based on partial feature representations. In this context, we propose a novel
deep network, learning to transfer multi-scale partial gait representations
using capsules to obtain more discriminative gait features. Our network first
obtains multi-scale partial representations using a state-of-the-art deep
partial feature extractor. It then recurrently learns the correlations and
co-occurrences of the patterns among the partial features in forward and
backward directions using Bi-directional Gated Recurrent Units (BGRU). Finally,
a capsule network is adopted to learn deeper part-whole relationships and
assigns more weights to the more relevant features while ignoring the spurious
dimensions. That way, we obtain final features that are more robust to both
viewing and appearance changes. The performance of our method has been
extensively tested on two gait recognition datasets, CASIA-B and OU-MVLP, using
four challenging test protocols. The results of our method have been compared
to the state-of-the-art gait recognition solutions, showing the superiority of
our model, notably when facing challenging viewing and carrying conditions.
- Abstract(参考訳): 歩行認識は、歩行の仕方に基づいて個人を識別することを指すが、カメラの視点や個々人の外観が変化するため、非常に困難である。
歩行認識の現在の手法は、特に部分的特徴表現に基づく深層学習モデルによって支配されている。
本研究では,カプセルを用いたマルチスケール部分歩行表現の伝達を学習し,より識別的な歩行特徴を得る,新しいディープネットワークを提案する。
まず,最先端の深部特徴抽出器を用いて,マルチスケール部分表現を求める。
その後、双方向Gated Recurrent Units (BGRU) を用いて、前向きおよび後方方向の部分的特徴間のパターンの相関と共起を繰り返し学習する。
最後に、カプセルネットワークを採用して、より深いパート・whole関係を学び、より関連する特徴に重みを割り当て、スプリアス次元を無視している。
このようにして、視聴と外観の変化の両方に対してより堅牢な最終機能を得る。
CASIA-BとOU-MVLPという2つの歩行認識データセットに対して,4つの挑戦的テストプロトコルを用いて実験を行った。
提案手法の結果は,現状の歩行認識ソリューションと比較され,特に視認性や搬送条件に直面する場合のモデルの優位性を示している。
関連論文リスト
- DVANet: Disentangling View and Action Features for Multi-View Action
Recognition [56.283944756315066]
本稿では,学習した行動表現を映像中の視覚関連情報から切り離すための多視点行動認識手法を提案する。
本モデルとトレーニング方法は,4つの多視点行動認識データセットにおいて,他のユニモーダルモデルよりも有意に優れている。
論文 参考訳(メタデータ) (2023-12-10T01:19:48Z) - Distillation-guided Representation Learning for Unconstrained Gait Recognition [50.0533243584942]
本研究では,屋外シナリオにおける人間認証のためのGADER(GAit Detection and Recognition)フレームワークを提案する。
GADERは、歩行情報を含むフレームのみを使用する新しい歩行認識手法により識別的特徴を構築する。
室内および屋外のデータセットに一貫した改善を示すため,複数の歩行ベースライン(SoTA)について評価を行った。
論文 参考訳(メタデータ) (2023-07-27T01:53:57Z) - Discrepancy-Guided Reconstruction Learning for Image Forgery Detection [10.221066530624373]
本稿ではまず,不規則な視覚パターンを抽出するDisrepancy-Guided (DisGE)を提案する。
次にDouHR(Dou-Head Reconstruction)モジュールを導入し、異なる粒度空間における真のコンパクトな視覚パターンを強化する。
さらに、DouHRでは、これらの真のコンパクトな視覚パターンを集約するDiscrepancy-Aggregation Detector (DisAD)を導入する。
論文 参考訳(メタデータ) (2023-04-26T07:40:43Z) - Semantic Prompt for Few-Shot Image Recognition [76.68959583129335]
本稿では,数ショット学習のための新しいセマンティック・プロンプト(SP)手法を提案する。
提案手法は,1ショットの学習精度を平均3.67%向上させることにより,有望な結果が得られる。
論文 参考訳(メタデータ) (2023-03-24T16:32:19Z) - Exploring Deep Models for Practical Gait Recognition [11.185716724976414]
我々は、最先端の屋外歩行認識のための深層モデルの構築方法について、統一的な視点を示す。
具体的には、浅い歩行モデルのステレオタイプに挑戦し、明示的な時間的モデリングの優位性を実証する。
提案されたCNNベースのDeepGaitV2シリーズとTransformerベースのSwinGaitシリーズは、Gait3DとGREWで大幅に性能が向上した。
論文 参考訳(メタデータ) (2023-03-06T17:19:28Z) - Learning Common Rationale to Improve Self-Supervised Representation for
Fine-Grained Visual Recognition Problems [61.11799513362704]
我々は、インスタンスやクラスでよく見られる差別的手がかりを識別するための、追加のスクリーニングメカニズムの学習を提案する。
SSL目標から誘導されるGradCAMを単純に利用することで、共通な有理性検出器が学習可能であることを示す。
論文 参考訳(メタデータ) (2023-03-03T02:07:40Z) - Towards a Deeper Understanding of Skeleton-based Gait Recognition [4.812321790984493]
近年、ほとんどの歩行認識法は、人のシルエットを使って歩行の特徴を抽出している。
モデルに基づく手法はこれらの問題に悩まされず、身体関節の時間運動を表現することができる。
本研究では,高次入力と残差ネットワークを組み合わせたグラフ畳み込みネットワーク(GCN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-16T18:23:37Z) - Distribution Alignment: A Unified Framework for Long-tail Visual
Recognition [52.36728157779307]
長尾視覚認識のための分散アライメント戦略を提案する。
次に,二段階学習における一般化された再重み付け法を導入して,事前のクラスバランスをとる。
提案手法は, 4つの認識タスクすべてにおいて, 単純で統一されたフレームワークを用いて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-03-30T14:09:53Z) - Associated Spatio-Temporal Capsule Network for Gait Recognition [36.85667679699001]
最先端のアプローチは、歩行の時間的または空間的特性の分析に依存する。
ASTCapsNetはマルチセンサーデータセットのトレーニングを受け、歩行認識のためのマルチモーダル情報を分析します。
論文 参考訳(メタデータ) (2021-01-07T09:55:17Z) - Depth Guided Adaptive Meta-Fusion Network for Few-shot Video Recognition [86.31412529187243]
わずかにラベル付きサンプルで新しいアクションを学習することを目的としたビデオ認識はほとんどない。
本稿では,AMeFu-Netと呼ばれる映像認識のための深度誘導型適応メタフュージョンネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T03:06:20Z) - View-Invariant Gait Recognition with Attentive Recurrent Learning of
Partial Representations [27.33579145744285]
本稿では,まず,フレームレベルの畳み込み特徴から歩行畳み込みエネルギーマップ(GCEM)を抽出するネットワークを提案する。
次に、GCEMの分割されたビンから学ぶために双方向ニューラルネットワークを採用し、学習された部分的リカレント表現の関係を利用する。
提案手法は2つの大規模CASIA-BとOU-Mの歩行データセットで広範囲に検証されている。
論文 参考訳(メタデータ) (2020-10-18T20:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。