論文の概要: View-Invariant Gait Recognition with Attentive Recurrent Learning of
Partial Representations
- arxiv url: http://arxiv.org/abs/2010.09092v1
- Date: Sun, 18 Oct 2020 20:20:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 04:07:19.077570
- Title: View-Invariant Gait Recognition with Attentive Recurrent Learning of
Partial Representations
- Title(参考訳): 部分表現の注意的反復学習によるビュー不変歩行認識
- Authors: Alireza Sepas-Moghaddam, Ali Etemad
- Abstract要約: 本稿では,まず,フレームレベルの畳み込み特徴から歩行畳み込みエネルギーマップ(GCEM)を抽出するネットワークを提案する。
次に、GCEMの分割されたビンから学ぶために双方向ニューラルネットワークを採用し、学習された部分的リカレント表現の関係を利用する。
提案手法は2つの大規模CASIA-BとOU-Mの歩行データセットで広範囲に検証されている。
- 参考スコア(独自算出の注目度): 27.33579145744285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gait recognition refers to the identification of individuals based on
features acquired from their body movement during walking. Despite the recent
advances in gait recognition with deep learning, variations in data acquisition
and appearance, namely camera angles, subject pose, occlusions, and clothing,
are challenging factors that need to be considered for achieving accurate gait
recognition systems. In this paper, we propose a network that first learns to
extract gait convolutional energy maps (GCEM) from frame-level convolutional
features. It then adopts a bidirectional recurrent neural network to learn from
split bins of the GCEM, thus exploiting the relations between learned partial
spatiotemporal representations. We then use an attention mechanism to
selectively focus on important recurrently learned partial representations as
identity information in different scenarios may lie in different GCEM bins. Our
proposed model has been extensively tested on two large-scale CASIA-B and
OU-MVLP gait datasets using four different test protocols and has been compared
to a number of state-of-the-art and baseline solutions. Additionally, a
comprehensive experiment has been performed to study the robustness of our
model in the presence of six different synthesized occlusions. The experimental
results show the superiority of our proposed method, outperforming the
state-of-the-art, especially in scenarios where different clothing and carrying
conditions are encountered. The results also revealed that our model is more
robust against different occlusions as compared to the state-of-the-art
methods.
- Abstract(参考訳): 歩行認識とは、歩行中に身体の動きから得られる特徴に基づいて個人を識別することを指す。
近年の深層学習による歩容認識の進歩にもかかわらず、正確な歩容認識システムを実現するためには、カメラアングル、被写体ポーズ、オクルージョン、衣服などのデータ取得と外観のバリエーションが考慮される必要がある。
本稿では,まず,フレームレベルの畳み込み特徴から歩行畳み込みエネルギーマップ(GCEM)を抽出するネットワークを提案する。
次に、GCEMの分割ビンから学ぶために双方向のリカレントニューラルネットワークを採用し、学習された部分時空間表現の関係を利用する。
次に、注意機構を用いて、異なるシナリオにおける識別情報が異なるGCEMビンに存在する可能性があるため、重要な繰り返し学習された部分表現に選択的にフォーカスする。
提案モデルは4種類のテストプロトコルを用いて,2つの大規模casia-bおよびou-mvlp gaitデータセット上で大規模にテストされてきた。
さらに,6種類の合成オクルージョンの存在下で,モデルが頑健であることを示す包括的実験を行った。
実験の結果,提案手法の優位性を示し,特に衣服や搬送条件が異なる場合において,最先端の手法よりも優れていた。
また,本モデルは,最先端手法と比較して,異なる閉塞に対してより堅牢であることを示した。
関連論文リスト
- The Paradox of Motion: Evidence for Spurious Correlations in
Skeleton-based Gait Recognition Models [4.089889918897877]
本研究は、視覚に基づく歩行認識が主に動きパターンに依存しているという一般的な仮定に挑戦する。
高さ情報の除去が顕著な性能低下につながることを比較分析により示す。
本研究では,時間的情報を無視して個々のポーズを処理する空間変換器モデルを提案する。
論文 参考訳(メタデータ) (2024-02-13T09:33:12Z) - DCID: Deep Canonical Information Decomposition [84.59396326810085]
本稿では,2つの1次元目標変数間で共有される信号の同定について考察する。
そこで本研究では,地中トラスラベルの存在下で使用可能な評価指標であるICMを提案する。
また、共有変数を学習するための単純かつ効果的なアプローチとして、Deep Canonical Information Decomposition (DCID)を提案する。
論文 参考訳(メタデータ) (2023-06-27T16:59:06Z) - Learning Common Rationale to Improve Self-Supervised Representation for
Fine-Grained Visual Recognition Problems [61.11799513362704]
我々は、インスタンスやクラスでよく見られる差別的手がかりを識別するための、追加のスクリーニングメカニズムの学習を提案する。
SSL目標から誘導されるGradCAMを単純に利用することで、共通な有理性検出器が学習可能であることを示す。
論文 参考訳(メタデータ) (2023-03-03T02:07:40Z) - Combining the Silhouette and Skeleton Data for Gait Recognition [13.345465199699]
2つの主要な歩行認識作品は外観ベースとモデルベースであり、シルエットと骨格からそれぞれ特徴を抽出する。
本稿では, シルエットを入力とするCNN系分岐と, 骨格を入力とするGCN系分岐を提案する。
GCNベースの分岐における歩行表現を改善するため、マルチスケールグラフ畳み込みを統合する完全連結グラフ畳み込み演算子を提案する。
論文 参考訳(メタデータ) (2022-02-22T03:21:51Z) - Dual Contrastive Learning for General Face Forgery Detection [64.41970626226221]
本稿では,正と負のペアデータを構成するDCL (Dual Contrastive Learning) という新しい顔偽造検出フレームワークを提案する。
本研究は, 事例内コントラスト学習(Intra-ICL)において, 偽造顔における局所的内容の不整合に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-27T05:44:40Z) - Subject-Independent Drowsiness Recognition from Single-Channel EEG with
an Interpretable CNN-LSTM model [0.8250892979520543]
単一チャネル脳波信号からの主観的非依存的眠気認識のための新しい畳み込みニューラルネットワーク(CNN)-Long Short-Term Memory(LSTM)モデルを提案する。
その結果, 公立データセット上での被写体独立性認識において, 11人の被写体の平均精度は72.97%であった。
論文 参考訳(メタデータ) (2021-11-21T10:37:35Z) - Deep Collaborative Multi-Modal Learning for Unsupervised Kinship
Estimation [53.62256887837659]
キンシップ検証は、コンピュータビジョンにおける長年の研究課題である。
本稿では,顔特性に表される基礎情報を統合するために,新しい協調型多モーダル学習(DCML)を提案する。
我々のDCML法は、常に最先端のキンシップ検証法よりも優れている。
論文 参考訳(メタデータ) (2021-09-07T01:34:51Z) - Exploiting Emotional Dependencies with Graph Convolutional Networks for
Facial Expression Recognition [31.40575057347465]
本稿では,視覚における表情認識のためのマルチタスク学習フレームワークを提案する。
MTL設定において、離散認識と連続認識の両方のために共有特徴表現が学習される。
実験の結果,本手法は離散FER上での最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-06-07T10:20:05Z) - Distribution Alignment: A Unified Framework for Long-tail Visual
Recognition [52.36728157779307]
長尾視覚認識のための分散アライメント戦略を提案する。
次に,二段階学習における一般化された再重み付け法を導入して,事前のクラスバランスをとる。
提案手法は, 4つの認識タスクすべてにおいて, 単純で統一されたフレームワークを用いて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-03-30T14:09:53Z) - Gait Recognition using Multi-Scale Partial Representation Transformation
with Capsules [22.99694601595627]
本稿では,カプセルを用いたマルチスケール部分歩行表現の伝達を学習する,新しいディープネットワークを提案する。
我々のネットワークは、まず最先端のディープ部分特徴抽出器を用いて、マルチスケールな部分表現を得る。
その後、前向きと後向きの部分的特徴間のパターンの相関関係と共起関係を繰り返し学習する。
論文 参考訳(メタデータ) (2020-10-18T19:47:38Z) - Modeling Shared Responses in Neuroimaging Studies through MultiView ICA [94.31804763196116]
被験者の大規模なコホートを含むグループ研究は、脳機能組織に関する一般的な結論を引き出す上で重要である。
グループ研究のための新しい多視点独立成分分析モデルを提案し、各被験者のデータを共有独立音源と雑音の線形結合としてモデル化する。
まず、fMRIデータを用いて、被験者間の共通音源の同定における感度の向上を示す。
論文 参考訳(メタデータ) (2020-06-11T17:29:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。