論文の概要: MetaGait: Learning to Learn an Omni Sample Adaptive Representation for
Gait Recognition
- arxiv url: http://arxiv.org/abs/2306.03445v1
- Date: Tue, 6 Jun 2023 06:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 16:53:32.469800
- Title: MetaGait: Learning to Learn an Omni Sample Adaptive Representation for
Gait Recognition
- Title(参考訳): MetaGait: 歩行認識のためのOmniサンプル適応表現の学習
- Authors: Huanzhang Dou, Pengyi Zhang, Wei Su, Yunlong Yu, and Xi Li
- Abstract要約: そこで我々は,Omniサンプル適応表現を学習するMetaGaitを開発した。
プロセス全体にわたってメタ知識を活用し、メタトリプルアテンションとメタテンポラルプールを提示します。
大規模な実験によって提案されたMetaGaitの最先端性能が実証された。
- 参考スコア(独自算出の注目度): 16.26377062742576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gait recognition, which aims at identifying individuals by their walking
patterns, has recently drawn increasing research attention. However, gait
recognition still suffers from the conflicts between the limited binary visual
clues of the silhouette and numerous covariates with diverse scales, which
brings challenges to the model's adaptiveness. In this paper, we address this
conflict by developing a novel MetaGait that learns to learn an omni sample
adaptive representation. Towards this goal, MetaGait injects meta-knowledge,
which could guide the model to perceive sample-specific properties, into the
calibration network of the attention mechanism to improve the adaptiveness from
the omni-scale, omni-dimension, and omni-process perspectives. Specifically, we
leverage the meta-knowledge across the entire process, where Meta Triple
Attention and Meta Temporal Pooling are presented respectively to adaptively
capture omni-scale dependency from spatial/channel/temporal dimensions
simultaneously and to adaptively aggregate temporal information through
integrating the merits of three complementary temporal aggregation methods.
Extensive experiments demonstrate the state-of-the-art performance of the
proposed MetaGait. On CASIA-B, we achieve rank-1 accuracy of 98.7%, 96.0%, and
89.3% under three conditions, respectively. On OU-MVLP, we achieve rank-1
accuracy of 92.4%.
- Abstract(参考訳): 歩行パターンによる個人識別を目的とした歩行認識は,近年,研究の注目を集めている。
しかし、歩容認識は依然としてシルエットの限られた二項視覚手がかりと多様なスケールの多くの共変量との衝突に苦しめられているため、モデルの適応性に課題をもたらす。
本稿では,全サンプル適応表現を学ぶことを学ぶ新しいメタゲイトを開発することで,この対立に対処する。
この目標に向けて、metagaitはメタ知識を注入し、モデルがサンプル特有の特性を認識できるように誘導し、全規模、全次元、全プロセスの観点から適応性を改善するための注意機構のキャリブレーションネットワークにモデルを注入する。
具体的には,メタトリプル・アテンションとメタテンポラル・プールをそれぞれ提示し,空間的・チャネル的・時間的次元からオームニスケールの依存性を同時に捉えるとともに,3つの相補的時間的アグリゲーション手法の利点を統合することで時間的情報を適応的に集約する。
大規模な実験によって提案されたMetaGaitの最先端性能が実証された。
casia-bでは,3つの条件下でそれぞれ98.7%,96.0%,89.3%のランク-1精度を達成した。
OU-MVLPでは、ランク1の精度は92.4%である。
関連論文リスト
- S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - The Paradox of Motion: Evidence for Spurious Correlations in
Skeleton-based Gait Recognition Models [4.089889918897877]
本研究は、視覚に基づく歩行認識が主に動きパターンに依存しているという一般的な仮定に挑戦する。
高さ情報の除去が顕著な性能低下につながることを比較分析により示す。
本研究では,時間的情報を無視して個々のポーズを処理する空間変換器モデルを提案する。
論文 参考訳(メタデータ) (2024-02-13T09:33:12Z) - GaitASMS: Gait Recognition by Adaptive Structured Spatial Representation
and Multi-Scale Temporal Aggregation [2.0444600042188448]
歩行認識は、最も有望なビデオベースの生体認証技術の一つである。
本稿では,GaitASMSと呼ばれる新しい歩行認識フレームワークを提案する。
適応的な空間表現を効果的に抽出し、多スケールの時間情報を自然に集約することができる。
論文 参考訳(メタデータ) (2023-07-29T13:03:17Z) - GaitMPL: Gait Recognition with Memory-Augmented Progressive Learning [10.427640929715668]
歩行認識は、歩行パターンによって歩行者を遠くに識別することを目的としている。
本研究では,メモリ拡張プログレッシブラーニングネットワーク(GaitMPL)によるハードサンプル問題の解決を提案する。
具体的には、DRPLは、ハードサンプルの学習難度を、容易にハードプログレッシブな学習によって低減する。
さらにGSAMはDRPLを構造整列メモリ機構で拡張し、各IDの特徴分布を維持し、モデル化する。
論文 参考訳(メタデータ) (2023-06-06T07:24:53Z) - GaitGS: Temporal Feature Learning in Granularity and Span Dimension for Gait Recognition [34.07501669897291]
GaitGSは、時間的特徴を粒度とスパン次元の両方で同時に集約するフレームワークである。
本手法は,2つのデータセットに対して98.2%,96.5%,89.7%のランク1精度を達成し,最先端の性能を示す。
論文 参考訳(メタデータ) (2023-05-31T09:48:25Z) - Cross-Attention is Not Enough: Incongruity-Aware Dynamic Hierarchical
Fusion for Multimodal Affect Recognition [69.32305810128994]
モダリティ間の同調性は、特に認知に影響を及ぼすマルチモーダル融合の課題となる。
本稿では,動的モダリティゲーティング(HCT-DMG)を用いた階層型クロスモーダルトランスを提案する。
HCT-DMG: 1) 従来のマルチモーダルモデルを約0.8Mパラメータで上回り、2) 不整合が認識に影響を及ぼすハードサンプルを認識し、3) 潜在レベルの非整合性をクロスモーダルアテンションで緩和する。
論文 参考訳(メタデータ) (2023-05-23T01:24:15Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Multi-scale Context-aware Network with Transformer for Gait Recognition [35.521073630044434]
歩行認識のための変圧器(MCAT)を用いたマルチスケールコンテキスト認識ネットワークを提案する。
MCATは3つの尺度にまたがって時間的特徴を生成し、局所的・グローバル的な視点からコンテキスト情報を用いて適応的に集約する。
時間的操作による空間的特徴の破損を修復するために、MCATは、有能な空間的特徴学習(SSFL)モジュールを組み込んでいる。
論文 参考訳(メタデータ) (2022-04-07T07:47:21Z) - Few-Shot Fine-Grained Action Recognition via Bidirectional Attention and
Contrastive Meta-Learning [51.03781020616402]
現実世界のアプリケーションで特定のアクション理解の需要が高まっているため、きめ細かいアクション認識が注目を集めている。
そこで本研究では,各クラスに付与されるサンプル数だけを用いて,新規なきめ細かい動作を認識することを目的とした,数発のきめ細かな動作認識問題を提案する。
粒度の粗い動作では進展があったが、既存の数発の認識手法では、粒度の細かい動作を扱う2つの問題に遭遇する。
論文 参考訳(メタデータ) (2021-08-15T02:21:01Z) - A Variational Information Bottleneck Approach to Multi-Omics Data
Integration [98.6475134630792]
本稿では,不完全な多視点観測のための深い変動情報ボトルネック (IB) 手法を提案する。
本手法は,対象物に関連のある視点内および視点間相互作用に焦点をあてるために,観測された視点の辺縁および結合表現にISBフレームワークを適用した。
実世界のデータセットの実験から、我々の手法はデータ統合から常に利益を得て、最先端のベンチマークより優れています。
論文 参考訳(メタデータ) (2021-02-05T06:05:39Z) - HM4: Hidden Markov Model with Memory Management for Visual Place
Recognition [54.051025148533554]
自律運転における視覚的位置認識のための隠れマルコフモデルを提案する。
我々のアルゴリズムはHM$4$と呼ばれ、時間的ルックアヘッドを利用して、有望な候補画像をパッシブストレージとアクティブメモリ間で転送する。
固定被覆領域に対して一定の時間と空間推定が可能であることを示す。
論文 参考訳(メタデータ) (2020-11-01T08:49:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。