論文の概要: GaitGL: Learning Discriminative Global-Local Feature Representations for
Gait Recognition
- arxiv url: http://arxiv.org/abs/2208.01380v1
- Date: Tue, 2 Aug 2022 11:50:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-03 13:21:25.671671
- Title: GaitGL: Learning Discriminative Global-Local Feature Representations for
Gait Recognition
- Title(参考訳): GaitGL: 歩行認識のための識別的グローバルローカル特徴表現の学習
- Authors: Beibei Lin, Shunli Zhang, Ming Wang, Lincheng Li, and Xin Yu
- Abstract要約: GaitGLはグローバルローカルな歩行認識ネットワークである。
GLCLは、GFR抽出器とマスクベースのLFR抽出器からなる二重分岐構造である。
実験により、GaitGLは最先端の歩行認識方法よりも優れた性能を達成することが示された。
- 参考スコア(独自算出の注目度): 29.128348655227416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing gait recognition methods either directly establish Global Feature
Representation (GFR) from original gait sequences or generate Local Feature
Representation (LFR) from several local parts. However, GFR tends to neglect
local details of human postures as the receptive fields become larger in the
deeper network layers. Although LFR allows the network to focus on the detailed
posture information of each local region, it neglects the relations among
different local parts and thus only exploits limited local information of
several specific regions. To solve these issues, we propose a global-local
based gait recognition network, named GaitGL, to generate more discriminative
feature representations. To be specific, a novel Global and Local Convolutional
Layer (GLCL) is developed to take full advantage of both global visual
information and local region details in each layer. GLCL is a dual-branch
structure that consists of a GFR extractor and a mask-based LFR extractor. GFR
extractor aims to extract contextual information, e.g., the relationship among
various body parts, and the mask-based LFR extractor is presented to exploit
the detailed posture changes of local regions. In addition, we introduce a
novel mask-based strategy to improve the local feature extraction capability.
Specifically, we design pairs of complementary masks to randomly occlude
feature maps, and then train our mask-based LFR extractor on various occluded
feature maps. In this manner, the LFR extractor will learn to fully exploit
local information. Extensive experiments demonstrate that GaitGL achieves
better performance than state-of-the-art gait recognition methods. The average
rank-1 accuracy on CASIA-B, OU-MVLP, GREW and Gait3D is 93.6%, 98.7%, 68.0% and
63.8%, respectively, significantly outperforming the competing methods. The
proposed method has won the first prize in two competitions: HID 2020 and HID
2021.
- Abstract(参考訳): 既存の歩行認識手法は、元の歩行系列から直接グローバル特徴表現(GFR)を確立するか、複数の局所部分から局所特徴表現(LFR)を生成する。
しかしGFRは、より深いネットワーク層において受容野が大きくなるにつれて、人間の姿勢の局所的な詳細を無視する傾向にある。
LFRは各地域の詳細な姿勢情報に焦点を合わせることができるが、異なる地域間の関係を無視し、特定の地域の限られた地域情報のみを利用する。
これらの問題を解決するために,GaitGLというグローバルローカルな歩行認識ネットワークを提案し,より差別的な特徴表現を生成する。
具体的には、グローバルな視覚情報と各レイヤの局所的な詳細の両方をフル活用するために、Global and Local Convolutional Layer(GLCL)が開発された。
GLCLはGFR抽出器とマスクベースのLFR抽出器からなる二重分岐構造である。
GFR抽出器は, 各種部位間の関係などの文脈情報を抽出することを目的としており, マスクベースLFR抽出器は局所的な姿勢変化の詳細な利用を目的としている。
さらに,局所特徴抽出機能を改善するためのマスクベースの新しい戦略を導入する。
具体的には,一対の補完マスクを設計し,ランダムに特徴マップを隠蔽し,様々な特徴マップ上でマスクベースのLFR抽出器を訓練する。
このようにして、LFR抽出器は、ローカル情報を完全に活用することを学ぶ。
広範な実験により、gaitglは最先端のgait認識方法よりも優れた性能を達成できることが示されている。
CASIA-B, OU-MVLP, GREW, Gait3Dの平均ランク1の精度はそれぞれ93.6%, 98.7%, 68.0%, 63.8%であり、競合する手法よりも優れていた。
提案手法はHID 2020とHID 2021という2つのコンペで優勝した。
関連論文リスト
- GLC++: Source-Free Universal Domain Adaptation through Global-Local Clustering and Contrastive Affinity Learning [84.54244771470012]
Source-Free Universal Domain Adaptation (SF-UniDA) は、共通カテゴリに属する「既知の」データを正確に分類することを目的としている。
本稿では,適応的な一対一のグローバルクラスタリングアルゴリズムを備えた新しいグローバル・ローカルクラスタリング(GLC)手法を提案する。
我々はGLCをGLC++に進化させ、対照的な親和性学習戦略を統合する。
論文 参考訳(メタデータ) (2024-03-21T13:57:45Z) - Exploit CAM by itself: Complementary Learning System for Weakly
Supervised Semantic Segmentation [59.24824050194334]
本稿では,CLS(Complementary Learning System)というエージェント学習における興味深い作業機構について述べる。
このシンプルだが効果的な学習パターンを動機として,汎用学習機構(GSLM)を提案する。
汎用学習モジュール(GLM)と特定学習モジュール(SLM)を開発するGSLM
論文 参考訳(メタデータ) (2023-03-04T16:16:47Z) - SuperGF: Unifying Local and Global Features for Visual Localization [13.869227429939423]
SuperGFは、画像マッチング固有のローカル機能を直接操作するトランスフォーマーベースの集約モデルである。
我々は,高密度でスパースな学習ベースや手作りの記述子など,様々なローカル特徴を用いたSuperGFの実装を提供する。
論文 参考訳(メタデータ) (2022-12-23T13:48:07Z) - L2G: A Simple Local-to-Global Knowledge Transfer Framework for Weakly
Supervised Semantic Segmentation [67.26984058377435]
高品質なオブジェクトアテンションマイニングのための簡易なローカル・グローバルな知識伝達フレームワークであるL2Gについて述べる。
本フレームワークは,グローバルな視点から収集したリッチオブジェクトの詳細知識をグローバルネットワークで学習する。
実験の結果,PASCAL VOC 2012とMS COCO 2014の検証セットにおいて,72.1%,44.2%のmIoU値が得られた。
論文 参考訳(メタデータ) (2022-04-07T04:31:32Z) - Region-Based Semantic Factorization in GANs [67.90498535507106]
本稿では,任意の画像領域についてGAN(Generative Adversarial Networks)が学習した潜在意味を分解するアルゴリズムを提案する。
適切に定義された一般化されたレイリー商を通して、アノテーションや訓練なしにそのような問題を解く。
様々な最先端のGANモデルに対する実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-02-19T17:46:02Z) - Hand-Based Person Identification using Global and Part-Aware Deep
Feature Representation Learning [6.144554939661599]
グローバル特徴表現とローカル特徴表現の両方を学習し,手指による人物識別を提案する。
提案手法であるGlobal and Part-Aware Network (GPA-Net) は,conv層上のグローバルおよびローカルブランチを生成する。
提案手法が競合するアプローチを著しく上回っていることを示すため,2つの大規模マルチエスニックデータセットと公開ハンドデータセットについて広範な評価を行った。
論文 参考訳(メタデータ) (2021-01-13T18:47:47Z) - PGL: Prior-Guided Local Self-supervised Learning for 3D Medical Image
Segmentation [87.50205728818601]
本稿では,潜在特徴空間における局所的一貫性を学習するPGL(PresideedGuided Local)自己教師モデルを提案する。
我々のPGLモデルは、局所領域の特異な表現を学習し、したがって構造情報を保持できる。
論文 参考訳(メタデータ) (2020-11-25T11:03:11Z) - Gait Recognition via Effective Global-Local Feature Representation and
Local Temporal Aggregation [28.721376937882958]
歩行認識は最も重要な生体計測技術の一つであり、多くの分野で応用されている。
近年の歩行認識フレームワークは、人間のグローバルな外観または地域から抽出された記述子によって各歩行フレームを表現している。
歩行認識のための識別的特徴表現を実現するための新しい特徴抽出・融合フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-03T04:07:13Z) - Dense Residual Network: Enhancing Global Dense Feature Flow for
Character Recognition [75.4027660840568]
本稿では,すべての畳み込み層から階層的特徴をフルに活用することにより,局所的・大域的特徴フローを改善する方法について検討する。
技術的には、テキスト認識のための効率的で効果的なCNNフレームワークであるFDRN(Fast Dense Residual Network)を提案する。
論文 参考訳(メタデータ) (2020-01-23T06:55:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。