論文の概要: Exploring Deep Models for Practical Gait Recognition
- arxiv url: http://arxiv.org/abs/2303.03301v3
- Date: Wed, 10 Jan 2024 04:47:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 17:51:55.054947
- Title: Exploring Deep Models for Practical Gait Recognition
- Title(参考訳): 実用的な歩行認識のための深層モデル探索
- Authors: Chao Fan, Saihui Hou, Yongzhen Huang, and Shiqi Yu
- Abstract要約: 我々は、最先端の屋外歩行認識のための深層モデルの構築方法について、統一的な視点を示す。
具体的には、浅い歩行モデルのステレオタイプに挑戦し、明示的な時間的モデリングの優位性を実証する。
提案されたCNNベースのDeepGaitV2シリーズとTransformerベースのSwinGaitシリーズは、Gait3DとGREWで大幅に性能が向上した。
- 参考スコア(独自算出の注目度): 11.185716724976414
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Gait recognition is a rapidly advancing vision technique for person
identification from a distance. Prior studies predominantly employed relatively
shallow networks to extract subtle gait features, achieving impressive
successes in constrained settings. Nevertheless, experiments revealed that
existing methods mostly produce unsatisfactory results when applied to newly
released real-world gait datasets. This paper presents a unified perspective to
explore how to construct deep models for state-of-the-art outdoor gait
recognition, including the classical CNN-based and emerging Transformer-based
architectures. Specifically, we challenge the stereotype of shallow gait models
and demonstrate the superiority of explicit temporal modeling and deep
transformer structure for discriminative gait representation learning.
Consequently, the proposed CNN-based DeepGaitV2 series and Transformer-based
SwinGait series exhibit significant performance improvements on Gait3D and
GREW. As for the constrained gait datasets, the DeepGaitV2 series also reaches
a new state-of-the-art in most cases, convincingly showing its practicality and
generality. The source code is available at
https://github.com/ShiqiYu/OpenGait.
- Abstract(参考訳): 歩行認識は、遠くから人物を識別するための急速に進歩する視覚技術である。
以前の研究では、比較的浅いネットワークを使って微妙な歩行の特徴を抽出し、制約のある設定で驚くべき成功を収めた。
それにもかかわらず、実験により、既存の手法は、新しくリリースされた実世界の歩行データセットに適用すると、ほとんど満足できない結果をもたらすことが明らかになった。
本稿では,従来のCNNやTransformerベースのアーキテクチャを含む,最先端の屋外歩行認識のための深層モデルの構築方法について検討する。
具体的には、浅層歩行モデルのステレオタイプに挑戦し、識別的歩行表現学習のための明示的時間モデルと深部変圧器構造の優位性を示す。
その結果、提案されたCNNベースのDeepGaitV2シリーズとTransformerベースのSwinGaitシリーズは、Gait3DとGREWで大幅に性能が向上した。
制約された歩数データセットに関しては、DeepGaitV2シリーズは、ほとんどのケースで新しい最先端に達し、その実用性と一般性を示している。
ソースコードはhttps://github.com/ShiqiYu/OpenGaitで入手できる。
関連論文リスト
- Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - OpenGait: A Comprehensive Benchmark Study for Gait Recognition towards Better Practicality [11.64292241875791]
われわれはまず,フレキシブルで効率的な歩行認識プラットフォームOpenGaitを開発した。
また,OpenGaitを基盤として,近年の歩行認識の進展を再考するため,詳細なアブレーション実験を実施している。
これらの知見にインスパイアされ、構造的に単純だが経験的に強力で実用的に堅牢なベースラインモデル3つを開発した。
論文 参考訳(メタデータ) (2024-05-15T07:11:12Z) - BigGait: Learning Gait Representation You Want by Large Vision Models [12.620774996969535]
既存の歩行認識手法は、教師あり学習によって駆動されるタスク固有の上流に頼り、明確な歩行表現を提供する。
この傾向から逃れたこの研究は、BigGaitと呼ばれるシンプルだが効率的な歩行フレームワークを提案する。
BigGaitは、すべての目的の知識を、サードパーティの監視信号を必要としない暗黙の歩行表現に変換する。
論文 参考訳(メタデータ) (2024-02-29T13:00:22Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Generalized Face Forgery Detection via Adaptive Learning for Pre-trained Vision Transformer [54.32283739486781]
適応学習パラダイムの下で,textbfForgery-aware textbfAdaptive textbfVision textbfTransformer(FA-ViT)を提案する。
FA-ViTは、クロスデータセット評価において、Celeb-DFおよびDFDCデータセット上で93.83%と78.32%のAUCスコアを達成する。
論文 参考訳(メタデータ) (2023-09-20T06:51:11Z) - Distillation-guided Representation Learning for Unconstrained Gait Recognition [50.0533243584942]
本研究では,屋外シナリオにおける人間認証のためのGADER(GAit Detection and Recognition)フレームワークを提案する。
GADERは、歩行情報を含むフレームのみを使用する新しい歩行認識手法により識別的特徴を構築する。
室内および屋外のデータセットに一貫した改善を示すため,複数の歩行ベースライン(SoTA)について評価を行った。
論文 参考訳(メタデータ) (2023-07-27T01:53:57Z) - Gait Recognition in the Wild: A Large-scale Benchmark and NAS-based
Baseline [95.88825497452716]
歩行ベンチマークにより、研究コミュニティは高性能歩行認識システムの訓練と評価を行うことができる。
GREWは、野生における歩行認識のための最初の大規模データセットである。
SPOSGaitはNASベースの最初の歩行認識モデルである。
論文 参考訳(メタデータ) (2022-05-05T14:57:39Z) - Towards a Deeper Understanding of Skeleton-based Gait Recognition [4.812321790984493]
近年、ほとんどの歩行認識法は、人のシルエットを使って歩行の特徴を抽出している。
モデルに基づく手法はこれらの問題に悩まされず、身体関節の時間運動を表現することができる。
本研究では,高次入力と残差ネットワークを組み合わせたグラフ畳み込みネットワーク(GCN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-16T18:23:37Z) - Model-based gait recognition using graph network on very large
population database [3.8707695363745223]
本稿では,主題の増加とビューの変動に抵抗するため,局所的な特徴を構築し,シマウマネットワークを提案する。
OUM-Poseと呼ばれる非常に人口の多いデータセットと一般的なデータセットであるCASIA-Bの実験は、我々の手法がモデルに基づく歩行認識におけるSOTA(State-of-the-art)のパフォーマンスをアーカイブしていることを示している。
論文 参考訳(メタデータ) (2021-12-20T02:28:02Z) - Depth Guided Adaptive Meta-Fusion Network for Few-shot Video Recognition [86.31412529187243]
わずかにラベル付きサンプルで新しいアクションを学習することを目的としたビデオ認識はほとんどない。
本稿では,AMeFu-Netと呼ばれる映像認識のための深度誘導型適応メタフュージョンネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T03:06:20Z) - Gait Recognition using Multi-Scale Partial Representation Transformation
with Capsules [22.99694601595627]
本稿では,カプセルを用いたマルチスケール部分歩行表現の伝達を学習する,新しいディープネットワークを提案する。
我々のネットワークは、まず最先端のディープ部分特徴抽出器を用いて、マルチスケールな部分表現を得る。
その後、前向きと後向きの部分的特徴間のパターンの相関関係と共起関係を繰り返し学習する。
論文 参考訳(メタデータ) (2020-10-18T19:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。