論文の概要: Gait Recognition in the Wild: A Large-scale Benchmark and NAS-based
Baseline
- arxiv url: http://arxiv.org/abs/2205.02692v2
- Date: Thu, 11 Jan 2024 03:29:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-13 04:28:05.151683
- Title: Gait Recognition in the Wild: A Large-scale Benchmark and NAS-based
Baseline
- Title(参考訳): 野生における歩行認識:大規模ベンチマークとNASベースベースライン
- Authors: Xianda Guo, Zheng Zhu, Tian Yang, Beibei Lin, Junjie Huang, Jiankang
Deng, Guan Huang, Jie Zhou, Jiwen Lu
- Abstract要約: 歩行ベンチマークにより、研究コミュニティは高性能歩行認識システムの訓練と評価を行うことができる。
GREWは、野生における歩行認識のための最初の大規模データセットである。
SPOSGaitはNASベースの最初の歩行認識モデルである。
- 参考スコア(独自算出の注目度): 95.88825497452716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gait benchmarks empower the research community to train and evaluate
high-performance gait recognition systems. Even though growing efforts have
been devoted to cross-view recognition, academia is restricted by current
existing databases captured in the controlled environment. In this paper, we
contribute a new benchmark and strong baseline for Gait REcognition in the Wild
(GREW). The GREW dataset is constructed from natural videos, which contain
hundreds of cameras and thousands of hours of streams in open systems. With
tremendous manual annotations, the GREW consists of 26K identities and 128K
sequences with rich attributes for unconstrained gait recognition. Moreover, we
add a distractor set of over 233K sequences, making it more suitable for
real-world applications. Compared with prevailing predefined cross-view
datasets, the GREW has diverse and practical view variations, as well as more
naturally challenging factors. To the best of our knowledge, this is the first
large-scale dataset for gait recognition in the wild. Equipped with this
benchmark, we dissect the unconstrained gait recognition problem, where
representative appearance-based and model-based methods are explored. The
proposed GREW benchmark proves to be essential for both training and evaluating
gait recognizers in unconstrained scenarios. In addition, we propose the Single
Path One-Shot neural architecture search with uniform sampling for Gait
recognition, named SPOSGait, which is the first NAS-based gait recognition
model. In experiments, SPOSGait achieves state-of-the-art performance on the
CASIA-B, OU-MVLP, Gait3D, and GREW benchmarks, outperforming existing
approaches by a large margin. The code will be released at
https://github.com/XiandaGuo/SPOSGait.
- Abstract(参考訳): 歩行ベンチマークにより、研究コミュニティは高性能歩行認識システムの訓練と評価を行うことができる。
クロスビューの認識に努力が注がれているにもかかわらず、学界はコントロールされた環境でキャプチャされた現在の既存のデータベースによって制限されている。
本稿では,GREW(Gait Recognition in the Wild)のための新しいベンチマークと強力なベースラインを提案する。
GREWデータセットは、数百台のカメラと数千時間のオープンシステムのストリームを含む、自然なビデオから構築されている。
膨大な手動アノテーションにより、GREWは26Kのアイデンティティと128Kのシーケンスで構成され、制約のない歩行認識のための豊富な属性を持つ。
さらに、233K以上の配列のトラクタセットを追加し、現実世界のアプリケーションにもっと適しています。
事前定義されたクロスビューデータセットと比較すると、GREWは多様で実用的なビューのバリエーションを持ち、より自然に困難である。
私たちの知る限りでは、これは野生での歩行認識のための最初の大規模データセットです。
本稿では,このベンチマークを用いて,代表的外観ベースおよびモデルベース手法が検討される非拘束的歩行認識問題を解析する。
提案手法は,未学習シナリオにおける歩行認識の訓練と評価に不可欠であることが証明された。
さらに,nasベースの最初の歩行認識モデルであるsposgaitという,歩行認識のための一様サンプリングを用いた単一パスワンショットニューラルネットワーク探索を提案する。
実験では、SPOSGaitはCASIA-B、OU-MVLP、Gait3D、GREWのベンチマークで最先端のパフォーマンスを達成し、既存のアプローチを大きなマージンで上回っている。
コードはhttps://github.com/xiandaguo/sposgaitでリリースされる。
関連論文リスト
- GPGait: Generalized Pose-based Gait Recognition [11.316545213493223]
ポーズに基づく歩行認識に関する最近の研究は、このような単純な情報を用いてシルエット法に匹敵する結果が得られる可能性を実証している。
データセット間のポーズに基づく手法の一般化能力を向上させるために,textbf Generalized textbfPose-based textbfGait Recognition frameworkを提案する。
論文 参考訳(メタデータ) (2023-03-09T13:17:13Z) - Exploring Deep Models for Practical Gait Recognition [11.185716724976414]
我々は、最先端の屋外歩行認識のための深層モデルの構築方法について、統一的な視点を示す。
具体的には、浅い歩行モデルのステレオタイプに挑戦し、明示的な時間的モデリングの優位性を実証する。
提案されたCNNベースのDeepGaitV2シリーズとTransformerベースのSwinGaitシリーズは、Gait3DとGREWで大幅に性能が向上した。
論文 参考訳(メタデータ) (2023-03-06T17:19:28Z) - OpenGait: Revisiting Gait Recognition Toward Better Practicality [19.998635762435878]
われわれはまずOpenGaitというフレキシブルで効率的な歩行認識を開発した。
これらの発見に触発されて、構造的にシンプルで、経験的に強力で、事実上堅牢なベースラインモデルであるGaitBaseを開発した。
論文 参考訳(メタデータ) (2022-11-12T07:24:29Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Multi-Modal Human Authentication Using Silhouettes, Gait and RGB [59.46083527510924]
全体認証は、遠隔生体認証のシナリオにおいて有望なアプローチである。
本稿では,RGBデータとシルエットデータを組み合わせたDME(Dual-Modal Ensemble)を提案する。
DME内では、従来の歩行分析に使用される二重ヘリカル歩行パターンにインスパイアされたGaitPatternを提案する。
論文 参考訳(メタデータ) (2022-10-08T15:17:32Z) - Learning Gait Representation from Massive Unlabelled Walking Videos: A
Benchmark [11.948554539954673]
コントラスト学習を伴う歩行認識のための大規模自己教師付きベンチマークを提案する。
1.02万個の歩行シーケンスからなる大規模歩行データセットGaitLU-1Mを収集した。
そこで我々は, CASIA-B, OU-M, GREW, Gait3D の4つの広く使用されている歩行指標を用いて, 事前学習モデルの評価を行った。
論文 参考訳(メタデータ) (2022-06-28T12:33:42Z) - Model-based gait recognition using graph network on very large
population database [3.8707695363745223]
本稿では,主題の増加とビューの変動に抵抗するため,局所的な特徴を構築し,シマウマネットワークを提案する。
OUM-Poseと呼ばれる非常に人口の多いデータセットと一般的なデータセットであるCASIA-Bの実験は、我々の手法がモデルに基づく歩行認識におけるSOTA(State-of-the-art)のパフォーマンスをアーカイブしていることを示している。
論文 参考訳(メタデータ) (2021-12-20T02:28:02Z) - Open-Set Recognition: A Good Closed-Set Classifier is All You Need [146.6814176602689]
分類器が「ゼロ・オブ・ア・ア・ア・ベ」決定を行う能力は、閉集合クラスにおける精度と高い相関関係があることが示される。
この相関を利用して、閉セット精度を向上させることにより、クロスエントロピーOSR'ベースライン'の性能を向上させる。
また、セマンティックノベルティを検出するタスクをより尊重する新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2021-10-12T17:58:59Z) - TraND: Transferable Neighborhood Discovery for Unsupervised Cross-domain
Gait Recognition [77.77786072373942]
本稿では、教師なしクロスドメイン歩行認識のための領域ギャップを橋渡しするTransferable Neighborhood Discovery (TraND) フレームワークを提案する。
我々は、潜在空間におけるラベルなしサンプルの自信ある近傍を自動的に発見するために、エンドツーエンドのトレーニング可能なアプローチを設計する。
提案手法は,CASIA-BとOU-LPの2つの公開データセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-02-09T03:07:07Z) - Benchmarking Graph Neural Networks [75.42159546060509]
グラフニューラルネットワーク(GNN)は、グラフ上のデータから分析および学習するための標準ツールキットとなっている。
成功している分野が主流で信頼性を持つようになるためには、進捗を定量化するためにベンチマークを開発する必要がある。
GitHubリポジトリは1,800のスターと339のフォークに到達し、提案されているオープンソースフレームワークの有用性を実証している。
論文 参考訳(メタデータ) (2020-03-02T15:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。