論文の概要: Gait Recognition in the Wild: A Benchmark
- arxiv url: http://arxiv.org/abs/2205.02692v1
- Date: Thu, 5 May 2022 14:57:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 20:25:00.196035
- Title: Gait Recognition in the Wild: A Benchmark
- Title(参考訳): 野生での歩行認識:ベンチマーク
- Authors: Zheng Zhu, Xianda Guo, Tian Yang, Junjie Huang, Jiankang Deng, Guan
Huang, Dalong Du, Jiwen Lu, Jie Zhou
- Abstract要約: 歩行ベンチマークにより、研究コミュニティは高性能歩行認識システムの訓練と評価を行うことができる。
我々は、野生での歩行認識のための新しいベンチマーク(GREW)に貢献する。
GREWデータセットは、数百台のカメラと数千時間のストリームをオープンシステムに収めた、自然なビデオから構築されている。
- 参考スコア(独自算出の注目度): 88.55364662939583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gait benchmarks empower the research community to train and evaluate
high-performance gait recognition systems. Even though growing efforts have
been devoted to cross-view recognition, academia is restricted by current
existing databases captured in the controlled environment. In this paper, we
contribute a new benchmark for Gait REcognition in the Wild (GREW). The GREW
dataset is constructed from natural videos, which contains hundreds of cameras
and thousands of hours streams in open systems. With tremendous manual
annotations, the GREW consists of 26K identities and 128K sequences with rich
attributes for unconstrained gait recognition. Moreover, we add a distractor
set of over 233K sequences, making it more suitable for real-world
applications. Compared with prevailing predefined cross-view datasets, the GREW
has diverse and practical view variations, as well as more natural challenging
factors. To the best of our knowledge, this is the first large-scale dataset
for gait recognition in the wild. Equipped with this benchmark, we dissect the
unconstrained gait recognition problem. Representative appearance-based and
model-based methods are explored, and comprehensive baselines are established.
Experimental results show (1) The proposed GREW benchmark is necessary for
training and evaluating gait recognizer in the wild. (2) For state-of-the-art
gait recognition approaches, there is a lot of room for improvement. (3) The
GREW benchmark can be used as effective pre-training for controlled gait
recognition. Benchmark website is https://www.grew-benchmark.org/.
- Abstract(参考訳): 歩行ベンチマークにより、研究コミュニティは高性能歩行認識システムの訓練と評価を行うことができる。
クロスビューの認識に努力が注がれているにもかかわらず、学界はコントロールされた環境でキャプチャされた現在の既存のデータベースによって制限されている。
本稿では,GREW (Gait Recognition in the Wild) の新たなベンチマークに貢献する。
GREWデータセットは、数百台のカメラと数千時間のオープンシステムのストリームを含む、自然ビデオから構築されている。
膨大な手動アノテーションにより、GREWは26Kのアイデンティティと128Kのシーケンスで構成され、制約のない歩行認識のための豊富な属性を持つ。
さらに、233K以上の配列のトラクタセットを追加し、現実世界のアプリケーションにもっと適しています。
定義済みのクロスビューデータセットと比較すると、GREWは多様で実用的なビューのバリエーションを持ち、より自然な難易度を持つ。
私たちの知る限りでは、これは野生での歩行認識のための最初の大規模データセットです。
このベンチマークにより、制約のない歩行認識問題を判別する。
代表的な外観とモデルに基づく手法を探索し,包括的ベースラインを構築した。
実験の結果,(1)野生の歩行認識器の訓練と評価には,提案する成長ベンチマークが必要であった。
(2)最先端の歩容認識アプローチには,改善の余地がたくさんある。
(3)GREWベンチマークは歩行認識のための効果的な事前トレーニングとして利用できる。
ベンチマークウェブサイトはhttps://www.grew-benchmark.org/。
関連論文リスト
- OpenGait: A Comprehensive Benchmark Study for Gait Recognition towards Better Practicality [11.64292241875791]
われわれはまず,フレキシブルで効率的な歩行認識プラットフォームOpenGaitを開発した。
また,OpenGaitを基盤として,近年の歩行認識の進展を再考するため,詳細なアブレーション実験を実施している。
これらの知見にインスパイアされ、構造的に単純だが経験的に強力で実用的に堅牢なベースラインモデル3つを開発した。
論文 参考訳(メタデータ) (2024-05-15T07:11:12Z) - Distillation-guided Representation Learning for Unconstrained Gait Recognition [50.0533243584942]
本研究では,屋外シナリオにおける人間認証のためのGADER(GAit Detection and Recognition)フレームワークを提案する。
GADERは、歩行情報を含むフレームのみを使用する新しい歩行認識手法により識別的特徴を構築する。
室内および屋外のデータセットに一貫した改善を示すため,複数の歩行ベースライン(SoTA)について評価を行った。
論文 参考訳(メタデータ) (2023-07-27T01:53:57Z) - GPGait: Generalized Pose-based Gait Recognition [11.316545213493223]
ポーズに基づく歩行認識に関する最近の研究は、このような単純な情報を用いてシルエット法に匹敵する結果が得られる可能性を実証している。
データセット間のポーズに基づく手法の一般化能力を向上させるために,textbf Generalized textbfPose-based textbfGait Recognition frameworkを提案する。
論文 参考訳(メタデータ) (2023-03-09T13:17:13Z) - OpenGait: Revisiting Gait Recognition Toward Better Practicality [19.998635762435878]
われわれはまずOpenGaitというフレキシブルで効率的な歩行認識を開発した。
これらの発見に触発されて、構造的にシンプルで、経験的に強力で、事実上堅牢なベースラインモデルであるGaitBaseを開発した。
論文 参考訳(メタデータ) (2022-11-12T07:24:29Z) - Multi-Modal Human Authentication Using Silhouettes, Gait and RGB [59.46083527510924]
全体認証は、遠隔生体認証のシナリオにおいて有望なアプローチである。
本稿では,RGBデータとシルエットデータを組み合わせたDME(Dual-Modal Ensemble)を提案する。
DME内では、従来の歩行分析に使用される二重ヘリカル歩行パターンにインスパイアされたGaitPatternを提案する。
論文 参考訳(メタデータ) (2022-10-08T15:17:32Z) - Learning Gait Representation from Massive Unlabelled Walking Videos: A
Benchmark [11.948554539954673]
コントラスト学習を伴う歩行認識のための大規模自己教師付きベンチマークを提案する。
1.02万個の歩行シーケンスからなる大規模歩行データセットGaitLU-1Mを収集した。
そこで我々は, CASIA-B, OU-M, GREW, Gait3D の4つの広く使用されている歩行指標を用いて, 事前学習モデルの評価を行った。
論文 参考訳(メタデータ) (2022-06-28T12:33:42Z) - Model-based gait recognition using graph network on very large
population database [3.8707695363745223]
本稿では,主題の増加とビューの変動に抵抗するため,局所的な特徴を構築し,シマウマネットワークを提案する。
OUM-Poseと呼ばれる非常に人口の多いデータセットと一般的なデータセットであるCASIA-Bの実験は、我々の手法がモデルに基づく歩行認識におけるSOTA(State-of-the-art)のパフォーマンスをアーカイブしていることを示している。
論文 参考訳(メタデータ) (2021-12-20T02:28:02Z) - Open-Set Recognition: A Good Closed-Set Classifier is All You Need [146.6814176602689]
分類器が「ゼロ・オブ・ア・ア・ア・ベ」決定を行う能力は、閉集合クラスにおける精度と高い相関関係があることが示される。
この相関を利用して、閉セット精度を向上させることにより、クロスエントロピーOSR'ベースライン'の性能を向上させる。
また、セマンティックノベルティを検出するタスクをより尊重する新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2021-10-12T17:58:59Z) - TraND: Transferable Neighborhood Discovery for Unsupervised Cross-domain
Gait Recognition [77.77786072373942]
本稿では、教師なしクロスドメイン歩行認識のための領域ギャップを橋渡しするTransferable Neighborhood Discovery (TraND) フレームワークを提案する。
我々は、潜在空間におけるラベルなしサンプルの自信ある近傍を自動的に発見するために、エンドツーエンドのトレーニング可能なアプローチを設計する。
提案手法は,CASIA-BとOU-LPの2つの公開データセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-02-09T03:07:07Z) - Benchmarking Graph Neural Networks [75.42159546060509]
グラフニューラルネットワーク(GNN)は、グラフ上のデータから分析および学習するための標準ツールキットとなっている。
成功している分野が主流で信頼性を持つようになるためには、進捗を定量化するためにベンチマークを開発する必要がある。
GitHubリポジトリは1,800のスターと339のフォークに到達し、提案されているオープンソースフレームワークの有用性を実証している。
論文 参考訳(メタデータ) (2020-03-02T15:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。