論文の概要: Learning Gait Representation from Massive Unlabelled Walking Videos: A
Benchmark
- arxiv url: http://arxiv.org/abs/2206.13964v1
- Date: Tue, 28 Jun 2022 12:33:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-02 10:34:50.752438
- Title: Learning Gait Representation from Massive Unlabelled Walking Videos: A
Benchmark
- Title(参考訳): 巨大なラベルなし歩行ビデオから歩行表現を学ぶ:ベンチマーク
- Authors: Chao Fan, Saihui Hou, Jilong Wang, Yongzhen Huang, and Shiqi Yu
- Abstract要約: コントラスト学習を伴う歩行認識のための大規模自己教師付きベンチマークを提案する。
1.02万個の歩行シーケンスからなる大規模歩行データセットGaitLU-1Mを収集した。
そこで我々は, CASIA-B, OU-M, GREW, Gait3D の4つの広く使用されている歩行指標を用いて, 事前学習モデルの評価を行った。
- 参考スコア(独自算出の注目度): 22.085064945271306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gait depicts individuals' unique and distinguishing walking patterns and has
become one of the most promising biometric features for human identification.
As a fine-grained recognition task, gait recognition is easily affected by many
factors and usually requires a large amount of completely annotated data that
is costly and insatiable. This paper proposes a large-scale self-supervised
benchmark for gait recognition with contrastive learning, aiming to learn the
general gait representation from massive unlabelled walking videos for
practical applications via offering informative walking priors and diverse
real-world variations. Specifically, we collect a large-scale unlabelled gait
dataset GaitLU-1M consisting of 1.02M walking sequences and propose a
conceptually simple yet empirically powerful baseline model GaitSSB.
Experimentally, we evaluate the pre-trained model on four widely-used gait
benchmarks, CASIA-B, OU-MVLP, GREW and Gait3D with or without transfer
learning. The unsupervised results are comparable to or even better than the
early model-based and GEI-based methods. After transfer learning, our method
outperforms existing methods by a large margin in most cases. Theoretically, we
discuss the critical issues for gait-specific contrastive framework and present
some insights for further study. As far as we know, GaitLU-1M is the first
large-scale unlabelled gait dataset, and GaitSSB is the first method that
achieves remarkable unsupervised results on the aforementioned benchmarks. The
source code of GaitSSB will be integrated into OpenGait which is available at
https://github.com/ShiqiYu/OpenGait.
- Abstract(参考訳): ゲイトは個人独自の歩行パターンを描き、人間の識別において最も有望な生体認証の特徴の1つとなった。
細かな認識タスクとして、歩容認識は多くの要因に影響を受けやすく、通常、費用がかかり、満足できない大量の完全な注釈付きデータを必要とする。
本論文は,大規模非ラベル歩行ビデオから一般の歩行表現を学習することを目的とした,コントラスト学習を用いた歩行認識のための大規模自己教師付ベンチマークを提案する。
具体的には,1.02万個の歩行シーケンスからなる大規模歩行データセットGaitLU-1Mを収集し,概念的にシンプルだが実証的に強力なベースラインモデルGaitSSBを提案する。
実験では,casia-b,ou-mvlp,grove,gait3dの4つのgaitベンチマークにおいて,トランスファー学習の有無で事前学習モデルを評価する。
教師なしの結果は、初期のモデルベースやGEIベースの方法と同等か、それ以上に優れている。
移動学習では,ほとんどの場合,既存の手法よりも大きな差がある。
理論的には,歩行特有のコントラストフレームワークの重要な問題について議論し,さらなる研究のための洞察を与える。
われわれが知る限り、GaitLU-1Mは最初の大規模未ラベル歩行データセットであり、GaitSSBは前述のベンチマークで目立った教師なしの結果を得る最初の方法である。
GaitSSBのソースコードはOpenGaitに統合され、https://github.com/ShiqiYu/OpenGaitで入手できる。
関連論文リスト
- OpenGait: A Comprehensive Benchmark Study for Gait Recognition towards Better Practicality [11.64292241875791]
われわれはまず,フレキシブルで効率的な歩行認識プラットフォームOpenGaitを開発した。
また,OpenGaitを基盤として,近年の歩行認識の進展を再考するため,詳細なアブレーション実験を実施している。
これらの知見にインスパイアされ、構造的に単純だが経験的に強力で実用的に堅牢なベースラインモデル3つを開発した。
論文 参考訳(メタデータ) (2024-05-15T07:11:12Z) - Memory Consistency Guided Divide-and-Conquer Learning for Generalized
Category Discovery [56.172872410834664]
一般カテゴリー発見(GCD)は、半教師付き学習のより現実的で挑戦的な設定に対処することを目的としている。
メモリ一貫性を誘導する分枝・分枝学習フレームワーク(MCDL)を提案する。
本手法は,画像認識の目に見えるクラスと見えないクラスの両方において,最先端のモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-24T09:39:45Z) - GaitFormer: Learning Gait Representations with Noisy Multi-Task Learning [4.831663144935878]
本稿では,217Kの匿名トラックレットを含む歩行分析システムのための最大データセットであるDenseGaitを提案する。
また、CASIA-Bで92.5%、FVGで85.33%の精度を実現するトランスフォーマーベースのモデルであるGaitFormerを提案する。
論文 参考訳(メタデータ) (2023-10-30T10:28:44Z) - Distillation-guided Representation Learning for Unconstrained Gait Recognition [50.0533243584942]
本研究では,屋外シナリオにおける人間認証のためのGADER(GAit Detection and Recognition)フレームワークを提案する。
GADERは、歩行情報を含むフレームのみを使用する新しい歩行認識手法により識別的特徴を構築する。
室内および屋外のデータセットに一貫した改善を示すため,複数の歩行ベースライン(SoTA)について評価を行った。
論文 参考訳(メタデータ) (2023-07-27T01:53:57Z) - OpenGait: Revisiting Gait Recognition Toward Better Practicality [19.998635762435878]
われわれはまずOpenGaitというフレキシブルで効率的な歩行認識を開発した。
これらの発見に触発されて、構造的にシンプルで、経験的に強力で、事実上堅牢なベースラインモデルであるGaitBaseを開発した。
論文 参考訳(メタデータ) (2022-11-12T07:24:29Z) - Multi-Modal Human Authentication Using Silhouettes, Gait and RGB [59.46083527510924]
全体認証は、遠隔生体認証のシナリオにおいて有望なアプローチである。
本稿では,RGBデータとシルエットデータを組み合わせたDME(Dual-Modal Ensemble)を提案する。
DME内では、従来の歩行分析に使用される二重ヘリカル歩行パターンにインスパイアされたGaitPatternを提案する。
論文 参考訳(メタデータ) (2022-10-08T15:17:32Z) - Gait Recognition in the Wild: A Large-scale Benchmark and NAS-based
Baseline [95.88825497452716]
歩行ベンチマークにより、研究コミュニティは高性能歩行認識システムの訓練と評価を行うことができる。
GREWは、野生における歩行認識のための最初の大規模データセットである。
SPOSGaitはNASベースの最初の歩行認識モデルである。
論文 参考訳(メタデータ) (2022-05-05T14:57:39Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z) - SelfGait: A Spatiotemporal Representation Learning Method for
Self-supervised Gait Recognition [24.156710529672775]
歩行認識は、歩行が距離で認識することができるユニークな生体測定機能であるため、人間の識別に重要な役割を果たします。
既存の歩行認識法は歩行系列から歩行特徴を異なる方法で学習することができるが、歩行認識の性能はラベル付きデータに苦しむ。
本研究では, 事前学習プロセスとして, 多種多様でラベルなしの歩行データを活用した自己監視歩行認識手法であるSelfGaitを提案する。
論文 参考訳(メタデータ) (2021-03-27T05:15:39Z) - TraND: Transferable Neighborhood Discovery for Unsupervised Cross-domain
Gait Recognition [77.77786072373942]
本稿では、教師なしクロスドメイン歩行認識のための領域ギャップを橋渡しするTransferable Neighborhood Discovery (TraND) フレームワークを提案する。
我々は、潜在空間におけるラベルなしサンプルの自信ある近傍を自動的に発見するために、エンドツーエンドのトレーニング可能なアプローチを設計する。
提案手法は,CASIA-BとOU-LPの2つの公開データセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-02-09T03:07:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。