論文の概要: GaitSet: Cross-view Gait Recognition through Utilizing Gait as a Deep
Set
- arxiv url: http://arxiv.org/abs/2102.03247v1
- Date: Fri, 5 Feb 2021 15:49:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 14:39:40.564732
- Title: GaitSet: Cross-view Gait Recognition through Utilizing Gait as a Deep
Set
- Title(参考訳): GaitSet: 深いセットとしてのGaitを利用したクロスビュー歩行認識
- Authors: Hanqing Chao, Kun Wang, Yiwei He, Junping Zhang, Jianfeng Feng
- Abstract要約: 歩行は、距離で認識できるユニークな生体認証機能である。
既存の歩行認識方法は、不要な順序制約を維持する歩行テンプレートまたは歩行シーケンスを利用する。
本稿では,歩行を深層集合として利用する新しい視点について述べる。つまり,一組の歩行フレームがグローバルな局所融合深層ネットワークによって統合されることを意味する。
- 参考スコア(独自算出の注目度): 19.017795736485944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gait is a unique biometric feature that can be recognized at a distance;
thus, it has broad applications in crime prevention, forensic identification,
and social security. To portray a gait, existing gait recognition methods
utilize either a gait template which makes it difficult to preserve temporal
information, or a gait sequence that maintains unnecessary sequential
constraints and thus loses the flexibility of gait recognition. In this paper,
we present a novel perspective that utilizes gait as a deep set, which means
that a set of gait frames are integrated by a global-local fused deep network
inspired by the way our left- and right-hemisphere processes information to
learn information that can be used in identification. Based on this deep set
perspective, our method is immune to frame permutations, and can naturally
integrate frames from different videos that have been acquired under different
scenarios, such as diverse viewing angles, different clothes, or different
item-carrying conditions. Experiments show that under normal walking
conditions, our single-model method achieves an average rank-1 accuracy of
96.1% on the CASIA-B gait dataset and an accuracy of 87.9% on the OU-MVLP gait
dataset. Under various complex scenarios, our model also exhibits a high level
of robustness. It achieves accuracies of 90.8% and 70.3% on CASIA-B under
bag-carrying and coat-wearing walking conditions respectively, significantly
outperforming the best existing methods. Moreover, the proposed method
maintains a satisfactory accuracy even when only small numbers of frames are
available in the test samples; for example, it achieves 85.0% on CASIA-B even
when using only 7 frames. The source code has been released at
https://github.com/AbnerHqC/GaitSet.
- Abstract(参考訳): 歩行は、遠くで認識できるユニークな生体認証機能であり、犯罪防止、法医学的識別、社会保障に広く適用されています。
歩行を表現するために、既存の歩行認識方法は、時間的情報の保存が困難な歩行テンプレート、または不要な連続的な制約を保ち、歩行認識の柔軟性を失う歩行シーケンスを利用する。
本稿では,左半球と右半球が情報を処理し,識別に使用可能な情報を学習する方法に触発されたグローバル局所融合深層ネットワークにより,歩行フレームの集合を統合した深層集合とする新しい視点を提案する。
この深い視点に基づいて、我々の手法はフレームの置換に無害であり、さまざまな視野角、異なる衣服、異なるアイテムの搬送条件など、異なるシナリオで取得された異なるビデオのフレームを自然に統合することができる。
実験の結果,通常の歩行条件下では,CASIA-B歩行データセットの平均ランク1精度は96.1%,OU-MVLP歩行データセットでは87.9%であった。
様々な複雑なシナリオにおいて、我々のモデルは高レベルの堅牢性を示す。
CASIA-Bのバッグ運搬およびコート着用歩行条件における90.8%と70.3%の精度を達成し、既存の最良の方法を大幅に上回っている。
また,本手法は,試験試料中のフレーム数が少ない場合においても精度が良好であり,例えば7フレームのみを使用してもcasia-bでは85.0%を達成した。
ソースコードはhttps://github.com/AbnerHqC/GaitSetで公開されている。
関連論文リスト
- Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Whole-body Detection, Recognition and Identification at Altitude and
Range [57.445372305202405]
多様なデータセットに基づいて評価したエンドツーエンドシステムを提案する。
我々のアプローチでは、一般的な画像データセットで検出器を事前トレーニングし、BRIARの複雑なビデオや画像でそれを微調整する。
屋内・屋外・航空シナリオにおける様々な範囲や角度の異なる条件下で徹底的な評価を行う。
論文 参考訳(メタデータ) (2023-11-09T20:20:23Z) - Distillation-guided Representation Learning for Unconstrained Gait Recognition [50.0533243584942]
本研究では,屋外シナリオにおける人間認証のためのGADER(GAit Detection and Recognition)フレームワークを提案する。
GADERは、歩行情報を含むフレームのみを使用する新しい歩行認識手法により識別的特徴を構築する。
室内および屋外のデータセットに一貫した改善を示すため,複数の歩行ベースライン(SoTA)について評価を行った。
論文 参考訳(メタデータ) (2023-07-27T01:53:57Z) - GaitGS: Temporal Feature Learning in Granularity and Span Dimension for Gait Recognition [34.07501669897291]
GaitGSは、時間的特徴を粒度とスパン次元の両方で同時に集約するフレームワークである。
本手法は,2つのデータセットに対して98.2%,96.5%,89.7%のランク1精度を達成し,最先端の性能を示す。
論文 参考訳(メタデータ) (2023-05-31T09:48:25Z) - Learning Gait Representation from Massive Unlabelled Walking Videos: A
Benchmark [11.948554539954673]
コントラスト学習を伴う歩行認識のための大規模自己教師付きベンチマークを提案する。
1.02万個の歩行シーケンスからなる大規模歩行データセットGaitLU-1Mを収集した。
そこで我々は, CASIA-B, OU-M, GREW, Gait3D の4つの広く使用されている歩行指標を用いて, 事前学習モデルの評価を行った。
論文 参考訳(メタデータ) (2022-06-28T12:33:42Z) - Gait Recognition in the Wild: A Large-scale Benchmark and NAS-based
Baseline [95.88825497452716]
歩行ベンチマークにより、研究コミュニティは高性能歩行認識システムの訓練と評価を行うことができる。
GREWは、野生における歩行認識のための最初の大規模データセットである。
SPOSGaitはNASベースの最初の歩行認識モデルである。
論文 参考訳(メタデータ) (2022-05-05T14:57:39Z) - Spatial Transformer Network on Skeleton-based Gait Recognition [19.747638780327257]
Gait-TRは、空間トランスフォーマーフレームワークと時間畳み込みネットワークに基づく頑健な骨格に基づく歩行認識モデルである。
歩行-TRは、よく知られた歩行データセットCASIA-Bの精度とロバスト性を向上し、他の骨格ベースの歩行モデルよりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-04-08T06:53:23Z) - WildGait: Learning Gait Representations from Raw Surveillance Streams [1.90365714903665]
歩行認識の既存の方法は、単一の人がカメラの前で直線で複数回歩いている協調歩行シナリオを必要とします。
本稿では,多数の自動注釈付きスケルトン配列上で時空間グラフ畳み込みネットワークを訓練する,新しい弱教師付き学習フレームワークwildgaitを提案する。
以上の結果から,現状のポーズに基づく歩容認識ソリューションは,微調整により認識精度を上回った。
論文 参考訳(メタデータ) (2021-05-12T09:11:32Z) - Uncertainty Sets for Image Classifiers using Conformal Prediction [112.54626392838163]
本稿では,任意の分類器を修飾して真のラベルを含む予測集合を,90%などのユーザ指定確率で出力するアルゴリズムを提案する。
このアルゴリズムはPlatetスケーリングのようにシンプルで高速だが、すべてのモデルとデータセットに対して正式な有限サンプルカバレッジを保証する。
提案手法は,Plattスケーリング後の可逆クラスの小さなスコアを正規化することにより,より安定した予測セットを与えるために,既存の共形予測アルゴリズムを改良する。
論文 参考訳(メタデータ) (2020-09-29T17:58:04Z) - Uncertainty-Aware Weakly Supervised Action Detection from Untrimmed
Videos [82.02074241700728]
本稿では,ビデオフレームラベルのみを用いてトレーニングした,禁止レベルの行動認識モデルを提案する。
人1人当たりの手法は、複数のインスタンス学習フレームワーク内の大規模な画像データセットで訓練されている。
標準的な多重インスタンス学習の仮定では、各バッグには、指定されたラベルを持つ少なくとも1つのインスタンスが含まれているという仮定が無効である場合、どのようにメソッドを適用するかを示す。
論文 参考訳(メタデータ) (2020-07-21T10:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。