論文の概要: OpenGait: Revisiting Gait Recognition Toward Better Practicality
- arxiv url: http://arxiv.org/abs/2211.06597v1
- Date: Sat, 12 Nov 2022 07:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 18:08:39.415759
- Title: OpenGait: Revisiting Gait Recognition Toward Better Practicality
- Title(参考訳): OpenGait: より良い実践性に向けた歩行認識の再考
- Authors: Chao Fan and Junhao Liang and Chuanfu Shen and Saihui Hou and Yongzhen
Huang and Shiqi Yu
- Abstract要約: われわれはまずOpenGaitというフレキシブルで効率的な歩行認識を開発した。
これらの発見に触発されて、構造的にシンプルで、経験的に強力で、事実上堅牢なベースラインモデルであるGaitBaseを開発した。
- 参考スコア(独自算出の注目度): 19.998635762435878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gait recognition is one of the most important long-distance identification
technologies and increasingly gains popularity in both research and industry
communities. Although significant progress has been made in indoor datasets,
much evidence shows that gait recognition techniques perform poorly in the
wild. More importantly, we also find that many conclusions from prior works
change with the evaluation datasets. Therefore, the more critical goal of this
paper is to present a comprehensive benchmark study for better practicality
rather than only a particular model for better performance. To this end, we
first develop a flexible and efficient gait recognition codebase named
OpenGait. Based on OpenGait, we deeply revisit the recent development of gait
recognition by re-conducting the ablative experiments. Encouragingly, we find
many hidden troubles of prior works and new insights for future research.
Inspired by these discoveries, we develop a structurally simple, empirically
powerful and practically robust baseline model, GaitBase. Experimentally, we
comprehensively compare GaitBase with many current gait recognition methods on
multiple public datasets, and the results reflect that GaitBase achieves
significantly strong performance in most cases regardless of indoor or outdoor
situations. The source code is available at
\url{https://github.com/ShiqiYu/OpenGait}.
- Abstract(参考訳): 歩行認識は長距離識別技術の中でも最も重要な技術であり、研究と産業の両方で人気が高まっている。
屋内のデータセットでは大きな進歩があったが、多くの証拠は歩行認識技術が野生では不十分であることを示している。
さらに重要なことは、事前の作業からの結論が評価データセットによって変わることです。
したがって,本論文のより重要な目標は,特定のモデルに限らず,より実践性の高い総合的なベンチマーク研究を行うことである。
そこで我々はまず,OpenGaitという,柔軟かつ効率的な歩行認識コードベースを開発した。
OpenGaitをベースとして,最近の歩行認識の発達を,アブレーション実験の再実施によって深く再考する。
引き続き、先行研究の隠れた問題や、今後の研究への新たな洞察を見出す。
これらの発見に触発されて、構造的にシンプルで、経験的に強力で、事実上堅牢なベースラインモデルであるGaitBaseを開発した。
実験として,複数の公開データセット上で,現在行われている多くの歩行認識手法とgaitbaseを包括的に比較し,その結果から,gaitbaseは屋内や屋外の状況によらず,ほとんどのケースで著しく高い性能を達成していることが示唆された。
ソースコードは \url{https://github.com/shiqiyu/opengait} で入手できる。
関連論文リスト
- BigGait: Learning Gait Representation You Want by Large Vision Models [13.540147393275774]
既存の歩行認識手法は、教師あり学習によって駆動されるタスク固有の上流に頼り、明確な歩行表現を提供する。
本研究では,タスクに依存しないLVM(Large Vision Models)が生み出す全目的知識に基づいて,効果的な歩行表現を探索し,BigGaitと呼ばれるシンプルで効率的な歩行フレームワークを提案する。
CCPG, CAISA-B* および SUSTech1K の実験結果から,BigGait は自己ドメインタスクとクロスドメインタスクの両方において,従来の手法よりも有意に優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-29T13:00:22Z) - Exploring Deep Models for Practical Gait Recognition [11.185716724976414]
我々は、最先端の屋外歩行認識のための深層モデルの構築方法について、統一的な視点を示す。
具体的には、浅い歩行モデルのステレオタイプに挑戦し、明示的な時間的モデリングの優位性を実証する。
提案されたCNNベースのDeepGaitV2シリーズとTransformerベースのSwinGaitシリーズは、Gait3DとGREWで大幅に性能が向上した。
論文 参考訳(メタデータ) (2023-03-06T17:19:28Z) - Improving Few-Shot Generalization by Exploring and Exploiting Auxiliary
Data [100.33096338195723]
補助データを用いたFew-shot Learning(FLAD)に焦点を当てる。
FLADは、一般化を改善するために、数ショットの学習中に補助データへのアクセスを前提としている。
提案するアルゴリズムは EXP3-FLAD と UCB1-FLAD の2つである。
論文 参考訳(メタデータ) (2023-02-01T18:59:36Z) - Performance of different machine learning methods on activity
recognition and pose estimation datasets [0.0]
本稿では、リッチポーズ推定(OpenPose)とHARデータセットにおける古典的アプローチとアンサンブルアプローチを用いる。
その結果,無作為林はADLの分類において最も正確であることが示唆された。
相対的にすべてのモデルは、ロジスティック回帰とAdaBoostを除いて、両方のデータセットで優れたパフォーマンスを持つ。
論文 参考訳(メタデータ) (2022-10-19T02:07:43Z) - DataPerf: Benchmarks for Data-Centric AI Development [81.03754002516862]
DataPerfは、MLデータセットとデータ中心アルゴリズムを評価するための、コミュニティ主導のベンチマークスイートである。
私たちは、この反復的な開発をサポートするために、複数の課題を抱えたオープンなオンラインプラットフォームを提供しています。
ベンチマーク、オンライン評価プラットフォーム、ベースライン実装はオープンソースである。
論文 参考訳(メタデータ) (2022-07-20T17:47:54Z) - Learning Gait Representation from Massive Unlabelled Walking Videos: A
Benchmark [11.948554539954673]
コントラスト学習を伴う歩行認識のための大規模自己教師付きベンチマークを提案する。
1.02万個の歩行シーケンスからなる大規模歩行データセットGaitLU-1Mを収集した。
そこで我々は, CASIA-B, OU-M, GREW, Gait3D の4つの広く使用されている歩行指標を用いて, 事前学習モデルの評価を行った。
論文 参考訳(メタデータ) (2022-06-28T12:33:42Z) - Benchopt: Reproducible, efficient and collaborative optimization
benchmarks [67.29240500171532]
Benchoptは、機械学習で最適化ベンチマークを自動化、再生、公開するためのフレームワークである。
Benchoptは実験を実行、共有、拡張するための既製のツールを提供することで、コミュニティのベンチマークを簡単にする。
論文 参考訳(メタデータ) (2022-06-27T16:19:24Z) - Benchmarking Node Outlier Detection on Graphs [90.29966986023403]
グラフの外れ値検出は、多くのアプリケーションにおいて、新しいが重要な機械学習タスクである。
UNODと呼ばれるグラフに対して、最初の包括的教師なしノード外乱検出ベンチマークを示す。
論文 参考訳(メタデータ) (2022-06-21T01:46:38Z) - Gait Recognition in the Wild: A Large-scale Benchmark and NAS-based
Baseline [95.88825497452716]
歩行ベンチマークにより、研究コミュニティは高性能歩行認識システムの訓練と評価を行うことができる。
GREWは、野生における歩行認識のための最初の大規模データセットである。
SPOSGaitはNASベースの最初の歩行認識モデルである。
論文 参考訳(メタデータ) (2022-05-05T14:57:39Z) - Bag of Tricks for Training Deeper Graph Neural Networks: A Comprehensive
Benchmark Study [100.27567794045045]
ディープグラフニューラルネットワーク(GNN)のトレーニングは、非常に難しい。
我々は、深層GNNの「トリック」を評価するための最初の公正かつ再現可能なベンチマークを示す。
論文 参考訳(メタデータ) (2021-08-24T05:00:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。