論文の概要: FastPoseGait: A Toolbox and Benchmark for Efficient Pose-based Gait
Recognition
- arxiv url: http://arxiv.org/abs/2309.00794v1
- Date: Sat, 2 Sep 2023 02:05:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 01:06:05.841490
- Title: FastPoseGait: A Toolbox and Benchmark for Efficient Pose-based Gait
Recognition
- Title(参考訳): FastPoseGait: 効率的なPoseベースの歩行認識のためのツールボックスとベンチマーク
- Authors: Shibei Meng, Yang Fu, Saihui Hou, Chunshui Cao, Xu Liu, Yongzhen Huang
- Abstract要約: FastPoseGaitは、PyTorchをベースとしたポーズベースの歩行認識のためのオープンソースのツールボックスである。
ツールボックスは、最先端のポーズベースの歩行認識アルゴリズムと、関連するさまざまなベンチマークをサポートする。
- 参考スコア(独自算出の注目度): 11.985433662623036
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present FastPoseGait, an open-source toolbox for pose-based gait
recognition based on PyTorch. Our toolbox supports a set of cutting-edge
pose-based gait recognition algorithms and a variety of related benchmarks.
Unlike other pose-based projects that focus on a single algorithm, FastPoseGait
integrates several state-of-the-art (SOTA) algorithms under a unified
framework, incorporating both the latest advancements and best practices to
ease the comparison of effectiveness and efficiency. In addition, to promote
future research on pose-based gait recognition, we provide numerous pre-trained
models and detailed benchmark results, which offer valuable insights and serve
as a reference for further investigations. By leveraging the highly modular
structure and diverse methods offered by FastPoseGait, researchers can quickly
delve into pose-based gait recognition and promote development in the field. In
this paper, we outline various features of this toolbox, aiming that our
toolbox and benchmarks can further foster collaboration, facilitate
reproducibility, and encourage the development of innovative algorithms for
pose-based gait recognition. FastPoseGait is available at
https://github.com//BNU-IVC/FastPoseGait and is actively maintained. We will
continue updating this report as we add new features.
- Abstract(参考訳): 我々はPyTorchに基づくポーズベースの歩行認識のためのオープンソースのツールボックスであるFastPoseGaitを紹介する。
ツールボックスは、最先端のポーズベースの歩行認識アルゴリズムと、関連するさまざまなベンチマークをサポートする。
単一のアルゴリズムにフォーカスする他のポーズベースのプロジェクトとは異なり、FastPoseGaitはいくつかの最先端(SOTA)アルゴリズムを統一フレームワークに統合し、最新の進歩とベストプラクティスの両方を取り入れて、効率性と効率の比較を容易にする。
また,ポーズに基づく歩容認識に関する今後の研究を促進するために,多くの事前学習モデルと詳細なベンチマーク結果を提供し,貴重な洞察を提供し,さらなる調査の参考となる。
高度にモジュール化された構造とFastPoseGaitが提供する多様な手法を利用することで、研究者は素早くポーズベースの歩行認識を掘り下げ、この分野の開発を促進することができる。
本稿では,このツールボックスの様々な特徴を概説し,我々のツールボックスとベンチマークがコラボレーションをさらに促進し,再現性を促進し,ポーズベースの歩行認識のための革新的なアルゴリズムの開発を促進することを目的とした。
FastPoseGaitはhttps://github.com//BNU-IVC/FastPoseGaitで入手できる。
新機能を追加し、引き続きこのレポートを更新します。
関連論文リスト
- OpenGait: A Comprehensive Benchmark Study for Gait Recognition towards Better Practicality [11.64292241875791]
われわれはまず,フレキシブルで効率的な歩行認識プラットフォームOpenGaitを開発した。
また,OpenGaitを基盤として,近年の歩行認識の進展を再考するため,詳細なアブレーション実験を実施している。
これらの知見にインスパイアされ、構造的に単純だが経験的に強力で実用的に堅牢なベースラインモデル3つを開発した。
論文 参考訳(メタデータ) (2024-05-15T07:11:12Z) - PYSKL: Towards Good Practices for Skeleton Action Recognition [77.87404524458809]
PYSKLは、PyTorchをベースとした骨格ベースの行動認識のためのオープンソースのツールボックスである。
有効性と効率性の比較を容易にするため、統一されたフレームワークの下で6つの異なるアルゴリズムを実装している。
PYSKLは、9つのスケルトンベースのアクション認識ベンチマークのトレーニングとテストをサポートし、そのうち8つで最先端の認識性能を達成する。
論文 参考訳(メタデータ) (2022-05-19T09:58:32Z) - Gait Recognition in the Wild: A Large-scale Benchmark and NAS-based
Baseline [95.88825497452716]
歩行ベンチマークにより、研究コミュニティは高性能歩行認識システムの訓練と評価を行うことができる。
GREWは、野生における歩行認識のための最初の大規模データセットである。
SPOSGaitはNASベースの最初の歩行認識モデルである。
論文 参考訳(メタデータ) (2022-05-05T14:57:39Z) - Spatio-temporal Relation Modeling for Few-shot Action Recognition [100.3999454780478]
本稿では,高次時間表現を同時に学習しながら,クラス固有の特徴の識別性を向上する数ショットアクション認識フレームワークSTRMを提案する。
本手法は,本研究でもっとも優れた手法に比べて,分類精度が3.5%向上した。
論文 参考訳(メタデータ) (2021-12-09T18:59:14Z) - PoseDet: Fast Multi-Person Pose Estimation Using Pose Embedding [16.57620683425904]
本稿では,PoseDet (Estimating Pose by Detection) という,身体関節の局所化と関連付けを同時に行う新しいフレームワークを提案する。
また,キーポイントの位置からオブジェクトを表現するために,キーポイント認識型ポーズ埋め込みを提案する。
この単純なフレームワークは、最先端の手法と比較してCOCOベンチマークで前例のないスピードと競争精度を達成する。
論文 参考訳(メタデータ) (2021-07-22T05:54:00Z) - Guided Interactive Video Object Segmentation Using Reliability-Based
Attention Maps [55.94785248905853]
本論文では,映像オブジェクトの対話的セグメンテーション(GIS)アルゴリズムを提案し,セグメンテーション精度の向上と対話時間の短縮を図る。
我々は,隣接フレームにセグメンテーション結果を伝達する,交差点対応伝搬モジュールを開発した。
実験により,提案アルゴリズムは従来のアルゴリズムよりも高速に精度の高いセグメンテーション結果を提供することを示した。
論文 参考訳(メタデータ) (2021-04-21T07:08:57Z) - Centralized Information Interaction for Salient Object Detection [68.8587064889475]
U字型構造は、多スケールの機能を効率的に組み合わせるサリエント物体検出に長けている。
本稿では,これらの接続を集中化することにより,相互に相互に情報交換を行うことができることを示す。
本手法は, ボトムアップ経路とトップダウン経路の接続を置換することにより, 既存のU字型サルエント物体検出手法と協調することができる。
論文 参考訳(メタデータ) (2020-12-21T12:42:06Z) - Image Matching across Wide Baselines: From Paper to Practice [80.9424750998559]
局所的な特徴とロバストな推定アルゴリズムの包括的なベンチマークを導入する。
パイプラインのモジュール構造は、さまざまなメソッドの容易な統合、構成、組み合わせを可能にします。
適切な設定で、古典的な解決策は依然として芸術の知覚された状態を上回る可能性があることを示す。
論文 参考訳(メタデータ) (2020-03-03T15:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。