論文の概要: DyGait: Exploiting Dynamic Representations for High-performance Gait
Recognition
- arxiv url: http://arxiv.org/abs/2303.14953v1
- Date: Mon, 27 Mar 2023 07:36:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 16:47:02.063166
- Title: DyGait: Exploiting Dynamic Representations for High-performance Gait
Recognition
- Title(参考訳): DyGait: 高速歩行認識のための動的表現の爆発
- Authors: Ming Wang, Xianda Guo, Beibei Lin, Tian Yang, Zheng Zhu, Lincheng Li,
Shunli Zhang and Xin Yu
- Abstract要約: 歩行認識は、歩行パターンを通して人間の身元を認識する生体計測技術である。
我々は動的特徴の抽出に焦点をあて,DyGaitという新しい高性能なフレームワークを提案する。
我々のネットワークは、GREWデータセットで71.4%、Gait3Dデータセットで66.3%、CAIA-Bデータセットで98.4%、OU-Mデータセットで98.3%の平均ランク1の精度を達成した。
- 参考スコア(独自算出の注目度): 35.642868929840034
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Gait recognition is a biometric technology that recognizes the identity of
humans through their walking patterns. Compared with other biometric
technologies, gait recognition is more difficult to disguise and can be applied
to the condition of long-distance without the cooperation of subjects. Thus, it
has unique potential and wide application for crime prevention and social
security. At present, most gait recognition methods directly extract features
from the video frames to establish representations. However, these
architectures learn representations from different features equally but do not
pay enough attention to dynamic features, which refers to a representation of
dynamic parts of silhouettes over time (e.g. legs). Since dynamic parts of the
human body are more informative than other parts (e.g. bags) during walking, in
this paper, we propose a novel and high-performance framework named DyGait.
This is the first framework on gait recognition that is designed to focus on
the extraction of dynamic features. Specifically, to take full advantage of the
dynamic information, we propose a Dynamic Augmentation Module (DAM), which can
automatically establish spatial-temporal feature representations of the dynamic
parts of the human body. The experimental results show that our DyGait network
outperforms other state-of-the-art gait recognition methods. It achieves an
average Rank-1 accuracy of 71.4% on the GREW dataset, 66.3% on the Gait3D
dataset, 98.4% on the CASIA-B dataset and 98.3% on the OU-MVLP dataset.
- Abstract(参考訳): 歩行認識は、歩行パターンを通じて人間のアイデンティティを認識するバイオメトリック技術である。
他のバイオメトリック技術と比較して、歩行認識は偽装が困難であり、被験者の協力なしに長距離の状況に適用できる。
したがって、犯罪防止や社会保障に特有の可能性と幅広い応用がある。
現在、ほとんどの歩行認識手法は、映像フレームから特徴を直接抽出して表現を確立する。
しかし、これらのアーキテクチャは異なる特徴からの表現を等しく学習するが、動的特徴に十分な注意を払っておらず、これはシルエットの動的部分(例えば脚)を時間とともに表現することを指す。
歩行中の身体の動的部分が他の部分(例えばバッグ)よりも情報的であるため,本稿ではDyGaitという新しい高性能なフレームワークを提案する。
これは、動的特徴の抽出に焦点を当てた、歩行認識に関する最初のフレームワークである。
具体的には、動的情報を最大限に活用するために、人体の動的部分の時空間的特徴表現を自動的に確立する動的拡張モジュール(DAM)を提案する。
実験の結果,我々のDyGaitネットワークは,他の最先端歩行認識手法よりも優れていた。
GREWデータセットが71.4%、Gait3Dデータセットが66.3%、CAIA-Bデータセットが98.4%、OU-MVLPデータセットが98.3%である。
関連論文リスト
- GaitPT: Skeletons Are All You Need For Gait Recognition [4.089889918897877]
我々は、Gait Pyramid Transformer (GaitPT) と呼ばれる新しい歩行認識アーキテクチャを提案する。
GaitPTはポーズ推定スケルトンを使用して、外観情報に頼ることなく、ユニークな歩行パターンをキャプチャする。
以上の結果から,GaitPTは,他の骨格に基づく歩行認識技術と比較して最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-08-21T10:47:52Z) - Distillation-guided Representation Learning for Unconstrained Gait Recognition [50.0533243584942]
本研究では,屋外シナリオにおける人間認証のためのGADER(GAit Detection and Recognition)フレームワークを提案する。
GADERは、歩行情報を含むフレームのみを使用する新しい歩行認識手法により識別的特徴を構築する。
室内および屋外のデータセットに一貫した改善を示すため,複数の歩行ベースライン(SoTA)について評価を行った。
論文 参考訳(メタデータ) (2023-07-27T01:53:57Z) - Synthetic-to-Real Domain Adaptation for Action Recognition: A Dataset and Baseline Performances [76.34037366117234]
ロボット制御ジェスチャー(RoCoG-v2)と呼ばれる新しいデータセットを導入する。
データセットは7つのジェスチャークラスの実ビデオと合成ビデオの両方で構成されている。
我々は,最先端の行動認識とドメイン適応アルゴリズムを用いて結果を示す。
論文 参考訳(メタデータ) (2023-03-17T23:23:55Z) - Multi-Modal Human Authentication Using Silhouettes, Gait and RGB [59.46083527510924]
全体認証は、遠隔生体認証のシナリオにおいて有望なアプローチである。
本稿では,RGBデータとシルエットデータを組み合わせたDME(Dual-Modal Ensemble)を提案する。
DME内では、従来の歩行分析に使用される二重ヘリカル歩行パターンにインスパイアされたGaitPatternを提案する。
論文 参考訳(メタデータ) (2022-10-08T15:17:32Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Towards a Deeper Understanding of Skeleton-based Gait Recognition [4.812321790984493]
近年、ほとんどの歩行認識法は、人のシルエットを使って歩行の特徴を抽出している。
モデルに基づく手法はこれらの問題に悩まされず、身体関節の時間運動を表現することができる。
本研究では,高次入力と残差ネットワークを組み合わせたグラフ畳み込みネットワーク(GCN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-16T18:23:37Z) - Facial Emotion Recognition using Deep Residual Networks in Real-World
Environments [5.834678345946704]
そこで本研究では,Wild内および大規模に収集されたビデオデータセットに基づいて訓練された顔特徴抽出モデルを提案する。
データセットは100万のラベル付きフレームと2,616万の被験者で構成されている。
感情認識領域において時間情報は重要であるため、LSTM細胞を用いてデータの時間的ダイナミクスを捉える。
論文 参考訳(メタデータ) (2021-11-04T10:08:22Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。