論文の概要: GaitContour: Efficient Gait Recognition based on a Contour-Pose
Representation
- arxiv url: http://arxiv.org/abs/2311.16497v1
- Date: Mon, 27 Nov 2023 17:06:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 19:59:20.332154
- Title: GaitContour: Efficient Gait Recognition based on a Contour-Pose
Representation
- Title(参考訳): GaitContour: Contour-Pose表現に基づく効率的な歩行認識
- Authors: Yuxiang Guo, Anshul Shah, Jiang Liu, Rama Chellappa, Cheng Peng
- Abstract要約: 歩行認識は、外見情報ではなく歩行パターンに基づいて、被験者をしっかりと識別する約束を持っている。
本研究では,身体形状と身体部分情報の両方をコンパクトに表現する,ポイントベースコントゥール・ポース表現を提案する。
さらに、この斬新な表現を活用するために、GaitContourと呼ばれるローカル・グローバル・アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 42.13511138676012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gait recognition holds the promise to robustly identify subjects based on
walking patterns instead of appearance information. In recent years, this field
has been dominated by learning methods based on two principal input
representations: dense silhouette masks or sparse pose keypoints. In this work,
we propose a novel, point-based Contour-Pose representation, which compactly
expresses both body shape and body parts information. We further propose a
local-to-global architecture, called GaitContour, to leverage this novel
representation and efficiently compute subject embedding in two stages. The
first stage consists of a local transformer that extracts features from five
different body regions. The second stage then aggregates the regional features
to estimate a global human gait representation. Such a design significantly
reduces the complexity of the attention operation and improves efficiency and
performance simultaneously. Through large scale experiments, GaitContour is
shown to perform significantly better than previous point-based methods, while
also being significantly more efficient than silhouette-based methods. On
challenging datasets with significant distractors, GaitContour can even
outperform silhouette-based methods.
- Abstract(参考訳): 歩行認識は、外観情報ではなく歩行パターンに基づいて、被験者をしっかりと識別する。
近年、この分野は、濃密なシルエットマスクとスパースポーズキーポイントという2つの主要な入力表現に基づく学習方法によって支配されている。
本稿では,身体形状と身体部位情報の両方をコンパクトに表現する,新しい点に基づく輪郭配置表現を提案する。
さらに,GaitContourと呼ばれるローカル・グローバル・アーキテクチャを提案し,この新しい表現を活用して2段階の被写体埋め込みを効率的に計算する。
第1段階は5つの異なる身体領域から特徴を抽出する局所変圧器からなる。
次に第2段階は地域の特徴を集約し、地球規模の歩行表現を推定する。
このような設計はアテンション操作の複雑さを大幅に削減し、効率と性能を同時に向上させる。
大規模な実験を通して、GaitContourは従来の点ベースの手法よりもはるかに優れた性能を示し、シルエットベースの手法よりもはるかに効率的である。
かなりの注意をそらすデータセットでは、gaitcontourはsilhouetteベースのメソッドよりも優れています。
関連論文リスト
- It Takes Two: Accurate Gait Recognition in the Wild via Cross-granularity Alignment [72.75844404617959]
本稿では,XGait という新しい粒度アライメント歩行認識手法を提案する。
この目的を達成するために、XGaitはまず2つのバックボーンエンコーダの分岐を含み、シルエットシーケンスとパーシングシーケンスを2つの潜在空間にマッピングする。
2つの大規模な歩行データセットの総合的な実験では、ランク1の精度が80.5%、CCPGが88.3%である。
論文 参考訳(メタデータ) (2024-11-16T08:54:27Z) - Distillation-guided Representation Learning for Unconstrained Gait Recognition [50.0533243584942]
本研究では,屋外シナリオにおける人間認証のためのGADER(GAit Detection and Recognition)フレームワークを提案する。
GADERは、歩行情報を含むフレームのみを使用する新しい歩行認識手法により識別的特徴を構築する。
室内および屋外のデータセットに一貫した改善を示すため,複数の歩行ベースライン(SoTA)について評価を行った。
論文 参考訳(メタデータ) (2023-07-27T01:53:57Z) - GPGait: Generalized Pose-based Gait Recognition [11.316545213493223]
ポーズに基づく歩行認識に関する最近の研究は、このような単純な情報を用いてシルエット法に匹敵する結果が得られる可能性を実証している。
データセット間のポーズに基づく手法の一般化能力を向上させるために,textbf Generalized textbfPose-based textbfGait Recognition frameworkを提案する。
論文 参考訳(メタデータ) (2023-03-09T13:17:13Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - Towards a Deeper Understanding of Skeleton-based Gait Recognition [4.812321790984493]
近年、ほとんどの歩行認識法は、人のシルエットを使って歩行の特徴を抽出している。
モデルに基づく手法はこれらの問題に悩まされず、身体関節の時間運動を表現することができる。
本研究では,高次入力と残差ネットワークを組み合わせたグラフ畳み込みネットワーク(GCN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-16T18:23:37Z) - Combining the Silhouette and Skeleton Data for Gait Recognition [13.345465199699]
2つの主要な歩行認識作品は外観ベースとモデルベースであり、シルエットと骨格からそれぞれ特徴を抽出する。
本稿では, シルエットを入力とするCNN系分岐と, 骨格を入力とするGCN系分岐を提案する。
GCNベースの分岐における歩行表現を改善するため、マルチスケールグラフ畳み込みを統合する完全連結グラフ畳み込み演算子を提案する。
論文 参考訳(メタデータ) (2022-02-22T03:21:51Z) - Robust Person Re-Identification through Contextual Mutual Boosting [77.1976737965566]
本研究では,歩行者の局地化を目的としたコンテキスト相互ブースティングネットワーク(CMBN)を提案する。
歩行者をローカライズし、文脈情報と統計的推測を効果的に活用することで特徴を再検討する。
ベンチマークの実験は、最先端のアーキテクチャと比較してアーキテクチャの優位性を示している。
論文 参考訳(メタデータ) (2020-09-16T06:33:35Z) - Gravitational Models Explain Shifts on Human Visual Attention [80.76475913429357]
視覚的注意(英: visual attention)とは、人間の脳が優先的な処理のために関連する感覚情報を選択する能力を指す。
過去30年間に様々な評価方法が提案されてきた。
注意変動を記述するための重力モデル(GRAV)を提案する。
論文 参考訳(メタデータ) (2020-09-15T10:12:41Z) - JointsGait:A model-based Gait Recognition Method based on Gait Graph
Convolutional Networks and Joints Relationship Pyramid Mapping [6.851535012702575]
本稿では2次元関節を用いた歩行認識について検討する。
JointsGaitは2次元の人体関節から歩行情報を抽出する。
論文 参考訳(メタデータ) (2020-04-27T08:30:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。