論文の概要: Robust Pedestrian Attribute Recognition Using Group Sparsity for
Occlusion Videos
- arxiv url: http://arxiv.org/abs/2110.08708v1
- Date: Sun, 17 Oct 2021 03:19:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 16:31:33.978084
- Title: Robust Pedestrian Attribute Recognition Using Group Sparsity for
Occlusion Videos
- Title(参考訳): 咬合映像に対するグループスパルシティーを用いたロバストな歩行者属性認識
- Authors: Geonu Lee, Kimin Yun, Jungchan Cho
- Abstract要約: 歩行者属性認識(PAR)における咬合処理の課題
本稿では,非閉塞フレームを,混み合ったビデオの時空間的注目度として定式化する。
また,グループ間隔に基づく時間的アテンションモジュールを提案する。
- 参考スコア(独自算出の注目度): 6.067462958106808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Occlusion processing is a key issue in pedestrian attribute recognition
(PAR). Nevertheless, several existing video-based PAR methods have not yet
considered occlusion handling in depth. In this paper, we formulate finding
non-occluded frames as sparsity-based temporal attention of a crowded video. In
this manner, a model is guided not to pay attention to the occluded frame.
However, temporal sparsity cannot include a correlation between attributes when
occlusion occurs. For example, "boots" and "shoe color" cannot be recognized
when the foot is invisible. To solve the uncorrelated attention issue, we also
propose a novel group sparsity-based temporal attention module. Group sparsity
is applied across attention weights in correlated attributes. Thus, attention
weights in a group are forced to pay attention to the same frames. Experimental
results showed that the proposed method achieved a higher F1-score than the
state-of-the-art methods on two video-based PAR datasets and five occlusion
scenarios.
- Abstract(参考訳): 閉塞処理は歩行者属性認識(PAR)において重要な問題である。
それにもかかわらず、既存のビデオベースのPARメソッドは、まだ隠蔽処理を深く考慮していない。
本稿では,非閉塞フレームを,混み合ったビデオの時空間的注目度として定式化する。
このように、隠されたフレームに注意を払わないようにモデルが導かれる。
しかし、時間的間隔は、閉塞が発生したときの属性間の相関を含まない。
例えば「ブーツ」や「靴の色」は足が見えないときに認識できない。
また,非相関的な注意課題を解決するために,グループ空間に基づく時間的注意モジュールを提案する。
グループ間隔は、関連属性の注意重みを越えて適用される。
したがって、グループ内の注意重みは同じフレームに注意を払わなければならない。
実験の結果,提案手法は2つのビデオベースPARデータセットと5つの閉塞シナリオの最先端手法よりも高いF1スコアを達成した。
関連論文リスト
- VLAD-BuFF: Burst-aware Fast Feature Aggregation for Visual Place Recognition [23.173085268845384]
本稿では,VLAD-BuFFを提案する。これは,エンドツーエンドのVPRトレーニングにおいてバースト認識機能を学ぶための,自己相似機能割引機構である。
我々は、VLAD-BuFFが新しい技術状態を設定する9つの公開データセットに対して、我々の手法をベンチマークする。
提案手法は,12倍の局所的特徴量でも高いリコールを維持できるため,リコールを伴わずに高速な特徴集約が可能となる。
論文 参考訳(メタデータ) (2024-09-28T09:44:08Z) - Spatio-Temporal Side Tuning Pre-trained Foundation Models for Video-based Pedestrian Attribute Recognition [58.79807861739438]
既存の歩行者認識アルゴリズム(PAR)は主に静的画像に基づいて開発されている。
本稿では,時間的情報を完全に活用できるビデオフレームを用いて,人間の属性を理解することを提案する。
論文 参考訳(メタデータ) (2024-04-27T14:43:32Z) - Dynamic Feature Pruning and Consolidation for Occluded Person
Re-Identification [21.006680330530852]
本研究では, 明示的な人間の構造解析を回避するために, 機能解析・統合(FPC)フレームワークを提案する。
フレームワークは主にスパースエンコーダ、マルチビュー機能mathcingモジュール、フィーチャーコンソリデーションデコーダで構成されている。
提案手法は,Occluded-Dukeデータセットにおいて,少なくとも8.6% mAPと6.0% Rank-1の精度で最新結果より優れる。
論文 参考訳(メタデータ) (2022-11-27T06:18:40Z) - Quality-aware Part Models for Occluded Person Re-identification [77.24920810798505]
咬合は人体再識別(ReID)にとって大きな課題となる
既存のアプローチは一般的に、計算効率とReIDの精度の両面で最適であるように、目に見える身体の部品を推測するための外部ツールに依存している。
閉塞型ReIDのためのQPM(Quality-Aware Part Models)という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:51:09Z) - Channel DropBlock: An Improved Regularization Method for Fine-Grained
Visual Classification [58.07257910065007]
既存のアプローチは主に、識別的部分を見つけるための注意機構や、高度にパラメータ化された特徴を弱教師付きで抽出する特徴符号化アプローチを導入することでこの問題に対処している。
本研究では,CDB(Channel DropBlock)と呼ばれる軽量で効果的な正規化手法を提案する。
論文 参考訳(メタデータ) (2021-06-07T09:03:02Z) - Learning to Estimate Hidden Motions with Global Motion Aggregation [71.12650817490318]
閉塞は、局所的な証拠に依存する光学フローアルゴリズムに重大な課題をもたらす。
最初の画像でピクセル間の長距離依存性を見つけるために,グローバルモーションアグリゲーションモジュールを導入する。
遮蔽領域における光流量推定が非遮蔽領域における性能を損なうことなく大幅に改善できることを実証した。
論文 参考訳(メタデータ) (2021-04-06T10:32:03Z) - The Blessings of Unlabeled Background in Untrimmed Videos [66.99259967869065]
Weakly-supervised Temporal Action Localization (WTAL)は、トレーニング中に利用可能なビデオレベルのアクションラベルのみを使用して、アクションインスタンスの間隔を検出することを目的としています。
重要な課題は、ビデオレベルでも照合されていない背景セグメントから関心のセグメントを区別する方法です。
そこで本稿では,PCA をベースとした時空間平滑化 PCA (TS-PCA) の創始者を提案する。
論文 参考訳(メタデータ) (2021-03-24T13:34:42Z) - Pose-guided Visible Part Matching for Occluded Person ReID [80.81748252960843]
本稿では、ポーズ誘導による特徴の識別を共同で学習し、その部分の可視性を自己判断する Pose-Guided Visible Part Matching (PVPM) 法を提案する。
実験結果から,提案手法は最先端手法と競合する性能を示した。
論文 参考訳(メタデータ) (2020-04-01T04:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。