論文の概要: On Exploring Pose Estimation as an Auxiliary Learning Task for
Visible-Infrared Person Re-identification
- arxiv url: http://arxiv.org/abs/2201.03859v1
- Date: Tue, 11 Jan 2022 09:44:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 14:17:17.923601
- Title: On Exploring Pose Estimation as an Auxiliary Learning Task for
Visible-Infrared Person Re-identification
- Title(参考訳): 可視赤外人物再同定のための補助学習タスクとしてのポーズ推定の検討
- Authors: Yunqi Miao, Nianchang Huang, Xiao Ma, Qiang Zhang, and Jungong Han
- Abstract要約: 本稿では,Pose Estimationを補助学習タスクとして活用して,エンドツーエンドフレームワークにおけるVI-ReIDタスクを支援する。
これら2つのタスクを相互に有利な方法で共同でトレーニングすることにより、高品質なモダリティ共有とID関連の特徴を学習する。
2つのベンチマークVI-ReIDデータセットの実験結果から,提案手法は一定のマージンで最先端の手法を継続的に改善することが示された。
- 参考スコア(独自算出の注目度): 66.58450185833479
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visible-infrared person re-identification (VI-ReID) has been challenging due
to the existence of large discrepancies between visible and infrared
modalities. Most pioneering approaches reduce intra-class variations and
inter-modality discrepancies by learning modality-shared and ID-related
features. However, an explicit modality-shared cue, i.e., body keypoints, has
not been fully exploited in VI-ReID. Additionally, existing feature learning
paradigms imposed constraints on either global features or partitioned feature
stripes, which neglect the prediction consistency of global and part features.
To address the above problems, we exploit Pose Estimation as an auxiliary
learning task to assist the VI-ReID task in an end-to-end framework. By jointly
training these two tasks in a mutually beneficial manner, our model learns
higher quality modality-shared and ID-related features. On top of it, the
learnings of global features and local features are seamlessly synchronized by
Hierarchical Feature Constraint (HFC), where the former supervises the latter
using the knowledge distillation strategy. Experimental results on two
benchmark VI-ReID datasets show that the proposed method consistently improves
state-of-the-art methods by significant margins. Specifically, our method
achieves nearly 20$\%$ mAP improvements against the state-of-the-art method on
the RegDB dataset. Our intriguing findings highlight the usage of auxiliary
task learning in VI-ReID.
- Abstract(参考訳): 可視赤外人物再同定(vi-reid)は,可視光と赤外線の差が大きいため困難である。
ほとんどの先駆的なアプローチは、モダリティ共有とID関連の特徴を学習することで、クラス内変異とモダリティ間格差を減らす。
しかし、明示的なモダリティ共有のキュー、すなわちボディキーポイントは、VI-ReIDで完全に活用されていない。
さらに、既存の機能学習パラダイムは、グローバル機能と部分機能の予測一貫性を無視した、グローバル機能または分割された機能ストライプに制約を課している。
上記の問題に対処するため、我々はPose Estimationを補助学習タスクとして活用し、エンドツーエンドフレームワークにおけるVI-ReIDタスクを支援する。
これら2つのタスクを相互に有益にトレーニングすることで、より高品質なモダリティ共有およびid関連特徴を学習する。
その上、グローバルな特徴と局所的な特徴の学習は階層的特徴制約(HFC)によってシームレスに同期され、前者は知識蒸留戦略を用いて後者を監督する。
2つのベンチマークVI-ReIDデータセットの実験結果から,提案手法は一定のマージンで最先端の手法を継続的に改善することが示された。
具体的には,RegDBデータセットの最先端手法に対して,約20$\%$ mAPの改善を実現する。
興味深い結果として,VI-ReIDにおける補助課題学習の利用が注目された。
関連論文リスト
- Deep Common Feature Mining for Efficient Video Semantic Segmentation [29.054945307605816]
ビデオセマンティックセグメンテーションのためのDeep Common Feature Mining(DCFM)を提案する。
DCFMは、機能を2つの補完的なコンポーネントに明示的に分解する。
本手法は精度と効率のバランスが優れていることを示す。
論文 参考訳(メタデータ) (2024-03-05T06:17:59Z) - Learning Cross-modality Information Bottleneck Representation for
Heterogeneous Person Re-Identification [61.49219876388174]
Visible-Infrared person re-identification (VI-ReID)は、インテリジェントビデオ監視において重要かつ困難な課題である。
既存の手法は主に共有特徴空間の学習に重点を置いており、可視光と赤外光の相違を減らす。
本稿では,新しい相互情報・モダリティコンセンサスネットワーク,すなわちCMInfoNetを提案し,モダリティ不変な同一性の特徴を抽出する。
論文 参考訳(メタデータ) (2023-08-29T06:55:42Z) - Unsupervised Visible-Infrared Person ReID by Collaborative Learning with Neighbor-Guided Label Refinement [53.044703127757295]
教師なし学習 可視赤外人物再識別 (USL-VI-ReID) は、ラベルなしのクロスモダリティデータセットからモダリティ不変の特徴を学習することを目的としている。
本稿では,生成したラベルを1つのモダリティからそれに対応するモダリティに同時に割り当てる,Dual Optimal Transport Label Assignment (DOTLA) フレームワークを提案する。
提案したDOTLA機構は、相互強化と相互モダリティデータアソシエーションの効率的な解を定式化することにより、不十分でノイズの多いラベルアソシエーションの副作用を効果的に低減することができる。
論文 参考訳(メタデータ) (2023-05-22T04:40:30Z) - Shape-Erased Feature Learning for Visible-Infrared Person
Re-Identification [90.39454748065558]
体型は、VI-ReIDにとって重要なモダリティシェードの1つである。
本稿では,2つの部分空間におけるモダリティ共有特徴を関連づける形状学習パラダイムを提案する。
SYSU-MM01, RegDB, HITSZ-VCMデータセットを用いた実験により, 本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-04-09T10:22:10Z) - Learning Progressive Modality-shared Transformers for Effective
Visible-Infrared Person Re-identification [27.75907274034702]
我々は,能率VI-ReIDのためのPMT(Progressive Modality-Shared Transformer)という新しいディープラーニングフレームワークを提案する。
モダリティギャップの負の効果を低減するために、まず、グレースケールの画像を補助的なモダリティとして捉え、進歩的な学習戦略を提案する。
クラス内差が大きく,クラス間差が少ない問題に対処するために,識別中心損失を提案する。
論文 参考訳(メタデータ) (2022-12-01T02:20:16Z) - Weakly Supervised Regional and Temporal Learning for Facial Action Unit
Recognition [36.350407471391065]
限定アノテーションとモデル性能のギャップを埋めるための補助的AU関連タスクを2つ提案する。
顔の筋肉の動的変化を利用するために,単一画像に基づく光フロー推定タスクを提案する。
半教師付き学習を取り入れることで、弱い教師付き地域学習と時間学習というエンド・ツー・エンドのトレーニング可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-01T12:02:01Z) - G$^2$DA: Geometry-Guided Dual-Alignment Learning for RGB-Infrared Person
Re-Identification [3.909938091041451]
RGB-IRの人物再識別は、異種間の興味のある人物を検索することを目的としている。
本稿では,サンプルレベルのモダリティ差に対処するための幾何誘導デュアルアライメント学習フレームワーク(G$2$DA)を提案する。
論文 参考訳(メタデータ) (2021-06-15T03:14:31Z) - Dynamic Dual-Attentive Aggregation Learning for Visible-Infrared Person
Re-Identification [208.1227090864602]
Visible-infrared person re-identification (VI-ReID) は、歩行者検索の課題である。
既存のVI-ReID法は、識別可能性に制限があり、ノイズの多い画像に対して弱いロバスト性を持つグローバル表現を学習する傾向にある。
そこで我々は,VI-ReIDのための動的二段階集合(DDAG)学習法を提案する。
論文 参考訳(メタデータ) (2020-07-18T03:08:13Z) - Cross-modality Person re-identification with Shared-Specific Feature
Transfer [112.60513494602337]
クロスモダリティの人物再識別(cm-ReID)は、インテリジェントビデオ分析において難しいが重要な技術である。
モーダリティ共有型特徴伝達アルゴリズム (cm-SSFT) を提案し, モーダリティ共有型情報とモーダリティ固有特性の両方のポテンシャルについて検討する。
論文 参考訳(メタデータ) (2020-02-28T00:18:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。