論文の概要: Dynamic Dual-Attentive Aggregation Learning for Visible-Infrared Person
Re-Identification
- arxiv url: http://arxiv.org/abs/2007.09314v1
- Date: Sat, 18 Jul 2020 03:08:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 05:33:31.496819
- Title: Dynamic Dual-Attentive Aggregation Learning for Visible-Infrared Person
Re-Identification
- Title(参考訳): 可視赤外人物再同定のための動的デュアルアグリゲーション学習
- Authors: Mang Ye, Jianbing Shen, David J. Crandall, Ling Shao, Jiebo Luo
- Abstract要約: Visible-infrared person re-identification (VI-ReID) は、歩行者検索の課題である。
既存のVI-ReID法は、識別可能性に制限があり、ノイズの多い画像に対して弱いロバスト性を持つグローバル表現を学習する傾向にある。
そこで我々は,VI-ReIDのための動的二段階集合(DDAG)学習法を提案する。
- 参考スコア(独自算出の注目度): 208.1227090864602
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visible-infrared person re-identification (VI-ReID) is a challenging
cross-modality pedestrian retrieval problem. Due to the large intra-class
variations and cross-modality discrepancy with large amount of sample noise, it
is difficult to learn discriminative part features. Existing VI-ReID methods
instead tend to learn global representations, which have limited
discriminability and weak robustness to noisy images. In this paper, we propose
a novel dynamic dual-attentive aggregation (DDAG) learning method by mining
both intra-modality part-level and cross-modality graph-level contextual cues
for VI-ReID. We propose an intra-modality weighted-part attention module to
extract discriminative part-aggregated features, by imposing the domain
knowledge on the part relationship mining. To enhance robustness against noisy
samples, we introduce cross-modality graph structured attention to reinforce
the representation with the contextual relations across the two modalities. We
also develop a parameter-free dynamic dual aggregation learning strategy to
adaptively integrate the two components in a progressive joint training manner.
Extensive experiments demonstrate that DDAG outperforms the state-of-the-art
methods under various settings.
- Abstract(参考訳): Visible-infrared person re-identification (VI-ReID) は、歩行者検索の課題である。
クラス内変異が大きいことと,サンプルノイズが多量にあることが原因で,識別的特徴の習得が困難である。
既存のVI-ReID法は、ノイズの多い画像に対する識別可能性と弱い堅牢性に制限されたグローバル表現を学習する傾向がある。
そこで本稿では,VI-ReIDのための動的双対集約(DDAG)学習手法を提案し,モダリティ内部分レベルとクロスモダリティグラフレベルのコンテキストキューの両方をマイニングする。
本稿では,部分関係マイニングにドメイン知識を付与することにより,識別的部分集約特徴を抽出するためのモダリティ内重み付け部分注意モジュールを提案する。
雑音試料に対するロバスト性を高めるために,2つのモダリティ間の文脈関係による表現強化のために,クロスモダリティグラフ構造化注意を導入する。
また,パラメータフリーな動的双対アグリゲーション学習戦略を開発し,これら2成分を段階的な共同学習方式で適応的に統合する。
大規模な実験により、DDAGは様々な条件下で最先端の手法より優れていることが示された。
関連論文リスト
- Frequency Domain Modality-invariant Feature Learning for
Visible-infrared Person Re-Identification [79.9402521412239]
本稿では、周波数領域から見たモダリティの相違を低減するために、新しい周波数領域モダリティ不変特徴学習フレームワーク(FDMNet)を提案する。
我々のフレームワークでは、インスタンス適応振幅フィルタ(IAF)とPhrase-Preserving Normalization(PPNorm)という、2つの新しいモジュールを導入している。
論文 参考訳(メタデータ) (2024-01-03T17:11:27Z) - Modality Unifying Network for Visible-Infrared Person Re-Identification [24.186989535051623]
Visible-infrared person re-identification (VI-ReID) は、異種間の大きな相違とクラス内変異のために難しい課題である。
既存の手法は主に、異なるモダリティを同じ特徴空間に埋め込むことで、モダリティ共有表現を学習することに焦点を当てている。
そこで我々は,VI-ReID の頑健な補助モダリティを探索するために,新しいモダリティ統一ネットワーク (MUN) を提案する。
論文 参考訳(メタデータ) (2023-09-12T14:22:22Z) - Shape-Erased Feature Learning for Visible-Infrared Person
Re-Identification [90.39454748065558]
体型は、VI-ReIDにとって重要なモダリティシェードの1つである。
本稿では,2つの部分空間におけるモダリティ共有特徴を関連づける形状学習パラダイムを提案する。
SYSU-MM01, RegDB, HITSZ-VCMデータセットを用いた実験により, 本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-04-09T10:22:10Z) - Learning Progressive Modality-shared Transformers for Effective
Visible-Infrared Person Re-identification [27.75907274034702]
我々は,能率VI-ReIDのためのPMT(Progressive Modality-Shared Transformer)という新しいディープラーニングフレームワークを提案する。
モダリティギャップの負の効果を低減するために、まず、グレースケールの画像を補助的なモダリティとして捉え、進歩的な学習戦略を提案する。
クラス内差が大きく,クラス間差が少ない問題に対処するために,識別中心損失を提案する。
論文 参考訳(メタデータ) (2022-12-01T02:20:16Z) - Probing Visual-Audio Representation for Video Highlight Detection via
Hard-Pairs Guided Contrastive Learning [23.472951216815765]
効果的なビデオ表現の鍵は、クロスモーダルな表現学習ときめ細かい特徴識別である。
本稿では,表現モデリングにおけるモダリティ内関係とモダリティ間関係の強化について述べる。
コントラスト学習方式によるハードペアによる特徴埋め込みの識別能力を拡大する。
論文 参考訳(メタデータ) (2022-06-21T07:29:37Z) - On Exploring Pose Estimation as an Auxiliary Learning Task for
Visible-Infrared Person Re-identification [66.58450185833479]
本稿では,Pose Estimationを補助学習タスクとして活用して,エンドツーエンドフレームワークにおけるVI-ReIDタスクを支援する。
これら2つのタスクを相互に有利な方法で共同でトレーニングすることにより、高品質なモダリティ共有とID関連の特徴を学習する。
2つのベンチマークVI-ReIDデータセットの実験結果から,提案手法は一定のマージンで最先端の手法を継続的に改善することが示された。
論文 参考訳(メタデータ) (2022-01-11T09:44:00Z) - Multi-Modal Mutual Information Maximization: A Novel Approach for
Unsupervised Deep Cross-Modal Hashing [73.29587731448345]
我々はCross-Modal Info-Max Hashing (CMIMH)と呼ばれる新しい手法を提案する。
モーダル内およびモーダル間の類似性を両立できる情報表現を学習する。
提案手法は、他の最先端のクロスモーダル検索手法よりも一貫して優れている。
論文 参考訳(メタデータ) (2021-12-13T08:58:03Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Multi-Scale Cascading Network with Compact Feature Learning for
RGB-Infrared Person Re-Identification [35.55895776505113]
マルチスケールパートアウェアカスケードフレームワーク(MSPAC)は、マルチスケールの細かい機能を部分からグローバルに集約することによって策定されます。
したがって、クロスモダリティ相関は、特徴的モダリティ不変な特徴学習のための顕著な特徴を効率的に探索することができる。
論文 参考訳(メタデータ) (2020-12-12T15:39:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。