論文の概要: MSO: Multi-Feature Space Joint Optimization Network for RGB-Infrared
Person Re-Identification
- arxiv url: http://arxiv.org/abs/2110.11264v1
- Date: Thu, 21 Oct 2021 16:45:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 17:08:17.988565
- Title: MSO: Multi-Feature Space Joint Optimization Network for RGB-Infrared
Person Re-Identification
- Title(参考訳): MSO:RGB赤外線人物再同定のための多機能宇宙共同最適化ネットワーク
- Authors: Yajun Gao, Tengfei Liang, Yi Jin, Xiaoyan Gu, Wu Liu, Yidong Li,
Congyan Lang
- Abstract要約: RGB-infrared cross-modality person re-identification (ReID) タスクは、可視モダリティと赤外線モダリティの同一性の画像を認識することを目的としている。
既存の手法は主に2ストリームアーキテクチャを使用して、最終的な共通特徴空間における2つのモード間の相違を取り除く。
単一モダリティ空間と共通空間の両方において、モダリティ調和可能な特徴を学習できる新しい多機能空間共同最適化(MSO)ネットワークを提案する。
- 参考スコア(独自算出の注目度): 35.97494894205023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The RGB-infrared cross-modality person re-identification (ReID) task aims to
recognize the images of the same identity between the visible modality and the
infrared modality. Existing methods mainly use a two-stream architecture to
eliminate the discrepancy between the two modalities in the final common
feature space, which ignore the single space of each modality in the shallow
layers. To solve it, in this paper, we present a novel multi-feature space
joint optimization (MSO) network, which can learn modality-sharable features in
both the single-modality space and the common space. Firstly, based on the
observation that edge information is modality-invariant, we propose an edge
features enhancement module to enhance the modality-sharable features in each
single-modality space. Specifically, we design a perceptual edge features (PEF)
loss after the edge fusion strategy analysis. According to our knowledge, this
is the first work that proposes explicit optimization in the single-modality
feature space on cross-modality ReID task. Moreover, to increase the difference
between cross-modality distance and class distance, we introduce a novel
cross-modality contrastive-center (CMCC) loss into the modality-joint
constraints in the common feature space. The PEF loss and CMCC loss jointly
optimize the model in an end-to-end manner, which markedly improves the
network's performance. Extensive experiments demonstrate that the proposed
model significantly outperforms state-of-the-art methods on both the SYSU-MM01
and RegDB datasets.
- Abstract(参考訳): RGB-infrared cross-modality person re-identification (ReID)タスクは、可視モダリティと赤外線モダリティの同一性の画像を認識することを目的としている。
既存の手法は主に2ストリームアーキテクチャを使用して、最終共通特徴空間における2つのモダリティ間の相違を解消し、浅い層の各モダリティの単一空間を無視している。
そこで本稿では, 単一モダリティ空間と共通空間の両方において, モダリティに調和した特徴を学習可能な, 新たな多機能空間共同最適化(MSO)ネットワークを提案する。
まず,エッジ情報がモダリティ不変であるという観測に基づいて,各単一モダリティ空間におけるモダリティ特性を向上させるためのエッジ特徴拡張モジュールを提案する。
具体的には,エッジ融合戦略分析後の知覚的エッジ特徴(PEF)損失を設計する。
我々の知識によると、これはクロスモダリティreidタスクの単一モダリティ特徴空間における明示的な最適化を提案する最初の仕事である。
さらに, クロスモダリティ距離とクラス距離の差を増大させるため, 共通特徴空間におけるモダリティ結合制約に, 新たなクロスモダリティコントラスト中心(CMCC)損失を導入する。
pef損失とcmcc損失は、エンドツーエンドでモデルを共同で最適化し、ネットワークの性能を著しく向上させる。
大規模な実験により,提案手法はSYSU-MM01データセットとRegDBデータセットの両方において,最先端の手法よりも大幅に優れていた。
関連論文リスト
- Unleashing Network Potentials for Semantic Scene Completion [50.95486458217653]
本稿では,新しいSSCフレームワーク - Adrial Modality Modulation Network (AMMNet)を提案する。
AMMNetは、モダリティ間の勾配流の相互依存性を可能にするクロスモーダル変調と、動的勾配競争を利用するカスタマイズされた逆トレーニングスキームの2つのコアモジュールを導入している。
AMMNetは最先端のSSC法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2024-03-12T11:48:49Z) - Efficient Bilateral Cross-Modality Cluster Matching for Unsupervised Visible-Infrared Person ReID [56.573905143954015]
本稿では, クラスタ間マッチングによるモダリティギャップを低減するための, クラスタマッチングに基づく新たな学習フレームワークを提案する。
このような監視信号の下では、クラスタレベルで特徴を協調的に整列させるために、モダリティ・特定・モダリティ・非依存(MSMA)コントラスト学習フレームワークが提案されている。
公開SYSU-MM01とRegDBデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-22T03:27:46Z) - MRCN: A Novel Modality Restitution and Compensation Network for
Visible-Infrared Person Re-identification [36.88929785476334]
本稿では,2つのモダリティ間のギャップを狭めるために,新しいモダリティ再構成補償ネットワーク(MRCN)を提案する。
この手法はRanc-1の95.1%とRegDBデータセットのmAPの89.2%を達成している。
論文 参考訳(メタデータ) (2023-03-26T05:03:18Z) - Cross-modal Local Shortest Path and Global Enhancement for
Visible-Thermal Person Re-Identification [2.294635424666456]
本稿では,局所的特徴とグローバル的特徴の同時学習に基づく2ストリームネットワークであるCM-LSP-GE(Cross-modal Local Shortest Path and Global Enhancement)モジュールを提案する。
2つの典型的なデータセットの実験結果は、我々のモデルは明らかに最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T10:27:22Z) - CMTR: Cross-modality Transformer for Visible-infrared Person
Re-identification [38.96033760300123]
可視赤外人物再識別のための相互モダリティトランスフォーマー法(CMTR)
我々は,モダリティの情報をエンコードするために,トークン埋め込みと融合した新しいモダリティ埋め込みを設計する。
提案するCMTRモデルの性能は,既存のCNN方式をはるかに上回っている。
論文 参考訳(メタデータ) (2021-10-18T03:12:59Z) - Full-Duplex Strategy for Video Object Segmentation [141.43983376262815]
Full- Strategy Network (FSNet)はビデオオブジェクトセグメンテーション(VOS)のための新しいフレームワークである
我々のFSNetは、融合復号ステージの前に、クロスモーダルな機能パス(すなわち、送信と受信)を同時に実行します。
我々のFSNetは、VOSとビデオの有能なオブジェクト検出タスクの両方において、他の最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-06T14:50:50Z) - Exploring Modality-shared Appearance Features and Modality-invariant
Relation Features for Cross-modality Person Re-Identification [72.95858515157603]
クロスモダリティの人物再識別作業は、識別モダリティ共有機能に依存する。
初期の成功にもかかわらず、このようなモダリティ共有の外観機能は十分なモダリティ不変情報をキャプチャできない。
クロスモダリティの変動をさらに低減するために、新しいクロスモダリティ四重極損失が提案される。
論文 参考訳(メタデータ) (2021-04-23T11:14:07Z) - Multi-Scale Cascading Network with Compact Feature Learning for
RGB-Infrared Person Re-Identification [35.55895776505113]
マルチスケールパートアウェアカスケードフレームワーク(MSPAC)は、マルチスケールの細かい機能を部分からグローバルに集約することによって策定されます。
したがって、クロスモダリティ相関は、特徴的モダリティ不変な特徴学習のための顕著な特徴を効率的に探索することができる。
論文 参考訳(メタデータ) (2020-12-12T15:39:11Z) - RGB-D Salient Object Detection with Cross-Modality Modulation and
Selection [126.4462739820643]
本稿では, RGB-D Salient Object Detection (SOD) において, モジュール間相補性を段階的に統合し, 改良する有効な方法を提案する。
提案するネットワークは,1)RGB画像とそれに対応する深度マップからの補完情報を効果的に統合する方法,および2)より精度の高い特徴を適応的に選択する方法の2つの課題を主に解決する。
論文 参考訳(メタデータ) (2020-07-14T14:22:50Z) - Cross-modality Person re-identification with Shared-Specific Feature
Transfer [112.60513494602337]
クロスモダリティの人物再識別(cm-ReID)は、インテリジェントビデオ分析において難しいが重要な技術である。
モーダリティ共有型特徴伝達アルゴリズム (cm-SSFT) を提案し, モーダリティ共有型情報とモーダリティ固有特性の両方のポテンシャルについて検討する。
論文 参考訳(メタデータ) (2020-02-28T00:18:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。