論文の概要: Modality-Adaptive Mixup and Invariant Decomposition for RGB-Infrared
Person Re-Identification
- arxiv url: http://arxiv.org/abs/2203.01735v1
- Date: Thu, 3 Mar 2022 14:26:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 22:49:58.550743
- Title: Modality-Adaptive Mixup and Invariant Decomposition for RGB-Infrared
Person Re-Identification
- Title(参考訳): RGB赤外線人物再同定のためのモダリティ適応混合と不変分解
- Authors: Zhipeng Huang, Jiawei Liu, Liang Li, Kecheng Zheng, Zheng-Jun Zha
- Abstract要約: RGB-赤外線人物再同定のための新しいモダリティ適応混合・不変分解(MID)手法を提案する。
MIDは、RGBと赤外線画像の混合画像を生成するためのモダリティ適応混合方式を設計する。
2つの挑戦的なベンチマーク実験は、最先端の手法よりもMIDの優れた性能を示す。
- 参考スコア(独自算出の注目度): 84.32086702849338
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: RGB-infrared person re-identification is an emerging cross-modality
re-identification task, which is very challenging due to significant modality
discrepancy between RGB and infrared images. In this work, we propose a novel
modality-adaptive mixup and invariant decomposition (MID) approach for
RGB-infrared person re-identification towards learning modality-invariant and
discriminative representations. MID designs a modality-adaptive mixup scheme to
generate suitable mixed modality images between RGB and infrared images for
mitigating the inherent modality discrepancy at the pixel-level. It formulates
modality mixup procedure as Markov decision process, where an actor-critic
agent learns dynamical and local linear interpolation policy between different
regions of cross-modality images under a deep reinforcement learning framework.
Such policy guarantees modality-invariance in a more continuous latent space
and avoids manifold intrusion by the corrupted mixed modality samples.
Moreover, to further counter modality discrepancy and enforce invariant visual
semantics at the feature-level, MID employs modality-adaptive convolution
decomposition to disassemble a regular convolution layer into modality-specific
basis layers and a modality-shared coefficient layer. Extensive experimental
results on two challenging benchmarks demonstrate superior performance of MID
over state-of-the-art methods.
- Abstract(参考訳): rgb-infrared person re-identification(rgb-infrared person re-identification)は、新たなクロスモダリティ再識別タスクである。
本研究では,RGB-赤外線人物再識別のための新しいモダリティ適応型混合・不変分解(MID)手法を提案する。
MIDは、RGBと赤外線画像の混合画像を生成するためのモダリティ適応混合方式を設計し、画素レベルで固有のモダリティ差を緩和する。
それはモダリティミックスアップ手順をマルコフ決定プロセスとして定式化し、アクター-クリティックエージェントは深い強化学習枠組みの下で、異なる領域のクロスモダリティ画像間の動的および局所的な線形補間ポリシーを学習する。
このような方針は、より連続な潜在空間におけるモダリティ不変性を保証し、腐敗した混合モダリティサンプルによる多様体の侵入を避ける。
さらに、モダリティの相違をさらに克服し、特徴レベルでの不変な視覚意味論を強制するために、MIDは、モダリティ適応的畳み込み分解を用いて、正規畳み込み層をモダリティ固有基底層とモダリティ共有係数層に分解する。
2つの挑戦的ベンチマークの大規模な実験結果は、最先端手法よりもMIDの優れた性能を示す。
関連論文リスト
- Modality Prompts for Arbitrary Modality Salient Object Detection [57.610000247519196]
本論文は、任意のモーダリティ・サリエント物体検出(AM SOD)の課題について述べる。
任意のモダリティ、例えばRGBイメージ、RGB-Dイメージ、RGB-D-Tイメージから有能なオブジェクトを検出することを目的としている。
AM SODの2つの基本的な課題を解明するために,新しいモード適応トランス (MAT) を提案する。
論文 参考訳(メタデータ) (2024-05-06T11:02:02Z) - Cross-Modality Perturbation Synergy Attack for Person Re-identification [66.48494594909123]
相互モダリティReIDの主な課題は、異なるモダリティ間の視覚的差異を効果的に扱うことである。
既存の攻撃方法は、目に見える画像のモダリティの特徴に主に焦点を当てている。
本研究では,クロスモーダルReIDに特化して設計されたユニバーサル摂動攻撃を提案する。
論文 参考訳(メタデータ) (2024-01-18T15:56:23Z) - Frequency Domain Modality-invariant Feature Learning for
Visible-infrared Person Re-Identification [79.9402521412239]
本稿では、周波数領域から見たモダリティの相違を低減するために、新しい周波数領域モダリティ不変特徴学習フレームワーク(FDMNet)を提案する。
我々のフレームワークでは、インスタンス適応振幅フィルタ(IAF)とPhrase-Preserving Normalization(PPNorm)という、2つの新しいモジュールを導入している。
論文 参考訳(メタデータ) (2024-01-03T17:11:27Z) - Unsupervised Misaligned Infrared and Visible Image Fusion via
Cross-Modality Image Generation and Registration [59.02821429555375]
我々は、教師なし不整合赤外線と可視画像融合のための頑健な相互モダリティ生成登録パラダイムを提案する。
登録された赤外線画像と可視画像とを融合させるため,IFM (Feature Interaction Fusion Module) を提案する。
論文 参考訳(メタデータ) (2022-05-24T07:51:57Z) - Towards Homogeneous Modality Learning and Multi-Granularity Information
Exploration for Visible-Infrared Person Re-Identification [16.22986967958162]
Visible-infrared person re-identification (VI-ReID) は、可視・赤外線カメラビューを介して人物画像の集合を検索することを目的とした、困難かつ必須の課題である。
従来の手法では, GAN (Generative Adversarial Network) を用いて, モーダリティ・コンシデント・データを生成する手法が提案されている。
そこで本研究では、視線外デュアルモード学習をグレーグレー単一モード学習問題として再構成する、統一されたダークラインスペクトルであるAligned Grayscale Modality (AGM)を用いて、モード間マッチング問題に対処する。
論文 参考訳(メタデータ) (2022-04-11T03:03:19Z) - MSO: Multi-Feature Space Joint Optimization Network for RGB-Infrared
Person Re-Identification [35.97494894205023]
RGB-infrared cross-modality person re-identification (ReID) タスクは、可視モダリティと赤外線モダリティの同一性の画像を認識することを目的としている。
既存の手法は主に2ストリームアーキテクチャを使用して、最終的な共通特徴空間における2つのモード間の相違を取り除く。
単一モダリティ空間と共通空間の両方において、モダリティ調和可能な特徴を学習できる新しい多機能空間共同最適化(MSO)ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-21T16:45:23Z) - Multi-Scale Cascading Network with Compact Feature Learning for
RGB-Infrared Person Re-Identification [35.55895776505113]
マルチスケールパートアウェアカスケードフレームワーク(MSPAC)は、マルチスケールの細かい機能を部分からグローバルに集約することによって策定されます。
したがって、クロスモダリティ相関は、特徴的モダリティ不変な特徴学習のための顕著な特徴を効率的に探索することができる。
論文 参考訳(メタデータ) (2020-12-12T15:39:11Z) - A Similarity Inference Metric for RGB-Infrared Cross-Modality Person
Re-identification [66.49212581685127]
IRとRGBの相違が大きいため、モダリティの人物再識別(re-ID)は難しい課題である。
既存のメソッドはこの課題に対処するため、典型的には、特徴分布やイメージスタイルをモダリティ間で整列させることで対処する。
本稿では,モダリティ内サンプルの類似性を利用して,モダリティ間の相違を回避する新しい類似度推定指標(SIM)を提案する。
論文 参考訳(メタデータ) (2020-07-03T05:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。