論文の概要: Exploring Modality-shared Appearance Features and Modality-invariant
Relation Features for Cross-modality Person Re-Identification
- arxiv url: http://arxiv.org/abs/2104.11539v1
- Date: Fri, 23 Apr 2021 11:14:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 17:18:06.486154
- Title: Exploring Modality-shared Appearance Features and Modality-invariant
Relation Features for Cross-modality Person Re-Identification
- Title(参考訳): 交叉モダリティ人物再同定のためのモダリティ共有外観特徴とモダリティ不変関係特徴の検討
- Authors: Nianchang Huang, Jianan Liu, Qiang Zhang, Jungong Han
- Abstract要約: クロスモダリティの人物再識別作業は、識別モダリティ共有機能に依存する。
初期の成功にもかかわらず、このようなモダリティ共有の外観機能は十分なモダリティ不変情報をキャプチャできない。
クロスモダリティの変動をさらに低減するために、新しいクロスモダリティ四重極損失が提案される。
- 参考スコア(独自算出の注目度): 72.95858515157603
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most existing cross-modality person re-identification works rely on
discriminative modality-shared features for reducing cross-modality variations
and intra-modality variations. Despite some initial success, such
modality-shared appearance features cannot capture enough modality-invariant
discriminative information due to a massive discrepancy between RGB and
infrared images. To address this issue, on the top of appearance features, we
further capture the modality-invariant relations among different person parts
(referred to as modality-invariant relation features), which are the complement
to those modality-shared appearance features and help to identify persons with
similar appearances but different body shapes. To this end, a Multi-level
Two-streamed Modality-shared Feature Extraction (MTMFE) sub-network is
designed, where the modality-shared appearance features and modality-invariant
relation features are first extracted in a shared 2D feature space and a shared
3D feature space, respectively. The two features are then fused into the final
modality-shared features such that both cross-modality variations and
intra-modality variations can be reduced. Besides, a novel cross-modality
quadruplet loss is proposed to further reduce the cross-modality variations.
Experimental results on several benchmark datasets demonstrate that our
proposed method exceeds state-of-the-art algorithms by a noticeable margin.
- Abstract(参考訳): 既存のクロスモダリティの人物再同定作業のほとんどは、クロスモダリティのバリエーションとイントラモダリティのバリエーションを減らすために識別モダリティ共有機能に依存している。
初期の成功にもかかわらず、そのようなモダリティ共有の外観特徴は、RGBと赤外線画像の間に大きな差があるため、十分なモダリティ不変の識別情報を取得できない。
この課題に対処するため, 外観特徴の最上位では, 外観特徴の相補的特徴である, 異なる人物部分間のモダリティ-不変関係(モダリティ-不変関係特徴)を更に把握し, 類似の外観を持つ人物の識別を支援する。
この目的のために、MTMFE(Multi-level Two-streamed Modality-Shared Feature extract)サブネットワークを設計し、まず、共有2次元特徴空間と共有3次元特徴空間において、モダリティ共有の外観特徴とモダリティ不変の関係特徴を抽出する。
これら2つの特徴は、相互モダリティ変動と内部モダリティ変動の両方を減らすことができる最終的なモダリティ共有特徴に融合される。
さらに, クロスモダリティの4重項損失は, クロスモダリティの変動をさらに低減するために提案される。
いくつかのベンチマークデータセットによる実験結果から,提案手法が最先端のアルゴリズムをはるかに上回ることを示す。
関連論文リスト
- Prototype-Driven Multi-Feature Generation for Visible-Infrared Person Re-identification [11.664820595258988]
可視的(視覚)画像と赤外線(赤外線)画像の違いから、可視的(赤外線)人物の再識別における主な課題が生じる。
既存の手法は、しばしば水平分割に頼って部分レベルの特徴を整列させ、不正確性を導入する。
クロスモーダルな相違を緩和することを目的としたPDM(Prototype-Driven Multi-Feature Generation framework)を提案する。
論文 参考訳(メタデータ) (2024-09-09T14:12:23Z) - Modality Prompts for Arbitrary Modality Salient Object Detection [57.610000247519196]
本論文は、任意のモーダリティ・サリエント物体検出(AM SOD)の課題について述べる。
任意のモダリティ、例えばRGBイメージ、RGB-Dイメージ、RGB-D-Tイメージから有能なオブジェクトを検出することを目的としている。
AM SODの2つの基本的な課題を解明するために,新しいモード適応トランス (MAT) を提案する。
論文 参考訳(メタデータ) (2024-05-06T11:02:02Z) - Modality Unifying Network for Visible-Infrared Person Re-Identification [24.186989535051623]
Visible-infrared person re-identification (VI-ReID) は、異種間の大きな相違とクラス内変異のために難しい課題である。
既存の手法は主に、異なるモダリティを同じ特徴空間に埋め込むことで、モダリティ共有表現を学習することに焦点を当てている。
そこで我々は,VI-ReID の頑健な補助モダリティを探索するために,新しいモダリティ統一ネットワーク (MUN) を提案する。
論文 参考訳(メタデータ) (2023-09-12T14:22:22Z) - Instance-Variant Loss with Gaussian RBF Kernel for 3D Cross-modal
Retriveal [52.41252219453429]
既存の方法は全てのインスタンスを等しく扱い、同じペナルティ強度を様々な難易度を持つインスタンスに適用する。
これは曖昧な収束や局所最適性をもたらし、特徴空間の分離性を著しく妥協させる。
本稿では,異なるインスタンスに対して異なるペナルティ強度を割り当て,空間分離性を向上させるインスタンス・ヴァリアント損失を提案する。
論文 参考訳(メタデータ) (2023-05-07T10:12:14Z) - Shape-Erased Feature Learning for Visible-Infrared Person
Re-Identification [90.39454748065558]
体型は、VI-ReIDにとって重要なモダリティシェードの1つである。
本稿では,2つの部分空間におけるモダリティ共有特徴を関連づける形状学習パラダイムを提案する。
SYSU-MM01, RegDB, HITSZ-VCMデータセットを用いた実験により, 本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-04-09T10:22:10Z) - MRCN: A Novel Modality Restitution and Compensation Network for
Visible-Infrared Person Re-identification [36.88929785476334]
本稿では,2つのモダリティ間のギャップを狭めるために,新しいモダリティ再構成補償ネットワーク(MRCN)を提案する。
この手法はRanc-1の95.1%とRegDBデータセットのmAPの89.2%を達成している。
論文 参考訳(メタデータ) (2023-03-26T05:03:18Z) - Exploiting modality-invariant feature for robust multimodal emotion
recognition with missing modalities [76.08541852988536]
我々は、欠落したモダリティ・イマジネーション・ネットワーク(IF-MMIN)に不変な特徴を用いることを提案する。
提案モデルは,不確実なモダリティ条件下で,すべてのベースラインを上回り,全体の感情認識性能を不変に向上することを示す。
論文 参考訳(メタデータ) (2022-10-27T12:16:25Z) - MSO: Multi-Feature Space Joint Optimization Network for RGB-Infrared
Person Re-Identification [35.97494894205023]
RGB-infrared cross-modality person re-identification (ReID) タスクは、可視モダリティと赤外線モダリティの同一性の画像を認識することを目的としている。
既存の手法は主に2ストリームアーキテクチャを使用して、最終的な共通特徴空間における2つのモード間の相違を取り除く。
単一モダリティ空間と共通空間の両方において、モダリティ調和可能な特徴を学習できる新しい多機能空間共同最適化(MSO)ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-21T16:45:23Z) - Cross-modality Person re-identification with Shared-Specific Feature
Transfer [112.60513494602337]
クロスモダリティの人物再識別(cm-ReID)は、インテリジェントビデオ分析において難しいが重要な技術である。
モーダリティ共有型特徴伝達アルゴリズム (cm-SSFT) を提案し, モーダリティ共有型情報とモーダリティ固有特性の両方のポテンシャルについて検討する。
論文 参考訳(メタデータ) (2020-02-28T00:18:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。