論文の概要: Shape-centered Representation Learning for Visible-Infrared Person Re-identification
- arxiv url: http://arxiv.org/abs/2310.17952v3
- Date: Mon, 28 Apr 2025 03:40:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:51.559834
- Title: Shape-centered Representation Learning for Visible-Infrared Person Re-identification
- Title(参考訳): 可視赤外人物再識別のための形状中心表現学習
- Authors: Shuang Li, Jiaxu Leng, Ji Gan, Mengjingcheng Mo, Xinbo Gao,
- Abstract要約: Visible-Infrared Person Re-Identification (VI-ReID)は、全日監視システムにおいて重要な役割を果たす。
既存の手法は主に体型の特徴を見下ろしながら、外見の特徴を学習することに焦点を当てている。
形状と外観を革新的に統合し,VI-ReID性能を向上させる形状中心表現学習(ScRL)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 49.929146653650534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visible-Infrared Person Re-Identification (VI-ReID) plays a critical role in all-day surveillance systems. However, existing methods primarily focus on learning appearance features while overlooking body shape features, which not only complement appearance features but also exhibit inherent robustness to modality variations. Despite their potential, effectively integrating shape and appearance features remains challenging. Appearance features are highly susceptible to modality variations and background noise, while shape features often suffer from inaccurate infrared shape estimation due to the limitations of auxiliary models. To address these challenges, we propose the Shape-centered Representation Learning (ScRL) framework, which enhances VI-ReID performance by innovatively integrating shape and appearance features. Specifically, we introduce Infrared Shape Restoration (ISR) to restore inaccuracies in infrared body shape representations at the feature level by leveraging infrared appearance features. In addition, we propose Shape Feature Propagation (SFP), which enables the direct extraction of shape features from original images during inference with minimal computational complexity. Furthermore, we design Appearance Feature Enhancement (AFE), which utilizes shape features to emphasize shape-related appearance features while effectively suppressing identity-unrelated noise. Benefiting from the effective integration of shape and appearance features, ScRL demonstrates superior performance through extensive experiments. On the SYSU-MM01, HITSZ-VCM, and RegDB datasets, it achieves Rank-1 (mAP) accuracies of 76.1% (72.6%), 71.2% (52.9%), and 92.4% (86.7%), respectively, surpassing existing state-of-the-art methods.
- Abstract(参考訳): Visible-Infrared Person Re-Identification (VI-ReID)は、全日監視システムにおいて重要な役割を果たす。
しかし、既存の手法は、外見の特徴を補完するだけでなく、モダリティの変化に固有のロバスト性を示す身体形状の特徴を目立たせながら、外見の特徴を学習することに焦点を当てている。
その可能性にもかかわらず、形と外観を効果的に統合することは依然として困難である。
外観特徴はモダリティの変動や背景雑音に強く影響されるが、形状特徴は補助モデルの限界により不正確な赤外線形状推定に悩まされることが多い。
これらの課題に対処するために, 形状と外観を革新的に統合し, VI-ReID 性能を向上させる形状中心表現学習(Shape-centered Representation Learning, ScRL)フレームワークを提案する。
具体的には、近赤外形状復元(ISR)を導入し、近赤外形状特徴を活用して、特徴レベルでの赤外形状表現の不正確さを復元する。
さらに,計算量を最小限に抑えた推論において,原画像から形状特徴を直接抽出できる形状特徴伝搬法(SFP)を提案する。
さらに、形状特徴を利用した外観特徴強調(AFE)を設計し、形状特徴を強調するとともに、識別非関連ノイズを効果的に抑制する。
形状と外観の効果的な統合により、ScRLは広範な実験を通じて優れた性能を示す。
SYSU-MM01、HITSZ-VCM、RegDBのデータセットでは、それぞれ76.1%(72.6%)、71.2%(52.9%)、92.4%(86.7%)のランク-1(mAP)アキュラシーを達成している。
関連論文リスト
- ShapeSpeak: Body Shape-Aware Textual Alignment for Visible-Infrared Person Re-Identification [34.82553240281019]
Visible-Infrared Person Re-identification (VIReID)は、視線と赤外線の歩行者画像とをマッチングすることを目的としている。
既存の方法はアイデンティティラベルの監視のみに依存している。
視覚言語で事前訓練されたモデルがVIReIDに導入され、意味情報モデリングが強化された。
論文 参考訳(メタデータ) (2025-04-25T02:37:47Z) - Dynamic Identity-Guided Attention Network for Visible-Infrared Person Re-identification [17.285526655788274]
Visible-infrared person re-identification (VI-ReID) は、可視光と赤外線の同一性を持つ人物をマッチングすることを目的としている。
既存の方法は一般的に、画像や特徴レベルでのクロスモーダルな違いを橋渡ししようとする。
我々は、動的ID誘導型注意ネットワーク(DIAN)を導入し、アイデンティティ誘導型およびモダリティ一貫性のある埋め込みをマイニングする。
論文 参考訳(メタデータ) (2024-05-21T12:04:56Z) - DiffFAE: Advancing High-fidelity One-shot Facial Appearance Editing with Space-sensitive Customization and Semantic Preservation [84.0586749616249]
本稿では,高忠実度顔画像編集に適した1段階かつ高効率な拡散ベースフレームワークDiffFAEを提案する。
高忠実度クエリ属性転送には、空間感性物理カスタマイズ(SPC)を採用し、忠実度と一般化能力を保証している。
ソース属性を保存するために、Regional-responsive Semantic Composition (RSC)を導入する。
このモジュールは、切り離されたソースを無視する特徴を学習するためにガイドされ、髪、服、背景などの非顔的属性からアーティファクトを保存し緩和する。
論文 参考訳(メタデータ) (2024-03-26T12:53:10Z) - Frequency Domain Modality-invariant Feature Learning for
Visible-infrared Person Re-Identification [79.9402521412239]
本稿では、周波数領域から見たモダリティの相違を低減するために、新しい周波数領域モダリティ不変特徴学習フレームワーク(FDMNet)を提案する。
我々のフレームワークでは、インスタンス適応振幅フィルタ(IAF)とPhrase-Preserving Normalization(PPNorm)という、2つの新しいモジュールを導入している。
論文 参考訳(メタデータ) (2024-01-03T17:11:27Z) - Shape-Erased Feature Learning for Visible-Infrared Person
Re-Identification [90.39454748065558]
体型は、VI-ReIDにとって重要なモダリティシェードの1つである。
本稿では,2つの部分空間におけるモダリティ共有特徴を関連づける形状学習パラダイムを提案する。
SYSU-MM01, RegDB, HITSZ-VCMデータセットを用いた実験により, 本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-04-09T10:22:10Z) - MRCN: A Novel Modality Restitution and Compensation Network for
Visible-Infrared Person Re-identification [36.88929785476334]
本稿では,2つのモダリティ間のギャップを狭めるために,新しいモダリティ再構成補償ネットワーク(MRCN)を提案する。
この手法はRanc-1の95.1%とRegDBデータセットのmAPの89.2%を達成している。
論文 参考訳(メタデータ) (2023-03-26T05:03:18Z) - Exploring Invariant Representation for Visible-Infrared Person
Re-Identification [77.06940947765406]
異なるスペクトルを横断する歩行者にアイデンティティを関連付けることを目的とした、クロススペクトルの人物再識別は、モダリティの相違の主な課題に直面している。
本稿では、ロバスト機能マイニングネットワーク(RFM)と呼ばれるエンドツーエンドのハイブリッド学習フレームワークにおいて、画像レベルと特徴レベルの両方の問題に対処する。
RegDBとSYSU-MM01という2つの標準的なクロススペクトル人物識別データセットの実験結果により,最先端の性能が示された。
論文 参考訳(メタデータ) (2023-02-02T05:24:50Z) - Towards Homogeneous Modality Learning and Multi-Granularity Information
Exploration for Visible-Infrared Person Re-Identification [16.22986967958162]
Visible-infrared person re-identification (VI-ReID) は、可視・赤外線カメラビューを介して人物画像の集合を検索することを目的とした、困難かつ必須の課題である。
従来の手法では, GAN (Generative Adversarial Network) を用いて, モーダリティ・コンシデント・データを生成する手法が提案されている。
そこで本研究では、視線外デュアルモード学習をグレーグレー単一モード学習問題として再構成する、統一されたダークラインスペクトルであるAligned Grayscale Modality (AGM)を用いて、モード間マッチング問題に対処する。
論文 参考訳(メタデータ) (2022-04-11T03:03:19Z) - On Exploring Pose Estimation as an Auxiliary Learning Task for
Visible-Infrared Person Re-identification [66.58450185833479]
本稿では,Pose Estimationを補助学習タスクとして活用して,エンドツーエンドフレームワークにおけるVI-ReIDタスクを支援する。
これら2つのタスクを相互に有利な方法で共同でトレーニングすることにより、高品質なモダリティ共有とID関連の特徴を学習する。
2つのベンチマークVI-ReIDデータセットの実験結果から,提案手法は一定のマージンで最先端の手法を継続的に改善することが示された。
論文 参考訳(メタデータ) (2022-01-11T09:44:00Z) - 3D Shape Variational Autoencoder Latent Disentanglement via Mini-Batch
Feature Swapping for Bodies and Faces [12.114711258010367]
本稿では,3次元形状変化型オートエンコーダを訓練する自己教師型アプローチを提案する。
3Dメッシュで行った実験結果から,潜伏不整合に対する最先端の手法では顔と身体の同一性を取り除けないことが明らかとなった。
論文 参考訳(メタデータ) (2021-11-24T11:53:33Z) - Exploring Modality-shared Appearance Features and Modality-invariant
Relation Features for Cross-modality Person Re-Identification [72.95858515157603]
クロスモダリティの人物再識別作業は、識別モダリティ共有機能に依存する。
初期の成功にもかかわらず、このようなモダリティ共有の外観機能は十分なモダリティ不変情報をキャプチャできない。
クロスモダリティの変動をさらに低減するために、新しいクロスモダリティ四重極損失が提案される。
論文 参考訳(メタデータ) (2021-04-23T11:14:07Z) - An Efficiently Coupled Shape and Appearance Prior for Active Contour
Segmentation [0.0]
本論文では,画像と映像のオブジェクトセグメンテーションのための形状と外観特徴に基づく新しいトレーニングモデルを提案する。
外観に基づく特徴は,物体の等角線に沿って強度を積分することにより,物体の形状と効率的に結合する1次元関数である。
これらの形状と外観の連成PCAトレーニングは、形状と外観の相関をさらに活用し、その結果のトレーニングモデルは、認識分離タスクのための能動輪郭型エネルギー関数に組み込まれる。
論文 参考訳(メタデータ) (2021-03-27T12:14:04Z) - SFANet: A Spectrum-aware Feature Augmentation Network for
Visible-Infrared Person Re-Identification [12.566284647658053]
クロスモダリティマッチング問題に対するSFANetという新しいスペクトル認識特徴量化ネットワークを提案する。
grayscale-spectrumイメージで学習すると、モダリティの不一致を低減し、内部構造関係を検出することができる。
特徴レベルでは、特定および粉砕可能な畳み込みブロックの数のバランスをとることにより、従来の2ストリームネットワークを改善します。
論文 参考訳(メタデータ) (2021-02-24T08:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。