論文の概要: Adaptive Generation of Privileged Intermediate Information for
Visible-Infrared Person Re-Identification
- arxiv url: http://arxiv.org/abs/2307.03240v1
- Date: Thu, 6 Jul 2023 18:08:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 14:18:03.555902
- Title: Adaptive Generation of Privileged Intermediate Information for
Visible-Infrared Person Re-Identification
- Title(参考訳): 可視赤外人物再同定のための原始中間情報の適応生成
- Authors: Mahdi Alehdaghi, Arthur Josi, Pourya Shamsolmoali, Rafael M. O. Cruz,
and Eric Granger
- Abstract要約: 本稿では,Privileged Intermediate Information Trainingアプローチの適応生成について紹介する。
AGPI2は、VとIのモダリティ間で識別情報をブリッジする仮想ドメインを適応して生成するために導入された。
V-I ReIDを用いた実験の結果,AGPI2は余分な計算資源を使わずにマッチング精度を向上させることが示唆された。
- 参考スコア(独自算出の注目度): 11.93952924941977
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visible-infrared person re-identification seeks to retrieve images of the
same individual captured over a distributed network of RGB and IR sensors.
Several V-I ReID approaches directly integrate both V and I modalities to
discriminate persons within a shared representation space. However, given the
significant gap in data distributions between V and I modalities, cross-modal
V-I ReID remains challenging. Some recent approaches improve generalization by
leveraging intermediate spaces that can bridge V and I modalities, yet
effective methods are required to select or generate data for such informative
domains. In this paper, the Adaptive Generation of Privileged Intermediate
Information training approach is introduced to adapt and generate a virtual
domain that bridges discriminant information between the V and I modalities.
The key motivation behind AGPI^2 is to enhance the training of a deep V-I ReID
backbone by generating privileged images that provide additional information.
These privileged images capture shared discriminative features that are not
easily accessible within the original V or I modalities alone. Towards this
goal, a non-linear generative module is trained with an adversarial objective,
translating V images into intermediate spaces with a smaller domain shift
w.r.t. the I domain. Meanwhile, the embedding module within AGPI^2 aims to
produce similar features for both V and generated images, encouraging the
extraction of features that are common to all modalities. In addition to these
contributions, AGPI^2 employs adversarial objectives for adapting the
intermediate images, which play a crucial role in creating a
non-modality-specific space to address the large domain shifts between V and I
domains. Experimental results conducted on challenging V-I ReID datasets
indicate that AGPI^2 increases matching accuracy without extra computational
resources during inference.
- Abstract(参考訳): 可視赤外線の人物再識別は、RGBと赤外線センサーの分散ネットワーク上で撮影された同一人物の画像の検索を試みる。
いくつかのV-I ReIDアプローチは、VとIのモダリティを直接統合して、共有表現空間内の人物を識別する。
しかしながら、V と I のモダリティ間のデータ分布の重大なギャップを考えると、V-I ReID は依然として困難である。
最近のアプローチでは、v と i のモダリティを橋渡しできる中間空間を活用することで一般化が改善されているが、そのような情報領域のデータの選択や生成には効果的な方法が必要である。
本稿では,V と I のモダリティ間の識別情報をブリッジする仮想ドメインを適応し,生成するための適応型中間情報学習手法を提案する。
AGPI^2の背後にある重要な動機は、付加情報を提供する特権画像を生成することによって、深いV-I ReIDバックボーンのトレーニングを強化することである。
これらの特権画像は、オリジナルのVまたはIモードでのみアクセスできない共有識別特徴をキャプチャする。
この目的に向けて、非線形生成モジュールは、逆対象で訓練され、V 画像をより小さな領域シフト w.r.t.I ドメインで中間空間に変換する。
一方、AGPI^2内の埋め込みモジュールは、Vと生成された画像の両方に類似した特徴を生成し、すべてのモダリティに共通する特徴の抽出を促進する。
これらの貢献に加えて、AGPI^2 は中間画像に適応するための敵の目的を採用しており、V と I ドメイン間の大きなドメインシフトに対処する非モダリティ固有の空間を作る上で重要な役割を果たす。
V-I ReIDデータセットを用いた実験結果から,AGPI^2は推論中に余分な計算資源を使わずにマッチング精度を向上させることが示された。
関連論文リスト
- Bidirectional Multi-Step Domain Generalization for Visible-Infrared Person Re-Identification [12.14946364107671]
可視赤外人物再識別(V-I ReID)における重要な課題は、モダリティ間の重要な相違を効果的に解決できるバックボーンモデルを訓練することである。
本稿では,多目的多段階領域一般化(Bidirectional Multi-step Domain Generalization)について紹介する。
挑戦的なV-I ReIDデータセットを用いて行った実験は、我々のBMDGアプローチがV-Iの人物ReIDから中間ドメインを生成する最先端のパーツベースモデルや手法より優れていることを示している。
論文 参考訳(メタデータ) (2024-03-16T03:03:27Z) - VDNA-PR: Using General Dataset Representations for Robust Sequential Visual Place Recognition [17.393105901701098]
本稿では、汎用データセット表現技術を用いて、堅牢な視覚的位置認識(VPR)記述子を生成する。
我々の実験は、我々の表現が、トレーニングデータ分布から真剣なドメインシフトへの現在の解決策よりも堅牢性を高めることができることを示している。
論文 参考訳(メタデータ) (2024-03-14T01:30:28Z) - PiPa: Pixel- and Patch-wise Self-supervised Learning for Domain
Adaptative Semantic Segmentation [100.6343963798169]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、学習モデルの他のドメインへの一般化を強化することを目的としている。
そこで我々は,ドメイン適応型セマンティックセマンティックセグメンテーションのための,PiPaという,画素・パッチ対応の自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-14T18:31:24Z) - Progressive Transformation Learning for Leveraging Virtual Images in
Training [21.590496842692744]
本稿では,PTL(Progressive Transformation Learning)を導入し,リアル性を高めた仮想画像を追加することにより,トレーニングデータセットを増強する。
1) 領域ギャップに応じて仮想イメージのプールからサブセットを選択する,2) 選択した仮想イメージを変換してリアリズムを向上する,3) 変換された仮想イメージをトレーニングセットに追加する,という3つのステップを段階的に繰り返す。
実験により、PTLは、特に小さなデータとクロスドメインシステムにおいて、ベースラインよりも大幅にパフォーマンスが向上することが示された。
論文 参考訳(メタデータ) (2022-11-03T13:04:15Z) - Visible-Infrared Person Re-Identification Using Privileged Intermediate
Information [10.816003787786766]
クロスモーダルな人物再識別(ReID)は、RGBとIRモダリティ間のデータ分散の大きなドメインシフトのために困難である。
本稿では2つのメインドメイン間のブリッジとして機能する中間仮想ドメインを作成するための新しいアプローチを提案する。
我々は、深いReIDモデルをトレーニングするための追加情報を提供する、可視領域と赤外線領域間の画像を生成する新しい手法を考案した。
論文 参考訳(メタデータ) (2022-09-19T21:08:14Z) - Unsupervised domain adaptation semantic segmentation of high-resolution
remote sensing imagery with invariant domain-level context memory [10.210120085157161]
本研究では,HRS画像のセマンティックセマンティックセマンティックセマンティクスのための,教師なし領域適応セマンティクスネットワーク(MemoryAdaptNet)を提案する。
MemoryAdaptNetは、ソースドメインとターゲットドメイン間のドメイン分布の不一致をブリッジするために、出力空間逆学習スキームを構築する。
3つのクロスドメインタスクによる実験は、提案したMemoryAdaptNetが最先端の手法よりもはるかに優れていることを示している。
論文 参考訳(メタデータ) (2022-08-16T12:35:57Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Learning Cross-modal Contrastive Features for Video Domain Adaptation [138.75196499580804]
本稿では、クロスモーダルとクロスドメインの特徴表現を同時に正規化する、ビデオドメイン適応のための統合フレームワークを提案する。
具体的には、ドメインの各モダリティを視点として扱い、コントラスト学習手法を適切に設計されたサンプリング戦略で活用する。
論文 参考訳(メタデータ) (2021-08-26T18:14:18Z) - PIT: Position-Invariant Transform for Cross-FoV Domain Adaptation [53.428312630479816]
フィールド・オブ・ビュー(FoV)ギャップは、ソースとターゲットドメイン間の顕著なインスタンスの出現差を誘導する。
本研究では,異なる領域における画像の整合性を改善するために,textbfPosition-Invariant Transform (PIT)を提案する。
論文 参考訳(メタデータ) (2021-08-16T15:16:47Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - DoFE: Domain-oriented Feature Embedding for Generalizable Fundus Image
Segmentation on Unseen Datasets [96.92018649136217]
対象ドメインに対するCNNの一般化能力を向上させるために,新しいドメイン指向特徴埋め込み(DoFE)フレームワークを提案する。
私たちのDoFEフレームワークは、マルチソースドメインから学んだ追加のドメイン事前知識で、画像機能を動的に強化します。
本フレームワークは、未確認データセットのセグメンテーション結果を満足して生成し、他の領域の一般化やネットワークの正規化手法を超越する。
論文 参考訳(メタデータ) (2020-10-13T07:28:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。