論文の概要: Parameter Sharing Exploration and Hetero-Center based Triplet Loss for
Visible-Thermal Person Re-Identification
- arxiv url: http://arxiv.org/abs/2008.06223v2
- Date: Fri, 4 Dec 2020 01:36:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 17:19:15.735926
- Title: Parameter Sharing Exploration and Hetero-Center based Triplet Loss for
Visible-Thermal Person Re-Identification
- Title(参考訳): 可視的人体再同定のためのパラメータ共有探索とヘテロセンターに基づくトリプルト損失
- Authors: Haijun Liu, Xiaoheng Tan and Xichuan Zhou
- Abstract要約: 本稿では,VT Re-ID(VT Re-ID)タスクについて述べる。
提案手法は,最先端の手法を大きなマージンで明らかに上回っている。
- 参考スコア(独自算出の注目度): 17.402673438396345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on the visible-thermal cross-modality person
re-identification (VT Re-ID) task, whose goal is to match person images between
the daytime visible modality and the nighttime thermal modality. The two-stream
network is usually adopted to address the cross-modality discrepancy, the most
challenging problem for VT Re-ID, by learning the multi-modality person
features. In this paper, we explore how many parameters of two-stream network
should share, which is still not well investigated in the existing literature.
By well splitting the ResNet50 model to construct the modality-specific feature
extracting network and modality-sharing feature embedding network, we
experimentally demonstrate the effect of parameters sharing of two-stream
network for VT Re-ID. Moreover, in the framework of part-level person feature
learning, we propose the hetero-center based triplet loss to relax the strict
constraint of traditional triplet loss through replacing the comparison of
anchor to all the other samples by anchor center to all the other centers. With
the extremely simple means, the proposed method can significantly improve the
VT Re-ID performance. The experimental results on two datasets show that our
proposed method distinctly outperforms the state-of-the-art methods by large
margins, especially on RegDB dataset achieving superior performance,
rank1/mAP/mINP 91.05%/83.28%/68.84%. It can be a new baseline for VT Re-ID,
with a simple but effective strategy.
- Abstract(参考訳): 本稿では、昼間の可視光度と夜間の熱量との一致を目標とする視熱的クロスモーダル人物再識別(VT Re-ID)タスクに焦点を当てた。
VT Re-IDの最も難しい問題である相互モダリティの相違に対処するために、マルチモダリティの人的特徴を学習する。
本稿では,既存の文献では十分に研究されていない2ストリームネットワークのパラメータの共有数について検討する。
ResNet50モデルを適切に分割し、モダリティ固有特徴抽出ネットワークとモダリティ共有特徴埋め込みネットワークを構築することにより、VT Re-IDのための2ストリームネットワークのパラメータ共有の効果を実験的に実証する。
さらに,パートレベルの人型特徴学習の枠組みでは,アンカーセンターが他のすべてのセンターと比較し,従来の三重項損失の厳密な制約を緩和するために,ヘテロセンタに基づく三重項損失を提案する。
非常に単純な方法により,提案手法はVT Re-IDの性能を大幅に向上させることができる。
2つのデータセットに対する実験結果から,提案手法は最先端の手法を大きなマージンで明らかに上回り,特に優れた性能を示すRegDBデータセットでは,ランク1/mAP/mINP 91.05%/83.28%/68.84%であることがわかった。
VT Re-IDの新しいベースラインであり、シンプルだが効果的な戦略である。
関連論文リスト
- Once for Both: Single Stage of Importance and Sparsity Search for Vision Transformer Compression [63.23578860867408]
重要度評価と疎度評価を1段階にまとめる方法について検討する。
重要度と疎度の両方を同時に評価するコスト効率の高いOFBを提案する。
実験により、OFBは最先端のサーチベースおよびプルーニングベース手法よりも優れた圧縮性能が得られることが示された。
論文 参考訳(メタデータ) (2024-03-23T13:22:36Z) - Modality Unifying Network for Visible-Infrared Person Re-Identification [24.186989535051623]
Visible-infrared person re-identification (VI-ReID) は、異種間の大きな相違とクラス内変異のために難しい課題である。
既存の手法は主に、異なるモダリティを同じ特徴空間に埋め込むことで、モダリティ共有表現を学習することに焦点を当てている。
そこで我々は,VI-ReID の頑健な補助モダリティを探索するために,新しいモダリティ統一ネットワーク (MUN) を提案する。
論文 参考訳(メタデータ) (2023-09-12T14:22:22Z) - Unified Single-Stage Transformer Network for Efficient RGB-T Tracking [47.88113335927079]
我々は、上記3つのステージを単一のViT(Vision Transformer)バックボーンに統合するシングルステージのRGB-Tトラッキングネットワーク、すなわちUSTrackを提案する。
この構造により、ネットワークは、モダリティの相互相互作用の下でテンプレートと検索領域の融合特徴を抽出することができる。
3つのRGB-T追跡ベンチマーク実験により,提案手法は高速な推論速度84.2FPSを維持しつつ,新しい最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2023-08-26T05:09:57Z) - Feature Decoupling-Recycling Network for Fast Interactive Segmentation [79.22497777645806]
近年のインタラクティブセグメンテーション手法では,入力としてソースイメージ,ユーザガイダンス,従来予測されていたマスクを反復的に取り込んでいる。
本稿では,本質的な相違点に基づいてモデリングコンポーネントを分離するFDRN(Feature Decoupling-Recycling Network)を提案する。
論文 参考訳(メタデータ) (2023-08-07T12:26:34Z) - Efficient Bilateral Cross-Modality Cluster Matching for Unsupervised Visible-Infrared Person ReID [56.573905143954015]
本稿では, クラスタ間マッチングによるモダリティギャップを低減するための, クラスタマッチングに基づく新たな学習フレームワークを提案する。
このような監視信号の下では、クラスタレベルで特徴を協調的に整列させるために、モダリティ・特定・モダリティ・非依存(MSMA)コントラスト学習フレームワークが提案されている。
公開SYSU-MM01とRegDBデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-22T03:27:46Z) - Learning Progressive Modality-shared Transformers for Effective
Visible-Infrared Person Re-identification [27.75907274034702]
我々は,能率VI-ReIDのためのPMT(Progressive Modality-Shared Transformer)という新しいディープラーニングフレームワークを提案する。
モダリティギャップの負の効果を低減するために、まず、グレースケールの画像を補助的なモダリティとして捉え、進歩的な学習戦略を提案する。
クラス内差が大きく,クラス間差が少ない問題に対処するために,識別中心損失を提案する。
論文 参考訳(メタデータ) (2022-12-01T02:20:16Z) - On Exploring Pose Estimation as an Auxiliary Learning Task for
Visible-Infrared Person Re-identification [66.58450185833479]
本稿では,Pose Estimationを補助学習タスクとして活用して,エンドツーエンドフレームワークにおけるVI-ReIDタスクを支援する。
これら2つのタスクを相互に有利な方法で共同でトレーニングすることにより、高品質なモダリティ共有とID関連の特徴を学習する。
2つのベンチマークVI-ReIDデータセットの実験結果から,提案手法は一定のマージンで最先端の手法を継続的に改善することが示された。
論文 参考訳(メタデータ) (2022-01-11T09:44:00Z) - MSO: Multi-Feature Space Joint Optimization Network for RGB-Infrared
Person Re-Identification [35.97494894205023]
RGB-infrared cross-modality person re-identification (ReID) タスクは、可視モダリティと赤外線モダリティの同一性の画像を認識することを目的としている。
既存の手法は主に2ストリームアーキテクチャを使用して、最終的な共通特徴空間における2つのモード間の相違を取り除く。
単一モダリティ空間と共通空間の両方において、モダリティ調和可能な特徴を学習できる新しい多機能空間共同最適化(MSO)ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-21T16:45:23Z) - CMTR: Cross-modality Transformer for Visible-infrared Person
Re-identification [38.96033760300123]
可視赤外人物再識別のための相互モダリティトランスフォーマー法(CMTR)
我々は,モダリティの情報をエンコードするために,トークン埋め込みと融合した新しいモダリティ埋め込みを設計する。
提案するCMTRモデルの性能は,既存のCNN方式をはるかに上回っている。
論文 参考訳(メタデータ) (2021-10-18T03:12:59Z) - Decoupled and Memory-Reinforced Networks: Towards Effective Feature
Learning for One-Step Person Search [65.51181219410763]
歩行者検出と識別サブタスクを1つのネットワークで処理するワンステップ方式を開発しました。
現在のワンステップアプローチには2つの大きな課題があります。
本稿では,これらの問題を解決するために,分離メモリ強化ネットワーク(DMRNet)を提案する。
論文 参考訳(メタデータ) (2021-02-22T06:19:45Z) - Searching Multi-Rate and Multi-Modal Temporal Enhanced Networks for
Gesture Recognition [89.0152015268929]
RGB-Dジェスチャ認識のための最初のニューラルアーキテクチャサーチ(NAS)手法を提案する。
提案手法は,1)3次元中央差分畳畳み込み(3D-CDC)ファミリーによる時間的表現の強化,および多モードレート分岐と横方向接続のための最適化されたバックボーンを含む。
結果として得られたマルチレートネットワークは、RGBと深さ変調と時間力学の関係を理解するための新しい視点を提供する。
論文 参考訳(メタデータ) (2020-08-21T10:45:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。