論文の概要: Multi-spectral Vehicle Re-identification with Cross-directional
Consistency Network and a High-quality Benchmark
- arxiv url: http://arxiv.org/abs/2208.00632v1
- Date: Mon, 1 Aug 2022 06:35:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:00:05.042294
- Title: Multi-spectral Vehicle Re-identification with Cross-directional
Consistency Network and a High-quality Benchmark
- Title(参考訳): 方向性整合性ネットワークと高品質ベンチマークによるマルチスペクトル車両再同定
- Authors: Aihua Zheng, Xianpeng Zhu, Chenglong Li, Jin Tang, Jixin Ma
- Abstract要約: そこで本研究では,モダリティとサンプルの両面の相違を克服する,新たな方向性整合性ネットワークを提案する。
特に,各アイデンティティのモダリティ中心を引き出すために,新たな指向性中心損失を設計し,モダリティの相違を緩和する。
このような戦略は、車両用Re-IDの識別多スペクトル特徴表現を生成することができる。
- 参考スコア(独自算出の注目度): 34.52402454297563
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: To tackle the challenge of vehicle re-identification (Re-ID) in complex
lighting environments and diverse scenes, multi-spectral sources like visible
and infrared information are taken into consideration due to their excellent
complementary advantages.
However, multi-spectral vehicle Re-ID suffers cross-modality discrepancy
caused by heterogeneous properties of different modalities as well as a big
challenge of the diverse appearance with different views in each identity.
Meanwhile, diverse environmental interference leads to heavy sample
distributional discrepancy in each modality.
In this work, we propose a novel cross-directional consistency network to
simultaneously overcome the discrepancies from both modality and sample
aspects.
In particular, we design a new cross-directional center loss to pull the
modality centers of each identity close to mitigate cross-modality discrepancy,
while the sample centers of each identity close to alleviate the sample
discrepancy. Such strategy can generate discriminative multi-spectral feature
representations for vehicle Re-ID.
In addition, we design an adaptive layer normalization unit to dynamically
adjust individual feature distribution to handle distributional discrepancy of
intra-modality features for robust learning.
To provide a comprehensive evaluation platform, we create a high-quality
RGB-NIR-TIR multi-spectral vehicle Re-ID benchmark (MSVR310), including 310
different vehicles from a broad range of viewpoints, time spans and
environmental complexities.
Comprehensive experiments on both created and public datasets demonstrate the
effectiveness of the proposed approach comparing to the state-of-the-art
methods.
- Abstract(参考訳): 複雑な照明環境や多様なシーンにおける車両再識別(Re-ID)の課題に対処するため、可視・赤外情報などのマルチスペクトル源を相補的優位性から考慮する。
しかし、多スペクトル車両Re-IDは、異なるモジュラリティの異質性によって引き起こされる異質性差に悩まされ、また、それぞれのアイデンティティに異なる視点を持つ多様な外観の大きな課題である。
一方、多様な環境干渉は、各モードにおける重いサンプル分布の相違をもたらす。
本研究では,モダリティとサンプルの差異を同時に克服する,新たな双方向一貫性ネットワークを提案する。
特に、各アイデンティティのモダリティ中心をクロスモダリティの不一致を緩和するために、新しい方向中心の損失をデザインする一方で、各アイデンティティのサンプル中心はサンプルの不一致を緩和する。
このような戦略は、車両用Re-IDの識別多スペクトル特徴表現を生成することができる。
さらに,適応層正規化ユニットを設計し,個々の特徴分布を動的に調整し,ロバスト学習のためのモダリティ内特徴の分布差を扱う。
総合的な評価プラットフォームを提供するため、幅広い視点、時間、環境の複雑さから310台の異なる車両を含む高品質なrgb-nir-tirマルチスペクトル車両re-idベンチマーク(msvr310)を作成する。
作成したデータセットと公開データセットの総合的な実験により、提案手法の有効性を最先端の手法と比較した。
関連論文リスト
- Cross-Modality Perturbation Synergy Attack for Person Re-identification [66.48494594909123]
相互モダリティReIDの主な課題は、異なるモダリティ間の視覚的差異を効果的に扱うことである。
既存の攻撃方法は、目に見える画像のモダリティの特徴に主に焦点を当てている。
本研究では,クロスモーダルReIDに特化して設計されたユニバーサル摂動攻撃を提案する。
論文 参考訳(メタデータ) (2024-01-18T15:56:23Z) - Modality Unifying Network for Visible-Infrared Person Re-Identification [24.186989535051623]
Visible-infrared person re-identification (VI-ReID) は、異種間の大きな相違とクラス内変異のために難しい課題である。
既存の手法は主に、異なるモダリティを同じ特徴空間に埋め込むことで、モダリティ共有表現を学習することに焦点を当てている。
そこで我々は,VI-ReID の頑健な補助モダリティを探索するために,新しいモダリティ統一ネットワーク (MUN) を提案する。
論文 参考訳(メタデータ) (2023-09-12T14:22:22Z) - DealMVC: Dual Contrastive Calibration for Multi-view Clustering [78.54355167448614]
マルチビュークラスタリングのための新しいデュアルコントラストキャリブレーションネットワーク(DealMVC)を提案する。
まず、グローバルなクロスビュー特徴を得るための融合機構を設計し、その上で、ビュー特徴類似性グラフと高信頼な擬ラベルグラフを整列させることにより、グローバルなコントラストキャリブレーション損失を提案する。
トレーニング手順の間、対話型クロスビュー機能は、ローカルレベルとグローバルレベルの両方で共同最適化される。
論文 参考訳(メタデータ) (2023-08-17T14:14:28Z) - Dynamic Enhancement Network for Partial Multi-modality Person
Re-identification [52.70235136651996]
複数のモーダルの表現能力を維持しつつ、任意のモダリティを欠くことができる新しい動的拡張ネットワーク(DENet)を設計する。
欠落状態は変更可能であるため、動的拡張モジュールを設計し、欠落状態に応じて動的にモダリティ特性を適応的に向上する。
論文 参考訳(メタデータ) (2023-05-25T06:22:01Z) - Exploring Invariant Representation for Visible-Infrared Person
Re-Identification [77.06940947765406]
異なるスペクトルを横断する歩行者にアイデンティティを関連付けることを目的とした、クロススペクトルの人物再識別は、モダリティの相違の主な課題に直面している。
本稿では、ロバスト機能マイニングネットワーク(RFM)と呼ばれるエンドツーエンドのハイブリッド学習フレームワークにおいて、画像レベルと特徴レベルの両方の問題に対処する。
RegDBとSYSU-MM01という2つの標準的なクロススペクトル人物識別データセットの実験結果により,最先端の性能が示された。
論文 参考訳(メタデータ) (2023-02-02T05:24:50Z) - Discriminative-Region Attention and Orthogonal-View Generation Model for
Vehicle Re-Identification [7.5366501970852955]
複数の課題は、視覚に基づく車両のRe-ID手法の適用を妨げる。
提案したDRAモデルでは,識別領域の特徴を自動的に抽出し,類似した車両を識別することができる。
また、OVGモデルでは、入力ビュー機能に基づいてマルチビュー機能を生成し、視点ミスマッチの影響を低減することができる。
論文 参考訳(メタデータ) (2022-04-28T07:46:03Z) - Weakly Aligned Feature Fusion for Multimodal Object Detection [52.15436349488198]
マルチモーダルデータはしばしば位置ずれの問題に悩まされます。つまり、イメージペアは厳密に一致していません。
この問題により、マルチモーダルな特徴を融合させることが難しくなり、畳み込みニューラルネットワーク(CNN)のトレーニングが難解になる。
本稿では、位置ずれ問題に対処するために、アライメント領域CNN(AR-CNN)と呼ばれる汎用マルチモーダル検出器を提案する。
論文 参考訳(メタデータ) (2022-04-21T02:35:23Z) - Multi-Scale Cascading Network with Compact Feature Learning for
RGB-Infrared Person Re-Identification [35.55895776505113]
マルチスケールパートアウェアカスケードフレームワーク(MSPAC)は、マルチスケールの細かい機能を部分からグローバルに集約することによって策定されます。
したがって、クロスモダリティ相関は、特徴的モダリティ不変な特徴学習のための顕著な特徴を効率的に探索することができる。
論文 参考訳(メタデータ) (2020-12-12T15:39:11Z) - DCDLearn: Multi-order Deep Cross-distance Learning for Vehicle
Re-Identification [22.547915009758256]
本稿では,車両再識別のための多階深層距離学習モデルを定式化する。
1ビューのCycleGANモデルは、網羅的で列挙的なクロスカメラマッチング問題を緩和するために開発された。
3台の車載Re-IDデータセットによる実験により,提案手法が最先端技術よりも大幅に改善できることが示されている。
論文 参考訳(メタデータ) (2020-03-25T10:46:54Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。