論文の概要: Beyond Sharing Weights in Decoupling Feature Learning Network for UAV
RGB-Infrared Vehicle Re-Identification
- arxiv url: http://arxiv.org/abs/2310.08026v1
- Date: Thu, 12 Oct 2023 04:12:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 13:04:17.015556
- Title: Beyond Sharing Weights in Decoupling Feature Learning Network for UAV
RGB-Infrared Vehicle Re-Identification
- Title(参考訳): uav rgb-infrared vehicle再同定のためのデカップリング特徴学習ネットワークにおける重みの共有
- Authors: Xingyue Liu, Jiahao Qi, Chen Chen, Kangcheng Bin and Ping Zhong
- Abstract要約: 無人航空機(UAV)をベースとしたクロスモダリティ車両のRe-IDは、ビデオ監視と公共セキュリティにおいて注目を集めている。
我々はUAVクロスモダリティ・ビークル・Re-ID(UCM-VeID)という,16015RGBと13913赤外画像の753のIDを含むクロスモダリティ車両Re-IDベンチマークを考案した。
そこで本研究では,ハイブリッドウェイトデカップリングネットワーク(HWDNet)を提案する。
- 参考スコア(独自算出の注目度): 7.907187589000295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Owing to the capacity of performing full-time target search, cross-modality
vehicle re-identification (Re-ID) based on unmanned aerial vehicle (UAV) is
gaining more attention in both video surveillance and public security. However,
this promising and innovative research has not been studied sufficiently due to
the data inadequacy issue. Meanwhile, the cross-modality discrepancy and
orientation discrepancy challenges further aggravate the difficulty of this
task. To this end, we pioneer a cross-modality vehicle Re-ID benchmark named
UAV Cross-Modality Vehicle Re-ID (UCM-VeID), containing 753 identities with
16015 RGB and 13913 infrared images. Moreover, to meet cross-modality
discrepancy and orientation discrepancy challenges, we present a hybrid weights
decoupling network (HWDNet) to learn the shared discriminative
orientation-invariant features. For the first challenge, we proposed a hybrid
weights siamese network with a well-designed weight restrainer and its
corresponding objective function to learn both modality-specific and modality
shared information. In terms of the second challenge, three effective
decoupling structures with two pretext tasks are investigated to learn
orientation-invariant feature. Comprehensive experiments are carried out to
validate the effectiveness of the proposed method. The dataset and codes will
be released at https://github.com/moonstarL/UAV-CM-VeID.
- Abstract(参考訳): フルタイムの目標探索能力のため、無人航空機(uav)に基づくクロスモダリティ車両再識別(re-id)がビデオ監視と公衆安全の両方で注目を集めている。
しかし、データ不足のため、この有望で革新的な研究は十分に研究されていない。
一方、モダリティの相違と方向性の相違は、この課題の難しさをさらに悪化させる。
この目的のために、UAVクロスモダリティ・ビークル・Re-ID(UCM-VeID)と呼ばれる、16015RGBと13913赤外線画像の753のIDを含むクロスモダリティ車両Re-IDベンチマークを考案した。
さらに,モダリティの相違性や方向性の相違性に対処するため,ハイブリッド重み分離ネットワーク(HWDNet)を提案する。
最初の課題として、よく設計された重み抑制器とそれに対応する目的関数を併用して、モダリティ固有情報とモダリティ共有情報の両方を学習するハイブリットシムネットワークを提案する。
第2の課題として, 2つのプリテキストタスクを持つ3つの効果的なデカップリング構造について検討した。
提案手法の有効性を検証するための総合実験を行った。
データセットとコードはhttps://github.com/moonstarL/UAV-CM-VeIDで公開される。
関連論文リスト
- Mutual Information Guided Optimal Transport for Unsupervised Visible-Infrared Person Re-identification [39.70083261306122]
非監視型赤外線人物再識別 (USVI-ReID) は, ラベル情報を用いることなく, 異質な歩行者画像を取得することを目的とした, 難易度の高い検索課題である。
本稿では,モデルの相互情報に基づいて,教師なしVI-ReIDの最適化目標を導出する。
彼らの指導のもと、モデルトレーニングと相互モダリティマッチングの交互にループ反復的なトレーニング戦略を設計する。
論文 参考訳(メタデータ) (2024-07-17T17:32:07Z) - Cross-Modality Perturbation Synergy Attack for Person Re-identification [66.48494594909123]
相互モダリティReIDの主な課題は、異なるモダリティ間の視覚的差異を効果的に扱うことである。
既存の攻撃方法は、目に見える画像のモダリティの特徴に主に焦点を当てている。
本研究では,クロスモーダルReIDに特化して設計されたユニバーサル摂動攻撃を提案する。
論文 参考訳(メタデータ) (2024-01-18T15:56:23Z) - V2X-AHD:Vehicle-to-Everything Cooperation Perception via Asymmetric
Heterogenous Distillation Network [13.248981195106069]
車両間協調認識システム(V2X-AHD)を提案する。
この研究によると、V2X-AHDは3次元物体検出の精度を効果的に向上し、ネットワークパラメータの数を削減できる。
論文 参考訳(メタデータ) (2023-10-10T13:12:03Z) - Modality Unifying Network for Visible-Infrared Person Re-Identification [24.186989535051623]
Visible-infrared person re-identification (VI-ReID) は、異種間の大きな相違とクラス内変異のために難しい課題である。
既存の手法は主に、異なるモダリティを同じ特徴空間に埋め込むことで、モダリティ共有表現を学習することに焦点を当てている。
そこで我々は,VI-ReID の頑健な補助モダリティを探索するために,新しいモダリティ統一ネットワーク (MUN) を提案する。
論文 参考訳(メタデータ) (2023-09-12T14:22:22Z) - Occlusion-Aware Detection and Re-ID Calibrated Network for Multi-Object
Tracking [38.36872739816151]
検出器内のOAA(Occlusion-Aware Attention)モジュールは、隠蔽された背景領域を抑えながらオブジェクトの特徴を強調する。
OAAは、隠蔽される可能性のある物体の検出器を強化する変調器として機能する。
最適輸送問題に基づくRe-ID埋め込みマッチングブロックを設計する。
論文 参考訳(メタデータ) (2023-08-30T06:56:53Z) - Multi-spectral Vehicle Re-identification with Cross-directional
Consistency Network and a High-quality Benchmark [32.17985248544149]
そこで本研究では,モダリティとサンプルの両面の相違を克服する,新たな方向性整合性ネットワークを提案する。
特に,各アイデンティティのモダリティ中心を引き出すために,新たな指向性中心損失を設計し,モダリティの相違を緩和する。
このような戦略は、車両用Re-IDの識別多スペクトル特徴表現を生成することができる。
論文 参考訳(メタデータ) (2022-08-01T06:35:32Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - Efficient Person Search: An Anchor-Free Approach [86.45858994806471]
パーソンサーチは、クエリーの人物を、リアルで切り刻まれていない画像から、同時にローカライズし、識別することを目的としている。
この目標を達成するために、最先端モデルは通常、Faster R-CNNのような2段階検出器にre-idブランチを追加する。
本研究では,この課題に対処するためのアンカーフリーな手法を提案する。
論文 参考訳(メタデータ) (2021-09-01T07:01:33Z) - Learning Selective Mutual Attention and Contrast for RGB-D Saliency
Detection [145.4919781325014]
クロスモーダル情報を効果的に融合する方法は、RGB-Dの有能な物体検出の鍵となる問題である。
多くのモデルは特徴融合戦略を用いるが、低次点対点融合法によって制限されている。
本研究では,異なるモダリティから注目とコンテキストを融合させることにより,新たな相互注意モデルを提案する。
論文 参考訳(メタデータ) (2020-10-12T08:50:10Z) - FairMOT: On the Fairness of Detection and Re-Identification in Multiple
Object Tracking [92.48078680697311]
マルチオブジェクトトラッキング(MOT)はコンピュータビジョンにおいて重要な問題である。
本稿では,FairMOTと呼ばれる,アンカーフリーなオブジェクト検出アーキテクチャCenterNetをベースとした,シンプルかつ効果的なアプローチを提案する。
このアプローチは、検出と追跡の両方において高い精度を達成する。
論文 参考訳(メタデータ) (2020-04-04T08:18:00Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。