論文の概要: Self-aligned Spatial Feature Extraction Network for UAV Vehicle
Re-identification
- arxiv url: http://arxiv.org/abs/2201.02836v1
- Date: Sat, 8 Jan 2022 14:25:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 06:38:51.257042
- Title: Self-aligned Spatial Feature Extraction Network for UAV Vehicle
Re-identification
- Title(参考訳): uav車両再識別のための自己整合型空間特徴抽出ネットワーク
- Authors: Aihuan Yao, Jiahao Qi, Ping Zhong
- Abstract要約: 同じ色とタイプを持つ車両は、UAVの観点から非常に類似した外観を示している。
最近の研究は、地域的特徴と構成要素的特徴によって区別される情報を抽出する傾向がある。
効率的なきめ細かい特徴を抽出し、退屈な注釈付け作業を避けるために、この手紙は教師なしの自己整合ネットワークを開発する。
- 参考スコア(独自算出の注目度): 3.449626476434765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compared with existing vehicle re-identification (ReID) tasks conducted with
datasets collected by fixed surveillance cameras, vehicle ReID for unmanned
aerial vehicle (UAV) is still under-explored and could be more challenging.
Vehicles with the same color and type show extremely similar appearance from
the UAV's perspective so that mining fine-grained characteristics becomes
necessary. Recent works tend to extract distinguishing information by regional
features and component features. The former requires input images to be aligned
and the latter entails detailed annotations, both of which are difficult to
meet in UAV application. In order to extract efficient fine-grained features
and avoid tedious annotating work, this letter develops an unsupervised
self-aligned network consisting of three branches. The network introduced a
self-alignment module to convert the input images with variable orientations to
a uniform orientation, which is implemented under the constraint of triple loss
function designed with spatial features. On this basis, spatial features,
obtained by vertical and horizontal segmentation methods, and global features
are integrated to improve the representation ability in embedded space.
Extensive experiments are conducted on UAV-VeID dataset, and our method
achieves the best performance compared with recent ReID works.
- Abstract(参考訳): 固定監視カメラによって収集されたデータセットによる既存の車両再識別(ReID)タスクと比較して、無人航空機(UAV)用の車両ReIDはまだ未調査であり、より難しい可能性がある。
同じ色とタイプを持つ車両は、UAVの視点と非常によく似た外観を示し、精細な特性の採掘が必要である。
最近の研究は、地域的特徴と構成要素的特徴による識別情報を抽出する傾向がある。
前者は入力画像のアライメントを必要とし、後者は詳細なアノテーションを伴っており、どちらもuavアプリケーションでは実現が難しい。
効率的なきめ細かな特徴を抽出し,退屈な注釈付け作業を避けるため,この手紙は3つの枝からなる教師なしの自己整合ネットワークを開発する。
ネットワークは,空間的特徴を考慮した三重損失関数の制約下で実装された,可変方向の入力画像を一様方向に変換する自己調整モジュールを導入した。
そこで, 縦・横分割法により得られた空間的特徴と大域的特徴を統合し, 組込み空間における表現能力を向上する。
uav-veidデータセットで広範な実験を行い,最近のreid処理と比較して,最高の性能を実現する。
関連論文リスト
- V2X-AHD:Vehicle-to-Everything Cooperation Perception via Asymmetric
Heterogenous Distillation Network [13.248981195106069]
車両間協調認識システム(V2X-AHD)を提案する。
この研究によると、V2X-AHDは3次元物体検出の精度を効果的に向上し、ネットワークパラメータの数を削減できる。
論文 参考訳(メタデータ) (2023-10-10T13:12:03Z) - A Novel Dual-pooling Attention Module for UAV Vehicle Re-identification [7.9782462757515455]
車両再識別(Re-ID)は、車両の画像から他のカメラが捉えたのと同じ車両を識別する。
UAVの高度が高いため、車両画像の撮影角度は時々垂直に近似し、Re-IDの局所的な特徴は少ない。
本稿では,車両の局所的な重要な情報の抽出と強化を実現する,新しいデュアルプールアテンション(DpA)モジュールを提案する。
論文 参考訳(メタデータ) (2023-06-25T02:46:12Z) - CROVIA: Seeing Drone Scenes from Car Perspective via Cross-View
Adaptation [20.476683921252867]
道路車両の視界から得られた知識をUAVの視界に適応させる新しいCROVIA(Cross-View Adaptation)アプローチを提案する。
まず、ビュー間の幾何学的相関に基づいて、クロスビュー適応に対する新しい幾何学的制約を導入する。
第2に、画像空間からのクロスビュー相関を、ペアオンロードとUAVのビューデータを必要としないセグメンテーション空間に効果的に転送する。
論文 参考訳(メタデータ) (2023-04-14T15:20:40Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Unifying Voxel-based Representation with Transformer for 3D Object
Detection [143.91910747605107]
マルチモード3Dオブジェクト検出のための統一フレームワークUVTRを提案する。
提案手法は, ボクセル空間におけるマルチモーダリティ表現を統一し, 高精度かつ堅牢な単一モード・クロスモーダリティ3D検出を実現することを目的とする。
UVTRは、69.7%、55.1%、71.1%のNDSで、それぞれLiDAR、カメラ、マルチモダリティの入力を行う。
論文 参考訳(メタデータ) (2022-06-01T17:02:40Z) - Discriminative-Region Attention and Orthogonal-View Generation Model for
Vehicle Re-Identification [7.5366501970852955]
複数の課題は、視覚に基づく車両のRe-ID手法の適用を妨げる。
提案したDRAモデルでは,識別領域の特徴を自動的に抽出し,類似した車両を識別することができる。
また、OVGモデルでは、入力ビュー機能に基づいてマルチビュー機能を生成し、視点ミスマッチの影響を低減することができる。
論文 参考訳(メタデータ) (2022-04-28T07:46:03Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - MFGNet: Dynamic Modality-Aware Filter Generation for RGB-T Tracking [72.65494220685525]
可視データと熱データ間のメッセージ通信を促進するために,新しい動的モダリティ対応フィルタ生成モジュール(MFGNet)を提案する。
我々は、2つの独立ネットワークを持つ動的モダリティ対応フィルタを生成し、その可視フィルタとサーマルフィルタをそれぞれ、対応する入力特徴写像上で動的畳み込み演算を行う。
重閉塞,高速移動,外見による問題に対処するため,新たな方向認識型目標誘導型アテンション機構を活用することで,共同で局所的・グローバル検索を行うことを提案する。
論文 参考訳(メタデータ) (2021-07-22T03:10:51Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。