論文の概要: Orientation-aware Vehicle Re-identification with Semantics-guided Part
Attention Network
- arxiv url: http://arxiv.org/abs/2008.11423v2
- Date: Mon, 12 Oct 2020 11:51:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 21:36:33.559951
- Title: Orientation-aware Vehicle Re-identification with Semantics-guided Part
Attention Network
- Title(参考訳): セマンティック誘導部品注意ネットワークを用いたオリエンテーション対応車両再識別
- Authors: Tsai-Shien Chen, Chih-Ting Liu, Chih-Wei Wu, Shao-Yi Chien
- Abstract要約: 本研究では,車両の視界の異なる部分注意マスクを頑健に予測するための,セマンティックス誘導部品注意ネットワーク(SPAN)を提案する。
パーシャルアテンションマスクの助けを借りて、各部分の識別的特徴を別々に抽出できる。
次に、共起車部品に重点を置くCPDM(Co-occurrence Part-attentive Distance Metric)を紹介する。
- 参考スコア(独自算出の注目度): 33.712450134663236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicle re-identification (re-ID) focuses on matching images of the same
vehicle across different cameras. It is fundamentally challenging because
differences between vehicles are sometimes subtle. While several studies
incorporate spatial-attention mechanisms to help vehicle re-ID, they often
require expensive keypoint labels or suffer from noisy attention mask if not
trained with expensive labels. In this work, we propose a dedicated
Semantics-guided Part Attention Network (SPAN) to robustly predict part
attention masks for different views of vehicles given only image-level semantic
labels during training. With the help of part attention masks, we can extract
discriminative features in each part separately. Then we introduce
Co-occurrence Part-attentive Distance Metric (CPDM) which places greater
emphasis on co-occurrence vehicle parts when evaluating the feature distance of
two images. Extensive experiments validate the effectiveness of the proposed
method and show that our framework outperforms the state-of-the-art approaches.
- Abstract(参考訳): 車両の再識別(re-ID)は、異なるカメラにまたがる同じ車両の画像のマッチングに焦点を当てている。
車両の違いが微妙であることから、基本的には困難である。
いくつかの研究では、車両の再識別を支援するために空間的アテンション機構が組み込まれているが、高価なキーポイントラベルを必要とする場合や、高価なラベルで訓練されていない場合、騒がしいアテンションマスクを被る場合が多い。
本研究では,訓練中に画像レベルの意味ラベルのみを付与した車両の異なる視点に対して,パートアテンションマスクをロバストに予測する専用セマンティクス誘導部分アテンションネットワーク(span)を提案する。
注意マスクの助けを借りて,各部分の識別特徴を別々に抽出することができる。
次に,2つの画像の特徴距離を評価する際,共起車両部品に重点を置く共起部分接触距離メトリック(cpdm)を導入する。
提案手法の有効性を検証し,本手法が最先端手法よりも優れていることを示す。
関連論文リスト
- ConMAE: Contour Guided MAE for Unsupervised Vehicle Re-Identification [8.950873153831735]
本研究は、ConMAE(Unsupervised Vehicle Re-Identification)のためのContour Guided Masked Autoencoderを設計する。
Masked Autoencoder (MAE) は自己教師付き学習において優れた性能を発揮していることを考慮し、ConMAE (Contour Guided Masked Autoencoder for Unsupervised Vehicle Re-Identification) を設計した。
論文 参考訳(メタデータ) (2023-02-11T12:10:25Z) - Discriminative-Region Attention and Orthogonal-View Generation Model for
Vehicle Re-Identification [7.5366501970852955]
複数の課題は、視覚に基づく車両のRe-ID手法の適用を妨げる。
提案したDRAモデルでは,識別領域の特徴を自動的に抽出し,類似した車両を識別することができる。
また、OVGモデルでは、入力ビュー機能に基づいてマルチビュー機能を生成し、視点ミスマッチの影響を低減することができる。
論文 参考訳(メタデータ) (2022-04-28T07:46:03Z) - Multi-Attention-Based Soft Partition Network for Vehicle
Re-Identification [12.319699929810355]
車両の再識別は、同一車両と他の車両の画像の区別に役立つ。
本稿では,様々な識別領域を捕捉するマルチソフトアテンション機構に基づく車両再識別ネットワークを提案する。
提案手法は,メタデータのない注目手法の中で,最先端の性能を実現した。
論文 参考訳(メタデータ) (2021-04-21T08:13:17Z) - Pluggable Weakly-Supervised Cross-View Learning for Accurate Vehicle
Re-Identification [53.6218051770131]
クロスビューの一貫した機能表現は、正確な車両ReIDの鍵です。
既存のアプローチは、広範な余分な視点アノテーションを使用して、クロスビュー学習を監督する。
Weakly-supervised Cross-View Learning (WCVL) モジュールを車載用として提案する。
論文 参考訳(メタデータ) (2021-03-09T11:51:09Z) - Discovering Discriminative Geometric Features with Self-Supervised
Attention for Vehicle Re-Identification and Beyond [23.233398760777494]
まず,自己監督型注意力に基づく車両用ReIDの識別的幾何学的特徴を学習する。
3つのブランチからなるエンドツーエンドのトレーニング可能なディープネットワークアーキテクチャを実装している。
車両用ReID, ie VeRi-776, CityFlow-ReID, VehicleIDの3つのベンチマークデータセットに関する総合的な実験を行い, 最先端の性能を実証した。
論文 参考訳(メタデータ) (2020-10-19T04:43:56Z) - Rethinking of the Image Salient Object Detection: Object-level Semantic
Saliency Re-ranking First, Pixel-wise Saliency Refinement Latter [62.26677215668959]
本稿では,意味的に有意な領域を粗い位置で特定する,軽量で教師付きの深層ネットワークを提案する。
次に,これらセマンティック・サリエント領域の深層モデルを画素ワイド・サリエンシ改善として融合する。
提案手法は単純だが有効であり,本手法は主眼をオブジェクトレベルのセマンティック・リグレード問題とみなすための最初の試みである。
論文 参考訳(メタデータ) (2020-08-10T07:12:43Z) - MVLidarNet: Real-Time Multi-Class Scene Understanding for Autonomous
Driving Using Multiple Views [60.538802124885414]
マルチビューLidarNet(MVLidarNet)は,多層物体検出とドライビング空間分割のための2段階のディープニューラルネットワークである。
MVLidarNetは、単一のLiDARスキャンを入力として、乾燥可能な空間を同時に決定しながら、オブジェクトを検出し、分類することができる。
我々は、KITTIとはるかに大きな内部データセットの両方で結果を示し、その方法が桁違いにスケールできることを実証する。
論文 参考訳(メタデータ) (2020-06-09T21:28:17Z) - The Devil is in the Details: Self-Supervised Attention for Vehicle
Re-Identification [75.3310894042132]
車両識別のための自己監督的注意(SAVER)は、車両固有の識別特徴を効果的に学習するための新しいアプローチである。
我々は,SAVERがVeRi, VehicleID, Vehicle-1M, VERI-Wildのデータセットに挑戦する際の最先端性を改善することを示す。
論文 参考訳(メタデータ) (2020-04-14T02:24:47Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。