論文の概要: Discriminative-Region Attention and Orthogonal-View Generation Model for
Vehicle Re-Identification
- arxiv url: http://arxiv.org/abs/2204.13323v1
- Date: Thu, 28 Apr 2022 07:46:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-30 02:09:17.949109
- Title: Discriminative-Region Attention and Orthogonal-View Generation Model for
Vehicle Re-Identification
- Title(参考訳): 車両再識別のための識別領域注意と直交視点生成モデル
- Authors: Huadong Li, Yuefeng Wang, Ying Wei, Lin Wang, Li Ge
- Abstract要約: 複数の課題は、視覚に基づく車両のRe-ID手法の適用を妨げる。
提案したDRAモデルでは,識別領域の特徴を自動的に抽出し,類似した車両を識別することができる。
また、OVGモデルでは、入力ビュー機能に基づいてマルチビュー機能を生成し、視点ミスマッチの影響を低減することができる。
- 参考スコア(独自算出の注目度): 7.5366501970852955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vehicle re-identification (Re-ID) is urgently demanded to alleviate
thepressure caused by the increasingly onerous task of urban traffic
management. Multiple challenges hamper the applications of vision-based vehicle
Re-ID methods: (1) The appearances of different vehicles of the same
brand/model are often similar; However, (2) the appearances of the same vehicle
differ significantly from different viewpoints. Previous methods mainly use
manually annotated multi-attribute datasets to assist the network in getting
detailed cues and in inferencing multi-view to improve the vehicle Re-ID
performance. However, finely labeled vehicle datasets are usually unattainable
in real application scenarios. Hence, we propose a Discriminative-Region
Attention and Orthogonal-View Generation (DRA-OVG) model, which only requires
identity (ID) labels to conquer the multiple challenges of vehicle Re-ID.The
proposed DRA model can automatically extract the discriminative region
features, which can distinguish similar vehicles. And the OVG model can
generate multi-view features based on the input view features to reduce the
impact of viewpoint mismatches. Finally, the distance between vehicle
appearances is presented by the discriminative region features and multi-view
features together. Therefore, the significance of pairwise distance measure
between vehicles is enhanced in acomplete feature space. Extensive experiments
substantiate the effectiveness of each proposed ingredient, and experimental
results indicate that our approach achieves remarkable improvements over the
state- of-the-art vehicle Re-ID methods on VehicleID and VeRi-776 datasets.
- Abstract(参考訳): 自動車再識別(Re-ID)は、都市交通管理の煩雑化による圧迫を軽減するために緊急に要求される。
複数の課題がビジョンベース車両のRe-ID手法の適用を妨げる:(1)同一ブランド/モデルが異なる車両の外観はよく似ているが、(2)同一車両の外観は異なる視点から大きく異なる。
これまでは主に、手動で注釈付きマルチ属性データセットを使用して、詳細なキューを取得し、マルチビューを参照して車両のRe-IDパフォーマンスを改善する。
しかしながら、詳細なラベル付き車両データセットは通常、実際のアプリケーションシナリオでは達成できない。
そこで,本論文では,車両の複数課題を克服するためにIDラベルのみを必要とするDRA-OVGモデルを提案する。
また、OVGモデルは、入力ビュー機能に基づいてマルチビュー機能を生成し、視点ミスマッチの影響を低減することができる。
最後に、車両の外観間の距離を識別領域特徴と多視点特徴とで提示する。
したがって、不完全特徴空間において、車両間の対距離測定の重要性が向上する。
提案する各成分の有効性を広範な実験により検証し, 実験結果から, vehicleid および veri-776 データセットの車体re-id法に比較して, 著しい改善が得られた。
関連論文リスト
- VehicleGAN: Pair-flexible Pose Guided Image Synthesis for Vehicle Re-identification [27.075761782915496]
本稿では,ターゲットポーズにおける多数の車両画像の合成を提案する。
異なる交通監視カメラで同じ車両のペアのデータが現実世界では利用できない可能性があることを考慮し、VagerGANを提案する。
実データと合成データの特徴分布の違いから,効率的な特徴レベル融合によるJML(Joint Metric Learning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T19:34:04Z) - Multi-query Vehicle Re-identification: Viewpoint-conditioned Network,
Unified Dataset and New Metric [30.344288906037345]
マルチクエリー車両Re-IDと呼ばれる,より現実的でアクセスしやすいタスクを提案する。
我々は、異なる車両視点からの補完情報を適応的に組み合わせた、新しい視点条件付きネットワーク(VCNet)を設計する。
次に、実生活の交通監視システムから6142台のカメラで撮影された、統一されたベンチマークデータセットを作成します。
第3に,クロスシーン認識能力を測定する平均クロスシーン精度(mCSP)と呼ばれる新しい評価指標を設計する。
論文 参考訳(メタデータ) (2023-05-25T06:22:03Z) - Pluggable Weakly-Supervised Cross-View Learning for Accurate Vehicle
Re-Identification [53.6218051770131]
クロスビューの一貫した機能表現は、正確な車両ReIDの鍵です。
既存のアプローチは、広範な余分な視点アノテーションを使用して、クロスビュー学習を監督する。
Weakly-supervised Cross-View Learning (WCVL) モジュールを車載用として提案する。
論文 参考訳(メタデータ) (2021-03-09T11:51:09Z) - AttributeNet: Attribute Enhanced Vehicle Re-Identification [70.89289512099242]
本稿では,属性特徴と属性特徴を共同で抽出するAttributeNet(ANet)を提案する。
ReID-helpful属性特徴を蒸留し、一般的なReID特徴に加えることで、識別能力を高めることができる。
3つの挑戦的なデータセットに対して,我々のフレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2021-02-07T19:51:02Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Viewpoint-aware Progressive Clustering for Unsupervised Vehicle
Re-identification [36.60241974421236]
教師なし車両Re-IDのための視点対応クラスタリングアルゴリズムを提案する。
特に、まず、予測された視点に従って特徴空間全体を異なる部分空間に分割し、次に、サンプル間の正確な関係をマイニングするためにプログレッシブクラスタリングを行う。
論文 参考訳(メタデータ) (2020-11-18T05:40:14Z) - Discriminative Feature Representation with Spatio-temporal Cues for
Vehicle Re-identification [0.0]
車両識別(re-ID)は、様々なカメラが様々な道路網で撮影したギャラリー画像から対象車両を発見し、マッチングすることを目的としている。
車両用リIDのための新しい手がかり(DFR-ST)を用いた特徴表現を提案する。
外観や時間的情報を含むことで、埋め込み空間で堅牢な特徴を構築することができる。
論文 参考訳(メタデータ) (2020-11-13T10:50:21Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z) - The Devil is in the Details: Self-Supervised Attention for Vehicle
Re-Identification [75.3310894042132]
車両識別のための自己監督的注意(SAVER)は、車両固有の識別特徴を効果的に学習するための新しいアプローチである。
我々は,SAVERがVeRi, VehicleID, Vehicle-1M, VERI-Wildのデータセットに挑戦する際の最先端性を改善することを示す。
論文 参考訳(メタデータ) (2020-04-14T02:24:47Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。