論文の概要: Pluggable Weakly-Supervised Cross-View Learning for Accurate Vehicle
Re-Identification
- arxiv url: http://arxiv.org/abs/2103.05376v1
- Date: Tue, 9 Mar 2021 11:51:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 15:11:06.899954
- Title: Pluggable Weakly-Supervised Cross-View Learning for Accurate Vehicle
Re-Identification
- Title(参考訳): 正確な車両再同定のためのプラガブル弱めのクロスビュー学習
- Authors: Lu Yang, Hongbang Liu, Jinghao Zhou, Lingqiao Liu, Lei Zhang, Peng
Wang and Yanning Zhang
- Abstract要約: クロスビューの一貫した機能表現は、正確な車両ReIDの鍵です。
既存のアプローチは、広範な余分な視点アノテーションを使用して、クロスビュー学習を監督する。
Weakly-supervised Cross-View Learning (WCVL) モジュールを車載用として提案する。
- 参考スコア(独自算出の注目度): 53.6218051770131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning cross-view consistent feature representation is the key for accurate
vehicle Re-identification (ReID), since the visual appearance of vehicles
changes significantly under different viewpoints. To this end, most existing
approaches resort to the supervised cross-view learning using extensive extra
viewpoints annotations, which however, is difficult to deploy in real
applications due to the expensive labelling cost and the continous viewpoint
variation that makes it hard to define discrete viewpoint labels. In this
study, we present a pluggable Weakly-supervised Cross-View Learning (WCVL)
module for vehicle ReID. Through hallucinating the cross-view samples as the
hardest positive counterparts in feature domain, we can learn the consistent
feature representation via minimizing the cross-view feature distance based on
vehicle IDs only without using any viewpoint annotation. More importantly, the
proposed method can be seamlessly plugged into most existing vehicle ReID
baselines for cross-view learning without re-training the baselines. To
demonstrate its efficacy, we plug the proposed method into a bunch of
off-the-shelf baselines and obtain significant performance improvement on four
public benchmark datasets, i.e., VeRi-776, VehicleID, VRIC and VRAI.
- Abstract(参考訳): 異なる視点で車両の視覚的外観が大きく変化するため、クロスビューの一貫した機能表現を学ぶことは、正確な車両再識別(ReID)の鍵となります。
この目的のために、既存のほとんどのアプローチでは、広範囲な視点アノテーションを用いた教師付きクロスビュー学習を採用しているが、高価なラベリングコストと、個別の視点ラベルを定義するのが難しい連続的な視点変動のため、実際のアプリケーションではデプロイが困難である。
本研究では,車両 ReID 用のプラグイン可能な Weakly-supervised Cross-View Learning (WCVL) モジュールを提案する。
クロスビューサンプルを機能ドメインで最もポジティブなサンプルとして幻覚させることで、視点アノテーションを使わずに、車両のidに基づいたクロスビュー特徴距離を最小化することで、一貫性のある特徴表現を学べる。
さらに重要なことは,提案手法を既存車両のReIDベースラインにシームレスに接続することで,ベースラインを再学習することなくクロスビュー学習を実現することである。
有効性を示すため,提案手法を市販のベースラインにプラグインし,VeRi-776,VaviID,VRIC,VRAIの4つの公開ベンチマークデータセットで大幅な性能向上を実現した。
関連論文リスト
- Multi-query Vehicle Re-identification: Viewpoint-conditioned Network,
Unified Dataset and New Metric [30.344288906037345]
マルチクエリー車両Re-IDと呼ばれる,より現実的でアクセスしやすいタスクを提案する。
我々は、異なる車両視点からの補完情報を適応的に組み合わせた、新しい視点条件付きネットワーク(VCNet)を設計する。
次に、実生活の交通監視システムから6142台のカメラで撮影された、統一されたベンチマークデータセットを作成します。
第3に,クロスシーン認識能力を測定する平均クロスシーン精度(mCSP)と呼ばれる新しい評価指標を設計する。
論文 参考訳(メタデータ) (2023-05-25T06:22:03Z) - Rethinking Range View Representation for LiDAR Segmentation [66.73116059734788]
「多対一」マッピング、意味的不整合、形状変形は、射程射影からの効果的な学習に対する障害となる可能性がある。
RangeFormerは、ネットワークアーキテクチャ、データ拡張、後処理を含む新しい設計を含む、フルサイクルのフレームワークである。
比較対象のLiDARセマンティックスとパノプティックスセグメンテーションのベンチマークにおいて,初めてレンジビュー法が点,ボクセル,マルチビューフュージョンを越えられることを示す。
論文 参考訳(メタデータ) (2023-03-09T16:13:27Z) - ConMAE: Contour Guided MAE for Unsupervised Vehicle Re-Identification [8.950873153831735]
本研究は、ConMAE(Unsupervised Vehicle Re-Identification)のためのContour Guided Masked Autoencoderを設計する。
Masked Autoencoder (MAE) は自己教師付き学習において優れた性能を発揮していることを考慮し、ConMAE (Contour Guided Masked Autoencoder for Unsupervised Vehicle Re-Identification) を設計した。
論文 参考訳(メタデータ) (2023-02-11T12:10:25Z) - Scalable Vehicle Re-Identification via Self-Supervision [66.2562538902156]
自動車再同定は、都市規模の車両分析システムにおいて重要な要素の1つである。
車両再設計のための最先端のソリューションの多くは、既存のre-idベンチマークの精度向上に重点を置いており、計算の複雑さを無視することが多い。
推論時間に1つのネットワークのみを使用する自己教師型学習によって、シンプルで効果的なハイブリッドソリューションを提案する。
論文 参考訳(メタデータ) (2022-05-16T12:14:42Z) - Discriminative-Region Attention and Orthogonal-View Generation Model for
Vehicle Re-Identification [7.5366501970852955]
複数の課題は、視覚に基づく車両のRe-ID手法の適用を妨げる。
提案したDRAモデルでは,識別領域の特徴を自動的に抽出し,類似した車両を識別することができる。
また、OVGモデルでは、入力ビュー機能に基づいてマルチビュー機能を生成し、視点ミスマッチの影響を低減することができる。
論文 参考訳(メタデータ) (2022-04-28T07:46:03Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z) - The Devil is in the Details: Self-Supervised Attention for Vehicle
Re-Identification [75.3310894042132]
車両識別のための自己監督的注意(SAVER)は、車両固有の識別特徴を効果的に学習するための新しいアプローチである。
我々は,SAVERがVeRi, VehicleID, Vehicle-1M, VERI-Wildのデータセットに挑戦する際の最先端性を改善することを示す。
論文 参考訳(メタデータ) (2020-04-14T02:24:47Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。