論文の概要: Multi-query Vehicle Re-identification: Viewpoint-conditioned Network,
Unified Dataset and New Metric
- arxiv url: http://arxiv.org/abs/2305.15764v1
- Date: Thu, 25 May 2023 06:22:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 16:53:41.876528
- Title: Multi-query Vehicle Re-identification: Viewpoint-conditioned Network,
Unified Dataset and New Metric
- Title(参考訳): マルチクエリ車両再識別:視点条件付きネットワーク、統一データセット、新しいメトリック
- Authors: Aihua Zheng, Chaobin Zhang, Weijun Zhang, Chenglong Li, Jin Tang,
Chang Tan, Ruoran Jia
- Abstract要約: マルチクエリー車両Re-IDと呼ばれる,より現実的でアクセスしやすいタスクを提案する。
我々は、異なる車両視点からの補完情報を適応的に組み合わせた、新しい視点条件付きネットワーク(VCNet)を設計する。
次に、実生活の交通監視システムから6142台のカメラで撮影された、統一されたベンチマークデータセットを作成します。
第3に,クロスシーン認識能力を測定する平均クロスシーン精度(mCSP)と呼ばれる新しい評価指標を設計する。
- 参考スコア(独自算出の注目度): 30.344288906037345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing vehicle re-identification methods mainly rely on the single query,
which has limited information for vehicle representation and thus significantly
hinders the performance of vehicle Re-ID in complicated surveillance networks.
In this paper, we propose a more realistic and easily accessible task, called
multi-query vehicle Re-ID, which leverages multiple queries to overcome
viewpoint limitation of single one. Based on this task, we make three major
contributions. First, we design a novel viewpoint-conditioned network (VCNet),
which adaptively combines the complementary information from different vehicle
viewpoints, for multi-query vehicle Re-ID. Moreover, to deal with the problem
of missing vehicle viewpoints, we propose a cross-view feature recovery module
which recovers the features of the missing viewpoints by learnt the correlation
between the features of available and missing viewpoints. Second, we create a
unified benchmark dataset, taken by 6142 cameras from a real-life
transportation surveillance system, with comprehensive viewpoints and large
number of crossed scenes of each vehicle for multi-query vehicle Re-ID
evaluation. Finally, we design a new evaluation metric, called mean cross-scene
precision (mCSP), which measures the ability of cross-scene recognition by
suppressing the positive samples with similar viewpoints from same camera.
Comprehensive experiments validate the superiority of the proposed method
against other methods, as well as the effectiveness of the designed metric in
the evaluation of multi-query vehicle Re-ID.
- Abstract(参考訳): 既存の車両再識別手法は主に、車両の表現に制限のある単一のクエリに依存しており、複雑な監視ネットワークにおける車両のRe-IDの性能を著しく損なう。
本稿では,複数の問合せを活用し,単一問合せの視点制限を克服し,より現実的で容易にアクセス可能なタスクであるマルチクエリ車両re-idを提案する。
このタスクに基づいて、私たちは3つの大きな貢献をします。
まず,車両の異なる視点からの補完情報を適応的に結合した,新しい視点条件付きネットワーク(vcnet)を設計した。
さらに, 車両の視点の欠如問題に対処するために, 利用可能な視点と不足視点の特徴の相関関係を学習し, 行方不明視点の特徴を回復するクロスビュー機能回復モジュールを提案する。
第2に,実生活の交通監視システムから6142台のカメラで撮影された総合的なベンチマークデータセットを作成し,各車両の総合的な視点と多数の横断シーンを用いて,マルチクエリ車両のリid評価を行う。
最後に,同じ視点の正のサンプルを同じカメラから抑制することにより,クロスシーン認識能力を測定する,平均クロスシーン精度(mCSP)と呼ばれる新しい評価指標を設計する。
総合的な実験により,提案手法の他の手法に対する優位性を検証し,マルチクエリ車両のRe-ID評価における設計基準の有効性を検証した。
関連論文リスト
- Discriminative-Region Attention and Orthogonal-View Generation Model for
Vehicle Re-Identification [7.5366501970852955]
複数の課題は、視覚に基づく車両のRe-ID手法の適用を妨げる。
提案したDRAモデルでは,識別領域の特徴を自動的に抽出し,類似した車両を識別することができる。
また、OVGモデルでは、入力ビュー機能に基づいてマルチビュー機能を生成し、視点ミスマッチの影響を低減することができる。
論文 参考訳(メタデータ) (2022-04-28T07:46:03Z) - Pluggable Weakly-Supervised Cross-View Learning for Accurate Vehicle
Re-Identification [53.6218051770131]
クロスビューの一貫した機能表現は、正確な車両ReIDの鍵です。
既存のアプローチは、広範な余分な視点アノテーションを使用して、クロスビュー学習を監督する。
Weakly-supervised Cross-View Learning (WCVL) モジュールを車載用として提案する。
論文 参考訳(メタデータ) (2021-03-09T11:51:09Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Viewpoint-aware Progressive Clustering for Unsupervised Vehicle
Re-identification [36.60241974421236]
教師なし車両Re-IDのための視点対応クラスタリングアルゴリズムを提案する。
特に、まず、予測された視点に従って特徴空間全体を異なる部分空間に分割し、次に、サンプル間の正確な関係をマイニングするためにプログレッシブクラスタリングを行う。
論文 参考訳(メタデータ) (2020-11-18T05:40:14Z) - Towards Autonomous Driving: a Multi-Modal 360$^{\circ}$ Perception
Proposal [87.11988786121447]
本稿では,自動運転車の3次元物体検出と追跡のためのフレームワークを提案する。
このソリューションは、新しいセンサ融合構成に基づいて、正確で信頼性の高い道路環境検出を提供する。
自動運転車に搭載されたシステムの様々なテストは、提案された知覚スタックの適合性を評価することに成功している。
論文 参考訳(メタデータ) (2020-08-21T20:36:21Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z) - The Devil is in the Details: Self-Supervised Attention for Vehicle
Re-Identification [75.3310894042132]
車両識別のための自己監督的注意(SAVER)は、車両固有の識別特徴を効果的に学習するための新しいアプローチである。
我々は,SAVERがVeRi, VehicleID, Vehicle-1M, VERI-Wildのデータセットに挑戦する際の最先端性を改善することを示す。
論文 参考訳(メタデータ) (2020-04-14T02:24:47Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z) - DCDLearn: Multi-order Deep Cross-distance Learning for Vehicle
Re-Identification [22.547915009758256]
本稿では,車両再識別のための多階深層距離学習モデルを定式化する。
1ビューのCycleGANモデルは、網羅的で列挙的なクロスカメラマッチング問題を緩和するために開発された。
3台の車載Re-IDデータセットによる実験により,提案手法が最先端技術よりも大幅に改善できることが示されている。
論文 参考訳(メタデータ) (2020-03-25T10:46:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。