論文の概要: VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification
- arxiv url: http://arxiv.org/abs/2004.06305v2
- Date: Fri, 29 Apr 2022 16:26:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 09:51:17.440690
- Title: VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification
- Title(参考訳): VehicleNet: 車両再識別のためのロバストな視覚表現学習
- Authors: Zhedong Zheng, Tao Ruan, Yunchao Wei, Yi Yang, Tao Mei
- Abstract要約: 我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
- 参考スコア(独自算出の注目度): 116.1587709521173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One fundamental challenge of vehicle re-identification (re-id) is to learn
robust and discriminative visual representation, given the significant
intra-class vehicle variations across different camera views. As the existing
vehicle datasets are limited in terms of training images and viewpoints, we
propose to build a unique large-scale vehicle dataset (called VehicleNet) by
harnessing four public vehicle datasets, and design a simple yet effective
two-stage progressive approach to learning more robust visual representation
from VehicleNet. The first stage of our approach is to learn the generic
representation for all domains (i.e., source vehicle datasets) by training with
the conventional classification loss. This stage relaxes the full alignment
between the training and testing domains, as it is agnostic to the target
vehicle domain. The second stage is to fine-tune the trained model purely based
on the target vehicle set, by minimizing the distribution discrepancy between
our VehicleNet and any target domain. We discuss our proposed multi-source
dataset VehicleNet and evaluate the effectiveness of the two-stage progressive
representation learning through extensive experiments. We achieve the
state-of-art accuracy of 86.07% mAP on the private test set of AICity
Challenge, and competitive results on two other public vehicle re-id datasets,
i.e., VeRi-776 and VehicleID. We hope this new VehicleNet dataset and the
learned robust representations can pave the way for vehicle re-id in the
real-world environments.
- Abstract(参考訳): 車両再識別(re-id)の基本的な課題の1つは、様々なカメラビューにまたがるクラス内における大きな変動を考えると、堅牢で差別的な視覚表現を学ぶことである。
既存の車両データセットは、訓練画像や視点で制限されているため、4つの公開車両データセットを利用してユニークな大規模車両データセット(" vehiclenet" と呼ばれる)を構築し、より堅牢な視覚表現を学習するためのシンプルで効果的な2段階のプログレッシブアプローチを設計することを提案する。
アプローチの第一段階は、従来の分類損失のトレーニングにより、すべてのドメイン(すなわち、ソース車両データセット)の汎用表現を学習することである。
このステージは、目標の車両ドメインに依存しないため、トレーニングドメインとテストドメインの完全なアライメントを緩和する。
第2の段階は、VabyNetとターゲットドメイン間の分散の差を最小限に抑えて、トレーニングされたモデルをターゲットの車両セットに基づいて純粋に微調整することである。
提案するマルチソースデータセット VehicleNet について検討し,広範実験による2段階進行表現学習の有効性を評価する。
aicity challengeのプライベートテストセットで86.07%の精度を実現し、他の2つの公共車両のre-idデータセット、すなわちveri-776と vehicleidの競合結果を得る。
この新しい vehiclenet データセットと学習されたロバスト表現が,実環境における車両のリidへの道を開くことを願っています。
関連論文リスト
- VehicleGAN: Pair-flexible Pose Guided Image Synthesis for Vehicle Re-identification [27.075761782915496]
本稿では,ターゲットポーズにおける多数の車両画像の合成を提案する。
異なる交通監視カメラで同じ車両のペアのデータが現実世界では利用できない可能性があることを考慮し、VagerGANを提案する。
実データと合成データの特徴分布の違いから,効率的な特徴レベル融合によるJML(Joint Metric Learning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T19:34:04Z) - Discriminative-Region Attention and Orthogonal-View Generation Model for
Vehicle Re-Identification [7.5366501970852955]
複数の課題は、視覚に基づく車両のRe-ID手法の適用を妨げる。
提案したDRAモデルでは,識別領域の特徴を自動的に抽出し,類似した車両を識別することができる。
また、OVGモデルでは、入力ビュー機能に基づいてマルチビュー機能を生成し、視点ミスマッチの影響を低減することができる。
論文 参考訳(メタデータ) (2022-04-28T07:46:03Z) - Bounding Box-Free Instance Segmentation Using Semi-Supervised Learning
for Generating a City-Scale Vehicle Dataset [0.0]
車両分類は熱いコンピュータビジョンのトピックであり、地上画像からトップ画像まで幅広い研究が行われている。
本稿では,GISソフトウェアを用いた半教師付き反復学習手法を提案する。
その結果,Mask-RCNN(IoUでは82%,IoUでは67%)と比較してピクセル単位の計測精度が向上した。
論文 参考訳(メタデータ) (2021-11-23T19:42:12Z) - Weakly Supervised Training of Monocular 3D Object Detectors Using Wide
Baseline Multi-view Traffic Camera Data [19.63193201107591]
交差点における車両の7DoF予測は,道路利用者間の潜在的な衝突を評価する上で重要な課題である。
交通監視カメラ用3次元物体検出装置の微調整を弱教師付きで行う手法を開発した。
提案手法は,自動運転車のデータセット上で最上位のモノクル3Dオブジェクト検出器と同等の精度で車両の7DoFの予測精度を推定する。
論文 参考訳(メタデータ) (2021-10-21T08:26:48Z) - Connecting Language and Vision for Natural Language-Based Vehicle
Retrieval [77.88818029640977]
本稿では,言語記述という新たなモダリティを,興味ある車両の探索に適用する。
言語と視覚を結びつけるために,トランスフォーマーに基づく言語モデルを用いて最先端の視覚モデルを共同で訓練することを提案する。
提案手法は第5回AIシティチャレンジで1位を獲得し、18.69%のMRRの精度で競争性能を得た。
論文 参考訳(メタデータ) (2021-05-31T11:42:03Z) - Pluggable Weakly-Supervised Cross-View Learning for Accurate Vehicle
Re-Identification [53.6218051770131]
クロスビューの一貫した機能表現は、正確な車両ReIDの鍵です。
既存のアプローチは、広範な余分な視点アノテーションを使用して、クロスビュー学習を監督する。
Weakly-supervised Cross-View Learning (WCVL) モジュールを車載用として提案する。
論文 参考訳(メタデータ) (2021-03-09T11:51:09Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - The Devil is in the Details: Self-Supervised Attention for Vehicle
Re-Identification [75.3310894042132]
車両識別のための自己監督的注意(SAVER)は、車両固有の識別特徴を効果的に学習するための新しいアプローチである。
我々は,SAVERがVeRi, VehicleID, Vehicle-1M, VERI-Wildのデータセットに挑戦する際の最先端性を改善することを示す。
論文 参考訳(メタデータ) (2020-04-14T02:24:47Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。