論文の概要: Parsing-based View-aware Embedding Network for Vehicle Re-Identification
- arxiv url: http://arxiv.org/abs/2004.05021v1
- Date: Fri, 10 Apr 2020 13:06:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 21:10:58.553271
- Title: Parsing-based View-aware Embedding Network for Vehicle Re-Identification
- Title(参考訳): 車両再識別のための解析に基づくビューアウェア埋め込みネットワーク
- Authors: Dechao Meng and Liang Li and Xuejing Liu and Yadong Li and Shijie Yang
and Zhengjun Zha and Xingyu Gao and Shuhui Wang and Qingming Huang
- Abstract要約: 本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
- 参考スコア(独自算出の注目度): 138.11983486734576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicle Re-Identification is to find images of the same vehicle from various
views in the cross-camera scenario. The main challenges of this task are the
large intra-instance distance caused by different views and the subtle
inter-instance discrepancy caused by similar vehicles. In this paper, we
propose a parsing-based view-aware embedding network (PVEN) to achieve the
view-aware feature alignment and enhancement for vehicle ReID. First, we
introduce a parsing network to parse a vehicle into four different views, and
then align the features by mask average pooling. Such alignment provides a
fine-grained representation of the vehicle. Second, in order to enhance the
view-aware features, we design a common-visible attention to focus on the
common visible views, which not only shortens the distance among
intra-instances, but also enlarges the discrepancy of inter-instances. The PVEN
helps capture the stable discriminative information of vehicle under different
views. The experiments conducted on three datasets show that our model
outperforms state-of-the-art methods by a large margin.
- Abstract(参考訳): 車両の再識別は、クロスカメラシナリオの様々な視点から同じ車両の画像を見つけることである。
この作業の主な課題は、異なる視点によって引き起こされる大きな内乱距離と、類似した車両によって引き起こされる微妙な間乱である。
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,パーシング型ビューアウェア埋め込みネットワーク(PVEN)を提案する。
まず、車両を4つの異なるビューに解析し、マスク平均プールによって特徴を整列させる解析ネットワークを導入する。
このようなアライメントは、車両のきめ細かい表現を提供する。
第2に,視認性を高めるために,目に見える視認性に注目する共通視点をデザインし,観察者間距離を短縮するだけでなく,観察者間距離の差を増大させる。
PVENは、異なる視点で車両の安定した識別情報を取得するのに役立つ。
3つのデータセットで行った実験は、我々のモデルが最先端のメソッドを大きなマージンで上回っていることを示している。
関連論文リスト
- Cohere3D: Exploiting Temporal Coherence for Unsupervised Representation
Learning of Vision-based Autonomous Driving [73.3702076688159]
本稿では,コヒーレントなインスタンス表現を長期入力シーケンスで学習するための,新しいコントラスト学習アルゴリズムであるCohere3Dを提案する。
我々は,様々な下流認識,予測,計画タスクにおいて,事前学習したモデルを微調整することにより,アルゴリズムを評価する。
論文 参考訳(メタデータ) (2024-02-23T19:43:01Z) - Multi-query Vehicle Re-identification: Viewpoint-conditioned Network,
Unified Dataset and New Metric [30.344288906037345]
マルチクエリー車両Re-IDと呼ばれる,より現実的でアクセスしやすいタスクを提案する。
我々は、異なる車両視点からの補完情報を適応的に組み合わせた、新しい視点条件付きネットワーク(VCNet)を設計する。
次に、実生活の交通監視システムから6142台のカメラで撮影された、統一されたベンチマークデータセットを作成します。
第3に,クロスシーン認識能力を測定する平均クロスシーン精度(mCSP)と呼ばれる新しい評価指標を設計する。
論文 参考訳(メタデータ) (2023-05-25T06:22:03Z) - Discriminative-Region Attention and Orthogonal-View Generation Model for
Vehicle Re-Identification [7.5366501970852955]
複数の課題は、視覚に基づく車両のRe-ID手法の適用を妨げる。
提案したDRAモデルでは,識別領域の特徴を自動的に抽出し,類似した車両を識別することができる。
また、OVGモデルでは、入力ビュー機能に基づいてマルチビュー機能を生成し、視点ミスマッチの影響を低減することができる。
論文 参考訳(メタデータ) (2022-04-28T07:46:03Z) - Pluggable Weakly-Supervised Cross-View Learning for Accurate Vehicle
Re-Identification [53.6218051770131]
クロスビューの一貫した機能表現は、正確な車両ReIDの鍵です。
既存のアプローチは、広範な余分な視点アノテーションを使用して、クロスビュー学習を監督する。
Weakly-supervised Cross-View Learning (WCVL) モジュールを車載用として提案する。
論文 参考訳(メタデータ) (2021-03-09T11:51:09Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Viewpoint-Aware Channel-Wise Attentive Network for Vehicle
Re-Identification [30.797140440568455]
車両の再識別(re-ID)は、異なるカメラで同じ車両の画像と一致する。
なぜなら、異なる視点によって劇的に異なる外観が、フレームワークを同一の同一性の2つの車両にマッチさせるのに失敗するからである。
本稿では,異なる視点から注目機構を観察し,視点認識型チャネルワイドアテンション機構(VCAM)を提案する。
論文 参考訳(メタデータ) (2020-10-12T16:05:41Z) - Orientation-aware Vehicle Re-identification with Semantics-guided Part
Attention Network [33.712450134663236]
本研究では,車両の視界の異なる部分注意マスクを頑健に予測するための,セマンティックス誘導部品注意ネットワーク(SPAN)を提案する。
パーシャルアテンションマスクの助けを借りて、各部分の識別的特徴を別々に抽出できる。
次に、共起車部品に重点を置くCPDM(Co-occurrence Part-attentive Distance Metric)を紹介する。
論文 参考訳(メタデータ) (2020-08-26T07:33:09Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z) - The Devil is in the Details: Self-Supervised Attention for Vehicle
Re-Identification [75.3310894042132]
車両識別のための自己監督的注意(SAVER)は、車両固有の識別特徴を効果的に学習するための新しいアプローチである。
我々は,SAVERがVeRi, VehicleID, Vehicle-1M, VERI-Wildのデータセットに挑戦する際の最先端性を改善することを示す。
論文 参考訳(メタデータ) (2020-04-14T02:24:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。