論文の概要: Discovering Discriminative Geometric Features with Self-Supervised
Attention for Vehicle Re-Identification and Beyond
- arxiv url: http://arxiv.org/abs/2010.09221v2
- Date: Tue, 19 Jan 2021 06:26:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 21:58:01.875173
- Title: Discovering Discriminative Geometric Features with Self-Supervised
Attention for Vehicle Re-Identification and Beyond
- Title(参考訳): 車両再同定およびそれ以上の自己監督による識別的幾何学的特徴の発見
- Authors: Ming Li, Xinming Huang, Ziming Zhang
- Abstract要約: まず,自己監督型注意力に基づく車両用ReIDの識別的幾何学的特徴を学習する。
3つのブランチからなるエンドツーエンドのトレーニング可能なディープネットワークアーキテクチャを実装している。
車両用ReID, ie VeRi-776, CityFlow-ReID, VehicleIDの3つのベンチマークデータセットに関する総合的な実験を行い, 最先端の性能を実証した。
- 参考スコア(独自算出の注目度): 23.233398760777494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the literature of vehicle re-identification (ReID), intensive manual
labels such as landmarks, critical parts or semantic segmentation masks are
often required to improve the performance. Such extra information helps to
detect locally geometric features as a part of representation learning for
vehicles. In contrast, in this paper, we aim to address the challenge of {\em
automatically} learning to detect geometric features as landmarks {\em with no
extra labels}. To the best of our knowledge, we are the {\em first} to
successfully learn discriminative geometric features for vehicle ReID based on
self-supervised attention. Specifically, we implement an end-to-end trainable
deep network architecture consisting of three branches: (1) a global branch as
backbone for image feature extraction, (2) an attentional branch for producing
attention masks, and (3) a self-supervised branch for regularizing the
attention learning with rotated images to locate geometric features. %Our
network design naturally leads to an end-to-end multi-task joint optimization.
We conduct comprehensive experiments on three benchmark datasets for vehicle
ReID, \ie VeRi-776, CityFlow-ReID, and VehicleID, and demonstrate our
state-of-the-art performance. %of our approach with the capability of capturing
informative vehicle parts with no corresponding manual labels. We also show the
good generalization of our approach in other ReID tasks such as person ReID and
multi-target multi-camera (MTMC) vehicle tracking. {\em Our demo code is
attached in the supplementary file.}
- Abstract(参考訳): 車両再識別 (reid) の文献では, 性能向上のために, ランドマーク, 臨界部分, 意味セグメンテーションマスクなどの集中的なマニュアルラベルが要求されることが多い。
このような余分な情報は、車両の表現学習の一部として局所的な幾何学的特徴を検出するのに役立つ。
対照的に,本論文では,幾何学的特徴を余分なラベルのないランドマークとして検出する学習の課題を解決することを目的としている。
我々の知る限りでは、自己監督された注意に基づいて、車両のReIDの識別的幾何学的特徴をうまく学習する。
具体的には,(1)画像特徴抽出用バックボーンとしてのグローバルブランチ,(2)注目マスク生成用アテンショナルブランチ,(3)回転画像によるアテンション学習を正規化して幾何学的特徴を特定するセルフ教師付きブランチの3つからなる,エンドツーエンドのトレーニング可能なディープネットワークアーキテクチャを実装した。
%Ourネットワーク設計は、自然にエンドツーエンドのマルチタスク共同最適化に繋がる。
ReID, \ie VeRi-776, CityFlow-ReID, VehicleIDの3つのベンチマークデータセットに関する総合的な実験を行い、現状の成果を実証する。
%であり,手動のラベルのない情報伝達部品の取得が可能であった。
また、人型ReIDやマルチターゲットマルチカメラ(MTMC)車両追跡といった他のReIDタスクにおけるアプローチの優れた一般化を示す。
デモコードは補足ファイルに添付されています。
}
関連論文リスト
- Multi-query Vehicle Re-identification: Viewpoint-conditioned Network,
Unified Dataset and New Metric [30.344288906037345]
マルチクエリー車両Re-IDと呼ばれる,より現実的でアクセスしやすいタスクを提案する。
我々は、異なる車両視点からの補完情報を適応的に組み合わせた、新しい視点条件付きネットワーク(VCNet)を設計する。
次に、実生活の交通監視システムから6142台のカメラで撮影された、統一されたベンチマークデータセットを作成します。
第3に,クロスシーン認識能力を測定する平均クロスシーン精度(mCSP)と呼ばれる新しい評価指標を設計する。
論文 参考訳(メタデータ) (2023-05-25T06:22:03Z) - ConMAE: Contour Guided MAE for Unsupervised Vehicle Re-Identification [8.950873153831735]
本研究は、ConMAE(Unsupervised Vehicle Re-Identification)のためのContour Guided Masked Autoencoderを設計する。
Masked Autoencoder (MAE) は自己教師付き学習において優れた性能を発揮していることを考慮し、ConMAE (Contour Guided Masked Autoencoder for Unsupervised Vehicle Re-Identification) を設計した。
論文 参考訳(メタデータ) (2023-02-11T12:10:25Z) - Unleash the Potential of Image Branch for Cross-modal 3D Object
Detection [67.94357336206136]
画像分岐のポテンシャルを2つの側面から解き放つことを目的として,新しい3Dオブジェクト検出器UPIDetを提案する。
まず、UPIDetは正規化された局所座標写像推定と呼ばれる新しい2次元補助タスクを導入する。
第2に,イメージブランチのトレーニング目標から逆転する勾配によって,ポイントクラウドバックボーンの表現能力を向上できることを見出した。
論文 参考訳(メタデータ) (2023-01-22T08:26:58Z) - JPerceiver: Joint Perception Network for Depth, Pose and Layout
Estimation in Driving Scenes [75.20435924081585]
JPerceiverは、モノクロビデオシーケンスからスケール認識深度とVOとBEVレイアウトを同時に推定することができる。
クロスビュー幾何変換(CGT)を利用して、絶対スケールを道路レイアウトから奥行きとVOに伝播させる。
Argoverse、Nuscenes、KITTIの実験は、上記の3つのタスクの全てにおいて、既存のメソッドよりもJPerceiverの方が優れていることを示している。
論文 参考訳(メタデータ) (2022-07-16T10:33:59Z) - Looking Twice for Partial Clues: Weakly-supervised Part-Mentored
Attention Network for Vehicle Re-Identification [18.539658212171062]
PMANet(Part-Mentored Attention Network)とPMNet(Part-Mentored Network)は、グローバルかつローカルな特徴集約を指導する。
提案手法は,VabyIDではCMC@1が平均2.63%,VeRi776では2.2%,最新の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2021-07-17T12:19:12Z) - Pluggable Weakly-Supervised Cross-View Learning for Accurate Vehicle
Re-Identification [53.6218051770131]
クロスビューの一貫した機能表現は、正確な車両ReIDの鍵です。
既存のアプローチは、広範な余分な視点アノテーションを使用して、クロスビュー学習を監督する。
Weakly-supervised Cross-View Learning (WCVL) モジュールを車載用として提案する。
論文 参考訳(メタデータ) (2021-03-09T11:51:09Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - Orientation-aware Vehicle Re-identification with Semantics-guided Part
Attention Network [33.712450134663236]
本研究では,車両の視界の異なる部分注意マスクを頑健に予測するための,セマンティックス誘導部品注意ネットワーク(SPAN)を提案する。
パーシャルアテンションマスクの助けを借りて、各部分の識別的特徴を別々に抽出できる。
次に、共起車部品に重点を置くCPDM(Co-occurrence Part-attentive Distance Metric)を紹介する。
論文 参考訳(メタデータ) (2020-08-26T07:33:09Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。