論文の概要: ConMAE: Contour Guided MAE for Unsupervised Vehicle Re-Identification
- arxiv url: http://arxiv.org/abs/2302.05673v1
- Date: Sat, 11 Feb 2023 12:10:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 19:09:24.722468
- Title: ConMAE: Contour Guided MAE for Unsupervised Vehicle Re-Identification
- Title(参考訳): コンマ:無人車両再識別のためのコンターガイドMAE
- Authors: Jing Yang, Jianwu Fang, and Hongke Xu
- Abstract要約: 本研究は、ConMAE(Unsupervised Vehicle Re-Identification)のためのContour Guided Masked Autoencoderを設計する。
Masked Autoencoder (MAE) は自己教師付き学習において優れた性能を発揮していることを考慮し、ConMAE (Contour Guided Masked Autoencoder for Unsupervised Vehicle Re-Identification) を設計した。
- 参考スコア(独自算出の注目度): 8.950873153831735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicle re-identification is a cross-view search task by matching the same
target vehicle from different perspectives. It serves an important role in
road-vehicle collaboration and intelligent road control. With the large-scale
and dynamic road environment, the paradigm of supervised vehicle
re-identification shows limited scalability because of the heavy reliance on
large-scale annotated datasets. Therefore, the unsupervised vehicle
re-identification with stronger cross-scene generalization ability has
attracted more attention. Considering that Masked Autoencoder (MAE) has shown
excellent performance in self-supervised learning, this work designs a Contour
Guided Masked Autoencoder for Unsupervised Vehicle Re-Identification (ConMAE),
which is inspired by extracting the informative contour clue to highlight the
key regions for cross-view correlation. ConMAE is implemented by preserving the
image blocks with contour pixels and randomly masking the blocks with smooth
textures. In addition, to improve the quality of pseudo labels of vehicles for
unsupervised re-identification, we design a label softening strategy and
adaptively update the label with the increase of training steps. We carry out
experiments on VeRi-776 and VehicleID datasets, and a significant performance
improvement is obtained by the comparison with the state-of-the-art
unsupervised vehicle re-identification methods. The code is available on the
website of https://github.com/2020132075/ConMAE.
- Abstract(参考訳): 車両再識別は、異なる視点から同一の車両をマッチングすることで、クロスビュー検索タスクである。
道路と車両の協調とインテリジェントな道路制御において重要な役割を担っている。
大規模かつ動的な道路環境において、車両再識別のパラダイムは、大規模な注釈付きデータセットに大きく依存するため、限られたスケーラビリティを示す。
そのため、より強固なクロスシーン一般化能力を持つ教師なし車両の再識別が注目されている。
自己教師付き学習において,Masked Autoencoder (MAE) が優れた性能を示したことを考えると,この研究は,情報的輪郭手がかりを抽出し,クロスビュー相関のために重要な領域をハイライトするContour Guided Masked Autoencoder (ConMAE) を設計した。
ConMAEは、画像ブロックを輪郭画素で保存し、スムーズなテクスチャでランダムにマスキングすることで実装される。
また,教師なし再識別のための擬似ラベルの品質を向上させるため,ラベル軟化戦略を設計,訓練ステップの増加とともにラベルを適応的に更新する。
我々は,VeRi-776とVaviIDデータセットの実験を行い,最先端の無人車両再識別手法との比較により,大幅な性能向上が得られた。
コードはhttps://github.com/2020132075/conmae.comのウェブサイトで入手できる。
関連論文リスト
- Discriminative-Region Attention and Orthogonal-View Generation Model for
Vehicle Re-Identification [7.5366501970852955]
複数の課題は、視覚に基づく車両のRe-ID手法の適用を妨げる。
提案したDRAモデルでは,識別領域の特徴を自動的に抽出し,類似した車両を識別することができる。
また、OVGモデルでは、入力ビュー機能に基づいてマルチビュー機能を生成し、視点ミスマッチの影響を低減することができる。
論文 参考訳(メタデータ) (2022-04-28T07:46:03Z) - Pluggable Weakly-Supervised Cross-View Learning for Accurate Vehicle
Re-Identification [53.6218051770131]
クロスビューの一貫した機能表現は、正確な車両ReIDの鍵です。
既存のアプローチは、広範な余分な視点アノテーションを使用して、クロスビュー学習を監督する。
Weakly-supervised Cross-View Learning (WCVL) モジュールを車載用として提案する。
論文 参考訳(メタデータ) (2021-03-09T11:51:09Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - Viewpoint-aware Progressive Clustering for Unsupervised Vehicle
Re-identification [36.60241974421236]
教師なし車両Re-IDのための視点対応クラスタリングアルゴリズムを提案する。
特に、まず、予測された視点に従って特徴空間全体を異なる部分空間に分割し、次に、サンプル間の正確な関係をマイニングするためにプログレッシブクラスタリングを行う。
論文 参考訳(メタデータ) (2020-11-18T05:40:14Z) - Discovering Discriminative Geometric Features with Self-Supervised
Attention for Vehicle Re-Identification and Beyond [23.233398760777494]
まず,自己監督型注意力に基づく車両用ReIDの識別的幾何学的特徴を学習する。
3つのブランチからなるエンドツーエンドのトレーニング可能なディープネットワークアーキテクチャを実装している。
車両用ReID, ie VeRi-776, CityFlow-ReID, VehicleIDの3つのベンチマークデータセットに関する総合的な実験を行い, 最先端の性能を実証した。
論文 参考訳(メタデータ) (2020-10-19T04:43:56Z) - Orientation-aware Vehicle Re-identification with Semantics-guided Part
Attention Network [33.712450134663236]
本研究では,車両の視界の異なる部分注意マスクを頑健に予測するための,セマンティックス誘導部品注意ネットワーク(SPAN)を提案する。
パーシャルアテンションマスクの助けを借りて、各部分の識別的特徴を別々に抽出できる。
次に、共起車部品に重点を置くCPDM(Co-occurrence Part-attentive Distance Metric)を紹介する。
論文 参考訳(メタデータ) (2020-08-26T07:33:09Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z) - The Devil is in the Details: Self-Supervised Attention for Vehicle
Re-Identification [75.3310894042132]
車両識別のための自己監督的注意(SAVER)は、車両固有の識別特徴を効果的に学習するための新しいアプローチである。
我々は,SAVERがVeRi, VehicleID, Vehicle-1M, VERI-Wildのデータセットに挑戦する際の最先端性を改善することを示す。
論文 参考訳(メタデータ) (2020-04-14T02:24:47Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。