論文の概要: Looking Twice for Partial Clues: Weakly-supervised Part-Mentored
Attention Network for Vehicle Re-Identification
- arxiv url: http://arxiv.org/abs/2107.08228v1
- Date: Sat, 17 Jul 2021 12:19:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 15:02:00.544378
- Title: Looking Twice for Partial Clues: Weakly-supervised Part-Mentored
Attention Network for Vehicle Re-Identification
- Title(参考訳): 部分的手がかりを2回探す:車両再識別のための部分教師付き注意ネットワーク
- Authors: Lisha Tang, Yi Wang, Lap-Pui Chau
- Abstract要約: PMANet(Part-Mentored Attention Network)とPMNet(Part-Mentored Network)は、グローバルかつローカルな特徴集約を指導する。
提案手法は,VabyIDではCMC@1が平均2.63%,VeRi776では2.2%,最新の最先端手法よりも優れている。
- 参考スコア(独自算出の注目度): 18.539658212171062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicle re-identification (Re-ID) is to retrieve images of the same vehicle
across different cameras. Two key challenges lie in the subtle inter-instance
discrepancy caused by near-duplicate identities and the large intra-instance
variance caused by different views. Since the holistic appearance suffers from
viewpoint variation and distortion, part-level feature learning has been
introduced to enhance vehicle description. However, existing approaches to
localize and amplify significant parts often fail to handle spatial
misalignment as well as occlusion and require expensive annotations. In this
paper, we propose a weakly supervised Part-Mentored Attention Network (PMANet)
composed of a Part Attention Network (PANet) for vehicle part localization with
self-attention and a Part-Mentored Network (PMNet) for mentoring the global and
local feature aggregation. Firstly, PANet is introduced to predict a foreground
mask and pinpoint $K$ prominent vehicle parts only with weak identity
supervision. Secondly, we propose a PMNet to learn global and part-level
features with multi-scale attention and aggregate them in $K$ main-partial
tasks via part transfer. Like humans who first differentiate objects with
general information and then observe salient parts for more detailed clues,
PANet and PMNet construct a two-stage attention structure to perform a
coarse-to-fine search among identities. Finally, we address this Re-ID issue as
a multi-task problem, including global feature learning, identity
classification, and part transfer. We adopt Homoscedastic Uncertainty to learn
the optimal weighing of different losses. Comprehensive experiments are
conducted on two benchmark datasets. Our approach outperforms recent
state-of-the-art methods by averagely 2.63% in CMC@1 on VehicleID and 2.2% in
mAP on VeRi776. Results on occluded test sets also demonstrate the
generalization ability of PMANet.
- Abstract(参考訳): 車両の再識別(Re-ID)は、異なるカメラで同じ車両の画像を取得することである。
2つの重要な課題は、重複に近いアイデンティティによって引き起こされる微妙な間欠落と、異なる視点によって引き起こされる大きな内乱である。
全体的外観は視点のばらつきや歪みに苦しむため,部分的特徴学習の導入により車両記述の充実が図られている。
しかし、重要な部分のローカライズと増幅のための既存のアプローチは、しばしば空間的ミスアライメントや隠蔽、高価なアノテーションの処理に失敗する。
本稿では,自己注意を伴う車両部品位置決めのための部分注意ネットワーク(PANet)と,グローバルかつ局所的な特徴集約を指導する部分意識ネットワーク(PMNet)からなる,弱制御された部分意識ネットワーク(PMANet)を提案する。
まず、PANetはフォアグラウンドマスクを予測し、個人認証を弱めるだけでK$の著名な車両部品をピンポイントする。
第2に,PMNetを提案することで,グローバルおよびパートレベルの機能をマルチスケールで学習し,パート転送によるメインパーティショナリタスクとして$Kで集約する。
一般的な情報で物体を識別し、より詳細な手がかりを得るために静かな部分を観察する人間のように、PANetとPMNetは2段階の注意構造を構築し、アイデンティティ間の粗い探索を行う。
最後に,グローバル機能学習,アイデンティティ分類,パート転送といったマルチタスク問題として,この問題に対処します。
我々は、異なる損失の最適重み付けを学ぶためにホモシデスティックな不確実性を採用する。
2つのベンチマークデータセットで総合的な実験を行う。
提案手法は,cmc@1では平均2.63%,veri776では2.2%と,最新の最先端手法を上回っている。
occludedテストセットの結果もpmanetの一般化能力を示している。
関連論文リスト
- AdaFPP: Adapt-Focused Bi-Propagating Prototype Learning for Panoramic Activity Recognition [51.24321348668037]
パノラマ活動認識(PAR)は、パノラマシーンにおいて複数の人が行う多粒度行動を特定することを目的としている。
以前の方法は、トレーニングと推論において手動で注釈付き検出ボックスに依存しており、より実用的なデプロイメントを妨げる。
本研究では,パノラマ活動シーンにおける個人,グループ,グローバルな活動を共同で認識するための,適応型バイプロパゲーティング・プロトタイプ学習(AdaFPP)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-04T01:53:22Z) - V2X-AHD:Vehicle-to-Everything Cooperation Perception via Asymmetric
Heterogenous Distillation Network [13.248981195106069]
車両間協調認識システム(V2X-AHD)を提案する。
この研究によると、V2X-AHDは3次元物体検出の精度を効果的に向上し、ネットワークパラメータの数を削減できる。
論文 参考訳(メタデータ) (2023-10-10T13:12:03Z) - Learning Cross-modality Information Bottleneck Representation for
Heterogeneous Person Re-Identification [61.49219876388174]
Visible-Infrared person re-identification (VI-ReID)は、インテリジェントビデオ監視において重要かつ困難な課題である。
既存の手法は主に共有特徴空間の学習に重点を置いており、可視光と赤外光の相違を減らす。
本稿では,新しい相互情報・モダリティコンセンサスネットワーク,すなわちCMInfoNetを提案し,モダリティ不変な同一性の特徴を抽出する。
論文 参考訳(メタデータ) (2023-08-29T06:55:42Z) - Multi-query Vehicle Re-identification: Viewpoint-conditioned Network,
Unified Dataset and New Metric [30.344288906037345]
マルチクエリー車両Re-IDと呼ばれる,より現実的でアクセスしやすいタスクを提案する。
我々は、異なる車両視点からの補完情報を適応的に組み合わせた、新しい視点条件付きネットワーク(VCNet)を設計する。
次に、実生活の交通監視システムから6142台のカメラで撮影された、統一されたベンチマークデータセットを作成します。
第3に,クロスシーン認識能力を測定する平均クロスシーン精度(mCSP)と呼ばれる新しい評価指標を設計する。
論文 参考訳(メタデータ) (2023-05-25T06:22:03Z) - Domain Camera Adaptation and Collaborative Multiple Feature Clustering for Unsupervised Person Re-ID [5.212394574743209]
教師なしの人物再識別(re-ID)は、限られたデータが利用可能なオープンワールドシナリオ設定のために、多くの注目を集めている。
既存の教師なし手法は、しばしば目に見えない領域でうまく一般化できないが、教師なし手法は、主に複数の粒度情報がなく、確認バイアスに悩まされる傾向がある。
本稿では,1)ラベル付きソースドメイン上で教師なしドメイン適応を行い,2)ラベル付きターゲットドメイン上での潜在的類似点のマイニングを行う。
論文 参考訳(メタデータ) (2022-08-18T03:56:48Z) - Towards Generalizable Person Re-identification with a Bi-stream
Generative Model [81.0989316825134]
そこで我々は,BGM (Bi-stream Generative Model) を提案する。
提案手法は,大規模な一般化可能なre-IDベンチマークにおいて,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2022-06-19T09:18:25Z) - Quality-aware Part Models for Occluded Person Re-identification [77.24920810798505]
咬合は人体再識別(ReID)にとって大きな課題となる
既存のアプローチは一般的に、計算効率とReIDの精度の両面で最適であるように、目に見える身体の部品を推測するための外部ツールに依存している。
閉塞型ReIDのためのQPM(Quality-Aware Part Models)という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:51:09Z) - Discovering Discriminative Geometric Features with Self-Supervised
Attention for Vehicle Re-Identification and Beyond [23.233398760777494]
まず,自己監督型注意力に基づく車両用ReIDの識別的幾何学的特徴を学習する。
3つのブランチからなるエンドツーエンドのトレーニング可能なディープネットワークアーキテクチャを実装している。
車両用ReID, ie VeRi-776, CityFlow-ReID, VehicleIDの3つのベンチマークデータセットに関する総合的な実験を行い, 最先端の性能を実証した。
論文 参考訳(メタデータ) (2020-10-19T04:43:56Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z) - Generative Partial Multi-View Clustering [133.36721417531734]
本稿では,不完全なマルチビュー問題に対処するため,GP-MVCと呼ばれる生成的部分的マルチビュークラスタリングモデルを提案する。
まず、マルチビューエンコーダネットワークをトレーニングして、一般的な低次元表現を学習し、次にクラスタリング層を使用して複数のビューをまたいだ一貫したクラスタ構造をキャプチャする。
第2に、他のビューが与える共有表現に基づいて、1つのビュー条件の欠落データを生成するために、ビュー固有の生成敵ネットワークを開発する。
論文 参考訳(メタデータ) (2020-03-29T17:48:27Z) - Deep Attention Aware Feature Learning for Person Re-Identification [22.107332426681072]
本稿では,人物のReIDネットワークに注意学習を付加目的として組み込むことを提案する。
我々は2つの典型的なネットワーク(TriNetとBag of Tricks)でその性能をテストし、5つの広く使われているデータセットで大幅な性能改善を観測した。
論文 参考訳(メタデータ) (2020-03-01T16:27:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。