論文の概要: Viewpoint-Aware Channel-Wise Attentive Network for Vehicle
Re-Identification
- arxiv url: http://arxiv.org/abs/2010.05810v1
- Date: Mon, 12 Oct 2020 16:05:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 07:25:54.014531
- Title: Viewpoint-Aware Channel-Wise Attentive Network for Vehicle
Re-Identification
- Title(参考訳): 車両再識別のための視点対応チャネルワイズ注意ネットワーク
- Authors: Tsai-Shien Chen, Man-Yu Lee, Chih-Ting Liu, Shao-Yi Chien
- Abstract要約: 車両の再識別(re-ID)は、異なるカメラで同じ車両の画像と一致する。
なぜなら、異なる視点によって劇的に異なる外観が、フレームワークを同一の同一性の2つの車両にマッチさせるのに失敗するからである。
本稿では,異なる視点から注目機構を観察し,視点認識型チャネルワイドアテンション機構(VCAM)を提案する。
- 参考スコア(独自算出の注目度): 30.797140440568455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicle re-identification (re-ID) matches images of the same vehicle across
different cameras. It is fundamentally challenging because the dramatically
different appearance caused by different viewpoints would make the framework
fail to match two vehicles of the same identity. Most existing works solved the
problem by extracting viewpoint-aware feature via spatial attention mechanism,
which, yet, usually suffers from noisy generated attention map or otherwise
requires expensive keypoint labels to improve the quality. In this work, we
propose Viewpoint-aware Channel-wise Attention Mechanism (VCAM) by observing
the attention mechanism from a different aspect. Our VCAM enables the feature
learning framework channel-wisely reweighing the importance of each feature
maps according to the "viewpoint" of input vehicle. Extensive experiments
validate the effectiveness of the proposed method and show that we perform
favorably against state-of-the-arts methods on the public VeRi-776 dataset and
obtain promising results on the 2020 AI City Challenge. We also conduct other
experiments to demonstrate the interpretability of how our VCAM practically
assists the learning framework.
- Abstract(参考訳): 車両の再識別(re-ID)は、異なるカメラで同じ車両の画像と一致する。
異なる視点によって引き起こされる劇的に異なる外観は、フレームワークが同一の2台の車両と一致しないため、基本的には困難である。
既存の作品の多くは、空間的注意機構を通じて視点認識機能を抽出することで問題を解決したが、これは通常、ノイズが発生する注意マップに苦しむか、品質を改善するために高価なキーポイントラベルを必要とする。
本研究では,異なる視点から注目機構を観察し,視点認識型チャネルワイドアテンションメカニズム(VCAM)を提案する。
当社のVCAMは,入力車両の「視点」に応じて,各特徴マップの重要性を再考する機能学習フレームワークを実現する。
提案手法の有効性を検証し,veri-776データセットの最先端手法に対して好適な対策を行い,2020年のai city challengeで有望な結果を得た。
また、vcamが学習フレームワークを実際に支援する方法の解釈可能性を示すために、他の実験も行います。
関連論文リスト
- ConMAE: Contour Guided MAE for Unsupervised Vehicle Re-Identification [8.950873153831735]
本研究は、ConMAE(Unsupervised Vehicle Re-Identification)のためのContour Guided Masked Autoencoderを設計する。
Masked Autoencoder (MAE) は自己教師付き学習において優れた性能を発揮していることを考慮し、ConMAE (Contour Guided Masked Autoencoder for Unsupervised Vehicle Re-Identification) を設計した。
論文 参考訳(メタデータ) (2023-02-11T12:10:25Z) - Complete Solution for Vehicle Re-ID in Surround-view Camera System [10.10765191655754]
自動車再識別(Re-ID)は自律運転認識システムにおいて重要な要素である。
魚眼カメラのユニークな構成のため、多くの写真フレームで同じ車両を識別することは困難である。
我々の手法は、最先端の精度とリアルタイムのパフォーマンスを組み合わせたものである。
論文 参考訳(メタデータ) (2022-12-08T07:52:55Z) - Online Deep Clustering with Video Track Consistency [85.8868194550978]
ビデオオブジェクトトラックから視覚的特徴を学習するための教師なしクラスタリングに基づく手法を提案する。
教師なしのクラス非依存でノイズの多いトラックジェネレータを利用すれば、コストと正確なトラックアノテーションに依存するよりも精度が向上することを示す。
論文 参考訳(メタデータ) (2022-06-07T08:11:00Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Multi-Attention-Based Soft Partition Network for Vehicle
Re-Identification [12.319699929810355]
車両の再識別は、同一車両と他の車両の画像の区別に役立つ。
本稿では,様々な識別領域を捕捉するマルチソフトアテンション機構に基づく車両再識別ネットワークを提案する。
提案手法は,メタデータのない注目手法の中で,最先端の性能を実現した。
論文 参考訳(メタデータ) (2021-04-21T08:13:17Z) - Pluggable Weakly-Supervised Cross-View Learning for Accurate Vehicle
Re-Identification [53.6218051770131]
クロスビューの一貫した機能表現は、正確な車両ReIDの鍵です。
既存のアプローチは、広範な余分な視点アノテーションを使用して、クロスビュー学習を監督する。
Weakly-supervised Cross-View Learning (WCVL) モジュールを車載用として提案する。
論文 参考訳(メタデータ) (2021-03-09T11:51:09Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - V2VNet: Vehicle-to-Vehicle Communication for Joint Perception and
Prediction [74.42961817119283]
車両間通信(V2V)を用いて、自動運転車の知覚と運動予測性能を向上させる。
複数の車両から受信した情報をインテリジェントに集約することで、異なる視点から同じシーンを観察することができる。
論文 参考訳(メタデータ) (2020-08-17T17:58:26Z) - Vehicle Re-ID for Surround-view Camera System [8.919111930321206]
自動車再識別(ReID)は自律運転の認識システムにおいて重要な役割を担っている。
車両に搭載されたサラウンドビューシステムに対して、既存の完全な解決策はない。
トラッキングボックスのドリフトとターゲットの一貫性のバランスをとるための新しい品質評価機構を提案する。
論文 参考訳(メタデータ) (2020-06-30T03:25:10Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。