論文の概要: Discriminative Feature Representation with Spatio-temporal Cues for
Vehicle Re-identification
- arxiv url: http://arxiv.org/abs/2011.06852v1
- Date: Fri, 13 Nov 2020 10:50:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:10:28.764189
- Title: Discriminative Feature Representation with Spatio-temporal Cues for
Vehicle Re-identification
- Title(参考訳): 車両再同定のための時空間手がかりを用いた識別的特徴表現
- Authors: J. Tu, C. Chen, X. Huang, J. He and X. Guan
- Abstract要約: 車両識別(re-ID)は、様々なカメラが様々な道路網で撮影したギャラリー画像から対象車両を発見し、マッチングすることを目的としている。
車両用リIDのための新しい手がかり(DFR-ST)を用いた特徴表現を提案する。
外観や時間的情報を含むことで、埋め込み空間で堅牢な特徴を構築することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vehicle re-identification (re-ID) aims to discover and match the target
vehicles from a gallery image set taken by different cameras on a wide range of
road networks. It is crucial for lots of applications such as security
surveillance and traffic management. The remarkably similar appearances of
distinct vehicles and the significant changes of viewpoints and illumination
conditions take grand challenges to vehicle re-ID. Conventional solutions focus
on designing global visual appearances without sufficient consideration of
vehicles' spatiotamporal relationships in different images. In this paper, we
propose a novel discriminative feature representation with spatiotemporal clues
(DFR-ST) for vehicle re-ID. It is capable of building robust features in the
embedding space by involving appearance and spatio-temporal information. Based
on this multi-modal information, the proposed DFR-ST constructs an appearance
model for a multi-grained visual representation by a two-stream architecture
and a spatio-temporal metric to provide complementary information. Experimental
results on two public datasets demonstrate DFR-ST outperforms the
state-of-the-art methods, which validate the effectiveness of the proposed
method.
- Abstract(参考訳): 車両再識別(re-id)は、異なるカメラが様々な道路網で撮影したギャラリー画像からターゲット車両を発見し、一致させることを目的としている。
セキュリティ監視やトラフィック管理といった多くのアプリケーションにとって、これは重要です。
異なる車両の著しく類似した外観と視点と照明条件の著しい変化は、車両の再識別に大きな困難を伴います。
従来のソリューションは、異なる画像における車両の空間的関係を十分に考慮せずに、グローバルな視覚的外観を設計することに焦点を当てている。
本稿では,車両再IDのための時空間手がかり(DFR-ST)を用いた新しい識別特徴表現を提案する。
外観と時空間情報を含むことで、埋め込み空間に堅牢な特徴を構築することができる。
このマルチモーダル情報に基づいて,提案するdfr-stは,2ストリームアーキテクチャによる多眼視覚表現の出現モデルと時空間メトリックを構築し,補完的情報を提供する。
2つの公開データセットにおける実験結果は、dfr-stが最先端の手法よりも優れており、提案手法の有効性を検証している。
関連論文リスト
- Cross-Modality Perturbation Synergy Attack for Person Re-identification [66.48494594909123]
相互モダリティReIDの主な課題は、異なるモダリティ間の視覚的差異を効果的に扱うことである。
既存の攻撃方法は、目に見える画像のモダリティの特徴に主に焦点を当てている。
本研究では,クロスモーダルReIDに特化して設計されたユニバーサル摂動攻撃を提案する。
論文 参考訳(メタデータ) (2024-01-18T15:56:23Z) - VehicleGAN: Pair-flexible Pose Guided Image Synthesis for Vehicle Re-identification [27.075761782915496]
本稿では,ターゲットポーズにおける多数の車両画像の合成を提案する。
異なる交通監視カメラで同じ車両のペアのデータが現実世界では利用できない可能性があることを考慮し、VagerGANを提案する。
実データと合成データの特徴分布の違いから,効率的な特徴レベル融合によるJML(Joint Metric Learning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T19:34:04Z) - Spatial-temporal Vehicle Re-identification [3.7748602100709534]
信頼性の高いカメラネットワークトポロジを推定する空間時空間車両ReIDフレームワークを提案する。
提案手法に基づいて,公開データセット(VeRi776)において,ランク1の精度の99.64%向上した。
論文 参考訳(メタデータ) (2023-09-03T13:07:38Z) - Multi-query Vehicle Re-identification: Viewpoint-conditioned Network,
Unified Dataset and New Metric [30.344288906037345]
マルチクエリー車両Re-IDと呼ばれる,より現実的でアクセスしやすいタスクを提案する。
我々は、異なる車両視点からの補完情報を適応的に組み合わせた、新しい視点条件付きネットワーク(VCNet)を設計する。
次に、実生活の交通監視システムから6142台のカメラで撮影された、統一されたベンチマークデータセットを作成します。
第3に,クロスシーン認識能力を測定する平均クロスシーン精度(mCSP)と呼ばれる新しい評価指標を設計する。
論文 参考訳(メタデータ) (2023-05-25T06:22:03Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Discriminative-Region Attention and Orthogonal-View Generation Model for
Vehicle Re-Identification [7.5366501970852955]
複数の課題は、視覚に基づく車両のRe-ID手法の適用を妨げる。
提案したDRAモデルでは,識別領域の特徴を自動的に抽出し,類似した車両を識別することができる。
また、OVGモデルでは、入力ビュー機能に基づいてマルチビュー機能を生成し、視点ミスマッチの影響を低減することができる。
論文 参考訳(メタデータ) (2022-04-28T07:46:03Z) - Pluggable Weakly-Supervised Cross-View Learning for Accurate Vehicle
Re-Identification [53.6218051770131]
クロスビューの一貫した機能表現は、正確な車両ReIDの鍵です。
既存のアプローチは、広範な余分な視点アノテーションを使用して、クロスビュー学習を監督する。
Weakly-supervised Cross-View Learning (WCVL) モジュールを車載用として提案する。
論文 参考訳(メタデータ) (2021-03-09T11:51:09Z) - Trends in Vehicle Re-identification Past, Present, and Future: A
Comprehensive Review [2.9093633827040724]
車両リアイドは、複数のカメラネットワークビューでターゲット車両オーバーオーバーラップビューにマッチします。
本稿では,各種車両のre-id技術,手法,データセット,および各種方法論の比較を包括的に記述する。
論文 参考訳(メタデータ) (2021-02-19T05:02:24Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z) - The Devil is in the Details: Self-Supervised Attention for Vehicle
Re-Identification [75.3310894042132]
車両識別のための自己監督的注意(SAVER)は、車両固有の識別特徴を効果的に学習するための新しいアプローチである。
我々は,SAVERがVeRi, VehicleID, Vehicle-1M, VERI-Wildのデータセットに挑戦する際の最先端性を改善することを示す。
論文 参考訳(メタデータ) (2020-04-14T02:24:47Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。