論文の概要: PAMTRI: Pose-Aware Multi-Task Learning for Vehicle Re-Identification
Using Highly Randomized Synthetic Data
- arxiv url: http://arxiv.org/abs/2005.00673v1
- Date: Sat, 2 May 2020 01:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 12:16:58.065656
- Title: PAMTRI: Pose-Aware Multi-Task Learning for Vehicle Re-Identification
Using Highly Randomized Synthetic Data
- Title(参考訳): PAMTRI:高ランダム化合成データを用いた車両再同定のための多視点マルチタスク学習
- Authors: Zheng Tang, Milind Naphade, Stan Birchfield, Jonathan Tremblay,
William Hodge, Ratnesh Kumar, Shuo Wang, Xiaodong Yang
- Abstract要約: 車両ReIDは、(形状・外観の相違による)高いクラス内変動、(異なるメーカーによる車両間の形状・外観の類似性による)小さいクラス間変動により困難である。
本稿では,Pose-Aware Multi-Task Re-Identification (PAMTRI) フレームワークを提案する。
これは、キーポイント、ヒートマップ、およびポーズ推定からのセグメントを介して車両のポーズと形状を明示的に推論することで、視点依存性を克服する。
組込みポーズ表現によるマルチタスク学習を通じて、ReIDの実行中にセマンティックな車両属性(色と型)を共同で分類する。
- 参考スコア(独自算出の注目度): 34.66187690224724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In comparison with person re-identification (ReID), which has been widely
studied in the research community, vehicle ReID has received less attention.
Vehicle ReID is challenging due to 1) high intra-class variability (caused by
the dependency of shape and appearance on viewpoint), and 2) small inter-class
variability (caused by the similarity in shape and appearance between vehicles
produced by different manufacturers). To address these challenges, we propose a
Pose-Aware Multi-Task Re-Identification (PAMTRI) framework. This approach
includes two innovations compared with previous methods. First, it overcomes
viewpoint-dependency by explicitly reasoning about vehicle pose and shape via
keypoints, heatmaps and segments from pose estimation. Second, it jointly
classifies semantic vehicle attributes (colors and types) while performing
ReID, through multi-task learning with the embedded pose representations. Since
manually labeling images with detailed pose and attribute information is
prohibitive, we create a large-scale highly randomized synthetic dataset with
automatically annotated vehicle attributes for training. Extensive experiments
validate the effectiveness of each proposed component, showing that PAMTRI
achieves significant improvement over state-of-the-art on two mainstream
vehicle ReID benchmarks: VeRi and CityFlow-ReID. Code and models are available
at https://github.com/NVlabs/PAMTRI.
- Abstract(参考訳): 研究コミュニティで広く研究されている人物再識別(ReID)と比較して,車両ReIDの注目度は低い。
自動車のReIDは難しい
1)クラス内変動度が高いこと(形状や外観が視点に依存することによる)、
2)小型クラス間可変性(異なるメーカーが製造する車両の形状や外観の類似性による)。
これらの課題に対処するため,我々はポーズ対応マルチタスク再識別(pamtri)フレームワークを提案する。
このアプローチは、以前の方法と比較して2つのイノベーションを含んでいる。
まず,姿勢推定からキーポイント,ヒートマップ,セグメントを介して車両の姿勢や形状を明示的に推論することにより,視点依存を克服する。
次に、組込みポーズ表現によるマルチタスク学習を通じて、ReIDを実行しながらセマンティックな車両属性(色と型)を共同で分類する。
詳細なポーズと属性情報を手動でラベル付けすることは禁じられているので、トレーニング用に自動的に注釈付けされた車両属性を持つ大規模で高度にランダム化された合成データセットを作成する。
PAMTRIは2つの主要車両ReIDベンチマークであるVeRiとCityFlow-ReIDにおいて,最先端のReIDよりも大幅に改善されている。
コードとモデルはhttps://github.com/NVlabs/PAMTRIで公開されている。
関連論文リスト
- VehicleGAN: Pair-flexible Pose Guided Image Synthesis for Vehicle Re-identification [27.075761782915496]
本稿では,ターゲットポーズにおける多数の車両画像の合成を提案する。
異なる交通監視カメラで同じ車両のペアのデータが現実世界では利用できない可能性があることを考慮し、VagerGANを提案する。
実データと合成データの特徴分布の違いから,効率的な特徴レベル融合によるJML(Joint Metric Learning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T19:34:04Z) - Exploring Fine-Grained Representation and Recomposition for Cloth-Changing Person Re-Identification [78.52704557647438]
補助的なアノテーションやデータなしに両方の制約に対処するために,新しいFIne-fine Representation and Recomposition (FIRe$2$) フレームワークを提案する。
FIRe$2$は、広く使われている5つのRe-IDベンチマークで最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-08-21T12:59:48Z) - ConMAE: Contour Guided MAE for Unsupervised Vehicle Re-Identification [8.950873153831735]
本研究は、ConMAE(Unsupervised Vehicle Re-Identification)のためのContour Guided Masked Autoencoderを設計する。
Masked Autoencoder (MAE) は自己教師付き学習において優れた性能を発揮していることを考慮し、ConMAE (Contour Guided Masked Autoencoder for Unsupervised Vehicle Re-Identification) を設計した。
論文 参考訳(メタデータ) (2023-02-11T12:10:25Z) - Discriminative-Region Attention and Orthogonal-View Generation Model for
Vehicle Re-Identification [7.5366501970852955]
複数の課題は、視覚に基づく車両のRe-ID手法の適用を妨げる。
提案したDRAモデルでは,識別領域の特徴を自動的に抽出し,類似した車両を識別することができる。
また、OVGモデルでは、入力ビュー機能に基づいてマルチビュー機能を生成し、視点ミスマッチの影響を低減することができる。
論文 参考訳(メタデータ) (2022-04-28T07:46:03Z) - Pluggable Weakly-Supervised Cross-View Learning for Accurate Vehicle
Re-Identification [53.6218051770131]
クロスビューの一貫した機能表現は、正確な車両ReIDの鍵です。
既存のアプローチは、広範な余分な視点アノテーションを使用して、クロスビュー学習を監督する。
Weakly-supervised Cross-View Learning (WCVL) モジュールを車載用として提案する。
論文 参考訳(メタデータ) (2021-03-09T11:51:09Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z) - The Devil is in the Details: Self-Supervised Attention for Vehicle
Re-Identification [75.3310894042132]
車両識別のための自己監督的注意(SAVER)は、車両固有の識別特徴を効果的に学習するための新しいアプローチである。
我々は,SAVERがVeRi, VehicleID, Vehicle-1M, VERI-Wildのデータセットに挑戦する際の最先端性を改善することを示す。
論文 参考訳(メタデータ) (2020-04-14T02:24:47Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z) - An Attention-Based Deep Learning Model for Multiple Pedestrian
Attributes Recognition [4.6898263272139795]
本稿では,監視映像における歩行者の自動特徴付け問題に対する新しい解決策を提供する。
本稿では,より包括的な特徴表現を抽出するために,要素ワイド乗算層を用いたマルチタスクディープモデルを提案する。
実験は,2つのよく知られたデータセット (RAP と PETA) を用いて実施し,提案手法の最先端性に着目した。
論文 参考訳(メタデータ) (2020-04-02T16:21:14Z) - Attribute-guided Feature Learning Network for Vehicle Re-identification [13.75036137728257]
自動車再識別(reID)は都市監視ビデオの自動解析において重要な役割を果たしている。
本稿では,属性の豊富なグローバル表現を学習可能な新しいAttribute-Guided Network(AGNet)を提案する。
論文 参考訳(メタデータ) (2020-01-12T06:57:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。