論文の概要: DSAM: A Distance Shrinking with Angular Marginalizing Loss for High
Performance Vehicle Re-identificatio
- arxiv url: http://arxiv.org/abs/2011.06228v3
- Date: Thu, 9 Sep 2021 02:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 07:16:52.737956
- Title: DSAM: A Distance Shrinking with Angular Marginalizing Loss for High
Performance Vehicle Re-identificatio
- Title(参考訳): DSAM: 高性能車両再識別のための角マージナイズドロスを用いた距離縮小
- Authors: Jiangtao Kong, Yu Cheng, Benjia Zhou, Kai Li, Junliang Xing
- Abstract要約: 車両再識別(ReID)はコンピュータビジョンにおいて重要な問題である。
高性能車載ReIDモデルを実現するために,Angular Marginalizing (DSAM)損失関数を用いた新しい距離収縮法を提案する。
- 参考スコア(独自算出の注目度): 39.45750548358041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicle Re-identification (ReID) is an important yet challenging problem in
computer vision. Compared to other visual objects like faces and persons,
vehicles simultaneously exhibit much larger intraclass viewpoint variations and
interclass visual similarities, making most exiting loss functions designed for
face recognition and person ReID unsuitable for vehicle ReID. To obtain a
high-performance vehicle ReID model, we present a novel Distance Shrinking with
Angular Marginalizing (DSAM) loss function to perform hybrid learning in both
the Original Feature Space (OFS) and the Feature Angular Space (FAS) using the
local verification and the global identification information. Specifically, it
shrinks the distance between samples of the same class locally in the Original
Feature Space while keeps samples of different classes far away in the Feature
Angular Space. The shrinking and marginalizing operations are performed during
each iteration of the training process and are suitable for different SoftMax
based loss functions. We evaluate the DSAM loss function on three large vehicle
ReID datasets with detailed analyses and extensive comparisons with many
competing vehicle ReID methods. Experimental results show that our DSAM loss
enhances the SoftMax loss by a large margin on the PKU-VD1-Large dataset:
10.41% for mAP, 5.29% for cmc1, and 4.60% for cmc5. Moreover, the mAP is
increased by 9.34% on the PKU-VehicleID dataset and 6.13% on the VeRi-776
dataset. Source code will be released to facilitate further studies in this
research direction.
- Abstract(参考訳): 車両再識別(ReID)はコンピュータビジョンにおいて重要な問題である。
顔や人物のような他の視覚オブジェクトと比較すると、車両はクラス内視点のバリエーションとクラス間視覚的類似性を同時に示し、顔認証用に設計されたほとんどの離脱機能と車両のReIDに不適な人物のReIDを実現する。
高性能車載ReIDモデルを実現するために,ローカル検証とグローバル識別情報を用いて,OFS(Original Feature Space)とFAS(Feature Angular Space)の両方でハイブリッド学習を行うために,Angular Marginalizing(DSAM)損失関数付き距離縮小機能を提案する。
具体的には、オリジナルフィーチャースペース内の同じクラスのサンプル間の距離を縮小するとともに、フィーチャーAngularスペース内のさまざまなクラスのサンプルを遠くに保持する。
トレーニングプロセスの各イテレーション中に縮小および周縁化操作を行い、異なるSoftMaxベースの損失関数に適合する。
DSAM損失関数を3つの大型車両ReIDデータセット上で詳細に解析し,多くの競合車両ReID手法との比較を行った。
実験の結果,pku-vd1大規模データセットでは,dsam損失がソフトマックス損失を10.41%,cmc1では5.29%,cmc5では4.60%という大きなマージンで高めていることがわかった。
さらに、MAPはPKU-VehicleIDデータセットで9.34%、VeRi-776データセットで6.13%増加する。
ソースコードは、この研究の方向性に関するさらなる研究を促進するためにリリースされる予定だ。
関連論文リスト
- VehicleGAN: Pair-flexible Pose Guided Image Synthesis for Vehicle Re-identification [27.075761782915496]
本稿では,ターゲットポーズにおける多数の車両画像の合成を提案する。
異なる交通監視カメラで同じ車両のペアのデータが現実世界では利用できない可能性があることを考慮し、VagerGANを提案する。
実データと合成データの特徴分布の違いから,効率的な特徴レベル融合によるJML(Joint Metric Learning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T19:34:04Z) - V2X-AHD:Vehicle-to-Everything Cooperation Perception via Asymmetric
Heterogenous Distillation Network [13.248981195106069]
車両間協調認識システム(V2X-AHD)を提案する。
この研究によると、V2X-AHDは3次元物体検出の精度を効果的に向上し、ネットワークパラメータの数を削減できる。
論文 参考訳(メタデータ) (2023-10-10T13:12:03Z) - LoLep: Single-View View Synthesis with Locally-Learned Planes and
Self-Attention Occlusion Inference [66.45326873274908]
本稿では,1枚のRGB画像から局所学習平面を回帰してシーンを正確に表現するLoLepを提案する。
MINEと比較して、LPIPSは4.8%-9.0%、RVは73.9%-83.5%である。
論文 参考訳(メタデータ) (2023-07-23T03:38:55Z) - Instance-Variant Loss with Gaussian RBF Kernel for 3D Cross-modal
Retriveal [52.41252219453429]
既存の方法は全てのインスタンスを等しく扱い、同じペナルティ強度を様々な難易度を持つインスタンスに適用する。
これは曖昧な収束や局所最適性をもたらし、特徴空間の分離性を著しく妥協させる。
本稿では,異なるインスタンスに対して異なるペナルティ強度を割り当て,空間分離性を向上させるインスタンス・ヴァリアント損失を提案する。
論文 参考訳(メタデータ) (2023-05-07T10:12:14Z) - Towards Multimodal Multitask Scene Understanding Models for Indoor
Mobile Agents [49.904531485843464]
本稿では,現実世界の屋内環境におけるラベル付きデータの不十分,あるいは不可能,といった主な課題について論じる。
MMISM (Multi-modality input Multi-task output Indoor Scene Understanding Model) について述べる。
MMISMは、RGB画像だけでなく、スパースライダーポイントを入力と3Dオブジェクト検出、深さ完了、人間のポーズ推定、セマンティックセグメンテーションを出力タスクとみなしている。
MMISMはシングルタスクモデルよりも同等かそれ以上の性能を示す。
論文 参考訳(メタデータ) (2022-09-27T04:49:19Z) - Discriminative-Region Attention and Orthogonal-View Generation Model for
Vehicle Re-Identification [7.5366501970852955]
複数の課題は、視覚に基づく車両のRe-ID手法の適用を妨げる。
提案したDRAモデルでは,識別領域の特徴を自動的に抽出し,類似した車両を識別することができる。
また、OVGモデルでは、入力ビュー機能に基づいてマルチビュー機能を生成し、視点ミスマッチの影響を低減することができる。
論文 参考訳(メタデータ) (2022-04-28T07:46:03Z) - A Strong Baseline for Vehicle Re-Identification [1.9573380763700712]
vehicle re-idは、異なるカメラで同じ車両を識別することを目指している。
本稿では、まず車両再ID性能を阻害する主な要因を分析します。
次に、第5回AIチャレンジのトラック2をターゲットとしたソリューションを紹介します。
論文 参考訳(メタデータ) (2021-04-22T03:54:55Z) - Loss Function Discovery for Object Detection via Convergence-Simulation
Driven Search [101.73248560009124]
本稿では,効率的な収束シミュレーションによる進化的探索アルゴリズムCSE-Autolossを提案する。
一般的な検出器上での損失関数探索の広範囲な評価を行い、探索された損失の優れた一般化能力を検証した。
実験の結果, 2段検出器と1段検出器のmAPでは, 最適損失関数の組み合わせが1.1%と0.8%を上回っていることがわかった。
論文 参考訳(メタデータ) (2021-02-09T08:34:52Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Discriminative Feature and Dictionary Learning with Part-aware Model for
Vehicle Re-identification [13.556590446194283]
車両の再識別(re-ID)技術は、同じ設計または製造メーカーの車両が類似した外観を示すため、難しい課題である。
本稿では,車種識別の精度を高めるために,車両の細部における識別的特徴を利用したTriplet Center Loss based Part-Aware Model (TCPM)を提案する。
提案したTCPMは,ベンチマークデータセットであるVabyIDとVeRi-776の既存の最先端手法に対して,非常に好意的だ。
論文 参考訳(メタデータ) (2020-03-16T12:15:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。