論文の概要: Vehicle Re-identification Based on Dual Distance Center Loss
- arxiv url: http://arxiv.org/abs/2012.12519v1
- Date: Wed, 23 Dec 2020 07:14:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 03:33:34.204627
- Title: Vehicle Re-identification Based on Dual Distance Center Loss
- Title(参考訳): Dual Distance Center Lossに基づく車両再識別
- Authors: Zhijun Hu, Yong Xu, Jie Wen, Lilei Sun, Raja S P
- Abstract要約: 近年、深層学習は車両再同定の分野で広く利用されている。
本稿では、中心損失の5つの欠点を要約し、その全てを二重距離中心損失の提案により解決する。
- 参考スコア(独自算出の注目度): 14.162314828553578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, deep learning has been widely used in the field of vehicle
re-identification. When training a deep model, softmax loss is usually used as
a supervision tool. However, the softmax loss performs well for closed-set
tasks, but not very well for open-set tasks. In this paper, we sum up five
shortcomings of center loss and solved all of them by proposing a dual distance
center loss (DDCL). Especially we solve the shortcoming that center loss must
combine with the softmax loss to supervise training the model, which provides
us with a new perspective to examine the center loss. In addition, we verify
the inconsistency between the proposed DDCL and softmax loss in the feature
space, which makes the center loss no longer be limited by the softmax loss in
the feature space after removing the softmax loss. To be specifically, we add
the Pearson distance on the basis of the Euclidean distance to the same center,
which makes all features of the same class be confined to the intersection of a
hypersphere and a hypercube in the feature space. The proposed Pearson distance
strengthens the intra-class compactness of the center loss and enhances the
generalization ability of center loss. Moreover, by designing a Euclidean
distance threshold between all center pairs, which not only strengthens the
inter-class separability of center loss, but also makes the center loss (or
DDCL) works well without the combination of softmax loss. We apply DDCL in the
field of vehicle re-identification named VeRi-776 dataset and VehicleID
dataset. And in order to verify its good generalization ability, we also verify
it in two datasets commonly used in the field of person re-identification named
MSMT17 dataset and Market1501 dataset.
- Abstract(参考訳): 近年、深層学習は車両再識別の分野で広く利用されている。
深層モデルのトレーニングでは、ソフトマックス損失は通常、監視ツールとして使用される。
しかし、softmaxの損失はクローズドセットタスクではうまく機能するが、オープンセットタスクではうまく動作しない。
本稿では,中心損失の5つの欠点を要約し,これらすべてをdual distance center loss (ddcl) を提案することで解決した。
特に,中心損失とソフトマックス損失を組み合わせてモデルのトレーニングを監督しなければならないという欠点を解消し,中心損失を調査するための新たな視点を提供する。
さらに,提案したDDCLと特徴空間のソフトマックス損失との矛盾を検証し,ソフトマックス損失を除去した後に特徴空間のソフトマックス損失によって中心損失が制限されなくなることを示した。
具体的には、ユークリッド距離に基づいてピアソン距離を同じ中心に加え、同クラスのすべての特徴を特徴空間内の超球面と超キューブの交叉に限定する。
提案するピアソン距離は,中心損失のクラス内コンパクト性を強化し,中心損失の一般化能力を高める。
さらに、すべての中心対間のユークリッド距離閾値を設計することで、中心損失のクラス間分離性を高めるだけでなく、中心損失(DDCL)をソフトマックス損失と組み合わせることなくうまく機能させることができる。
DDCLをVeRi-776データセットとVabyIDデータセットという車両再識別分野に適用する。
そして、その優れた一般化能力を検証するために、msmt17データセットとmarket1501データセットという人物再識別の分野で一般的に使用される2つのデータセットで検証する。
関連論文リスト
- Distinction Maximization Loss: Efficiently Improving Classification
Accuracy, Uncertainty Estimation, and Out-of-Distribution Detection Simply
Replacing the Loss and Calibrating [2.262407399039118]
我々は、DisMax損失を用いた決定論的深層ニューラルネットワークのトレーニングを提案する。
DisMaxは通常、分類精度、不確実性推定、推論効率、アウト・オブ・ディストリビューション検出において、全ての現在のアプローチを同時に上回る。
論文 参考訳(メタデータ) (2022-05-12T04:37:35Z) - Killing Two Birds with One Stone:Efficient and Robust Training of Face
Recognition CNNs by Partial FC [66.71660672526349]
部分FC (Partial FC) という,完全連結層 (FC) のスパース更新版を提案する。
各イテレーションにおいて、マージンベースのソフトマックス損失を計算するために、正のクラスセンターと負のクラスセンターのランダムなサブセットが選択される。
計算要求、クラス間衝突の確率、テールクラスセンターにおけるパッシブ更新の頻度は劇的に減少する。
論文 参考訳(メタデータ) (2022-03-28T14:33:21Z) - No More Than 6ft Apart: Robust K-Means via Radius Upper Bounds [17.226362076527764]
k-means、k-medoids、k-centersといったCentroidベースのクラスタリング手法は、探索データ解析においてゴーツーツールとして強く応用されている。
多くの場合、これらの手法はデータセットの視覚化や要約のためにデータ多様体の代表的なセントロイドを得るのに使用される。
本研究では, 遠心円周波によって形成されるクラスターに最大半径制約$r$を導入することにより, このようなシナリオを緩和することを提案する。
論文 参考訳(メタデータ) (2022-03-04T18:59:02Z) - A Unified DRO View of Multi-class Loss Functions with top-N Consistency [61.13060097122664]
CS/CE損失の統一的なビューと、そのスムーズなトップ$k$変動を、新しい損失関数の族を提案することによって提示する。
分散ロバスト最適化フレームワークを活用することにより,ラベル分散ロバスト(LDR)損失というスムーズな損失関数の族を定義する。
論文 参考訳(メタデータ) (2021-12-30T00:27:30Z) - A Softmax-free Loss Function Based on Predefined Optimal-distribution of
Latent Features for CNN Classifier [4.7210697296108926]
本稿では,事前定義された潜在特徴の最適分布に基づくソフトマックスフリー損失関数(POD損失関数)を提案する。
損失関数は、サンプルの潜伏特徴ベクトルと予め定義された等分散クラスの中心との間の余弦距離を含む、サンプルの潜伏特徴のみを制限する。
一般的に使用されているSoftmax Lossや、一般的なSoftmax関連AM-Softmax Loss、COT-Loss、PEDCC-Lossと比較すると、典型的なネットワーク上のいくつかの一般的なデータセットの実験は、POD Lossが常により良く、より収束しやすいことを示している。
論文 参考訳(メタデータ) (2021-11-25T06:01:53Z) - Meta Clustering Learning for Large-scale Unsupervised Person
Re-identification [124.54749810371986]
メタクラスタリング学習(MCL)と呼ばれる「大規模タスクのための小さなデータ」パラダイムを提案する。
MCLは、第1フェーズのトレーニングのためにコンピューティングを節約するためにクラスタリングを介して、未ラベルデータのサブセットを擬似ラベル付けするのみである。
提案手法は計算コストを大幅に削減すると同時に,従来よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2021-11-19T04:10:18Z) - Max-Margin is Dead, Long Live Max-Margin! [87.90853526750716]
最大マージン損失は、距離間の誤差を計測する離散損失について、非常に限定的な仮定の下では、分類タスクと整合性しか持たないことが示される。
Restricted-Max-Marginでは、損失増大スコアが維持されるが、元のドメインのサブセット上で実行される。
論文 参考訳(メタデータ) (2021-05-31T15:55:52Z) - PLADE-Net: Towards Pixel-Level Accuracy for Self-Supervised Single-View
Depth Estimation with Neural Positional Encoding and Distilled Matting Loss [49.66736599668501]
PLADE-Netと呼ばれる自己監視型単視点画素レベルの高精度深度推定ネットワークを提案する。
提案手法は,KITTIデータセットの$delta1$測定値の95%を超え,前例のない精度を示す。
論文 参考訳(メタデータ) (2021-03-12T15:54:46Z) - Focal and Efficient IOU Loss for Accurate Bounding Box Regression [63.14659624634066]
オブジェクト検出では、境界ボックス回帰(BBR)はオブジェクトローカリゼーションのパフォーマンスを決定する重要なステップです。
i) $ell_n$-norm と IOU ベースのロス関数はどちらも BBR の目的を描くのに非効率的であり、これは遅い収束と不正確な回帰結果をもたらす。
論文 参考訳(メタデータ) (2021-01-20T14:33:58Z) - Offset Curves Loss for Imbalanced Problem in Medical Segmentation [15.663236378920637]
我々は,輪郭内領域と輪郭内領域の両方を考慮した新しい深層学習モデルを構築した。
提案するオフセット曲線(OsC)損失は3つの主要な適合項からなる。
提案したOsC損失を2次元ネットワークと3次元ネットワークの両方で評価した。
論文 参考訳(メタデータ) (2020-12-04T08:35:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。