論文の概要: Robust Calibrate Proxy Loss for Deep Metric Learning
- arxiv url: http://arxiv.org/abs/2304.09162v1
- Date: Thu, 6 Apr 2023 02:43:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-23 04:18:55.996812
- Title: Robust Calibrate Proxy Loss for Deep Metric Learning
- Title(参考訳): 深いメトリクス学習のためのロバストな校正プロキシ損失
- Authors: Xinyue Li, Jian Wang, Wei Song, Yanling Du, Zhixiang Liu
- Abstract要約: 本稿では、実際のサンプル情報を用いて、プロキシベースの損失の類似性計算を改善するCalibrate Proxy構造を提案する。
提案手法は,正規データセットと雑音データセットの両方において,一般的に使用されるプロキシベース損失の性能を効果的に向上できることを示す。
- 参考スコア(独自算出の注目度): 6.784952050036532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The mainstream researche in deep metric learning can be divided into two
genres: proxy-based and pair-based methods. Proxy-based methods have attracted
extensive attention due to the lower training complexity and fast network
convergence. However, these methods have limitations as the poxy optimization
is done by network, which makes it challenging for the proxy to accurately
represent the feature distrubtion of the real class of data. In this paper, we
propose a Calibrate Proxy (CP) structure, which uses the real sample
information to improve the similarity calculation in proxy-based loss and
introduces a calibration loss to constraint the proxy optimization towards the
center of the class features. At the same time, we set a small number of
proxies for each class to alleviate the impact of intra-class differences on
retrieval performance. The effectiveness of our method is evaluated by
extensive experiments on three public datasets and multiple synthetic
label-noise datasets. The results show that our approach can effectively
improve the performance of commonly used proxy-based losses on both regular and
noisy datasets.
- Abstract(参考訳): ディープメトリックラーニングにおける主要な研究は、プロキシベースの方法とペアベースの方法の2つのジャンルに分けられる。
プロキシベースの手法は、トレーニングの複雑さが低く、ネットワークの収束が速いため、広く注目を集めている。
しかし、これらの手法にはネットワークによってpoxy最適化が行われるため制限があるため、プロキシが実際のクラスのデータの特徴を正確に表現することは困難である。
本稿では、実際のサンプル情報を用いてプロキシベースの損失の類似性計算を改善し、クラス機能の中心にプロキシ最適化を制約するキャリブレーション損失を導入するCalibrate Proxy(CP)構造を提案する。
同時に,各クラスに対して少数のプロキシを設定し,クラス内差が検索性能に与える影響を緩和した。
提案手法の有効性は,3つの公開データセットと複数の合成ラベル・ノイズデータセットに対する広範な実験により評価された。
その結果,本手法は正規データと雑音データの両方において,一般的なプロキシベース損失の性能を効果的に向上できることがわかった。
関連論文リスト
- Anti-Collapse Loss for Deep Metric Learning Based on Coding Rate Metric [99.19559537966538]
DMLは、分類、クラスタリング、検索といった下流タスクのための識別可能な高次元埋め込み空間を学習することを目的としている。
埋め込み空間の構造を維持し,特徴の崩壊を避けるために,反崩壊損失と呼ばれる新しい損失関数を提案する。
ベンチマークデータセットの総合実験により,提案手法が既存の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-03T13:44:20Z) - Deep Metric Learning with Soft Orthogonal Proxies [1.823505080809275]
本稿では,プロキシにソフト直交性(SO)制約を導入する新しいアプローチを提案する。
提案手法では,DMLの目的と合わせて,画像からコンテキスト特徴を抽出するエンコーダとして,データ効率の良い画像変換器(DeiT)を利用する。
提案手法が最先端手法よりも有意なマージンで優れていることを示す。
論文 参考訳(メタデータ) (2023-06-22T17:22:15Z) - Non-isotropy Regularization for Proxy-based Deep Metric Learning [78.18860829585182]
本稿では,プロキシに基づくDeep Metric Learningのための非等方正則化(mathbbNIR$)を提案する。
これにより、プロキシの周囲のサンプルの非等方分布を明示的に誘導して最適化することが可能になる。
実験では、競争力と最先端のパフォーマンスを達成しながら、$mathbbNIR$の一貫性のある一般化の利点を強調している。
論文 参考訳(メタデータ) (2022-03-16T11:13:20Z) - Proxy Synthesis: Learning with Synthetic Classes for Deep Metric
Learning [13.252164137961332]
深層メトリック学習におけるより強固な一般化のために,合成クラスを活用したプロキシ合成と呼ばれる単純な正規化器を提案する。
提案手法は合成クラスとして動作する合成埋め込みとプロキシを生成し,プロキシベースの損失を計算する際に未知のクラスを模倣する。
本手法はsoftmaxとその変種を含む任意のプロキシベース損失に適用可能である。
論文 参考訳(メタデータ) (2021-03-29T09:39:07Z) - Hierarchical Proxy-based Loss for Deep Metric Learning [32.10423536428467]
プロキシベースのメトリック学習の損失は、高速収束とトレーニングの複雑さが低いため、ペアベースの損失よりも優れている。
我々は,この暗黙の階層を,プロキシに階層構造を課すことで活用するフレームワークを提案する。
その結果、階層型プロキシベースの損失フレームワークは、既存のプロキシベースの損失のパフォーマンスを改善します。
論文 参考訳(メタデータ) (2021-03-25T00:38:33Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Fewer is More: A Deep Graph Metric Learning Perspective Using Fewer
Proxies [65.92826041406802]
本稿では,グラフ分類の観点から,プロキシベースのディープグラフメトリックラーニング手法を提案する。
複数のグローバルプロキシを利用して、各クラスの元のデータポイントを総括的に近似する。
本研究では, 近接関係を接地トラス・ラベルに従って調整する, 新たな逆ラベル伝搬アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-10-26T14:52:42Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - Proxy Anchor Loss for Deep Metric Learning [47.832107446521626]
我々は、ペアとプロキシの両方の手法の利点を生かし、それらの制限を克服する新しいプロキシベースの損失を示す。
プロキシの使用により、私たちの損失は収束の速度を加速し、ノイズの多いラベルや外れ値に対して堅牢です。
提案手法は、4つの公開ベンチマークで評価され、損失をトレーニングした標準ネットワークは最先端の性能を達成し、最も高速に収束する。
論文 参考訳(メタデータ) (2020-03-31T02:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。