論文の概要: Proxy Anchor Loss for Deep Metric Learning
- arxiv url: http://arxiv.org/abs/2003.13911v1
- Date: Tue, 31 Mar 2020 02:05:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 00:21:47.830042
- Title: Proxy Anchor Loss for Deep Metric Learning
- Title(参考訳): 深層学習のためのプロキシアンカー損失
- Authors: Sungyeon Kim, Dongwon Kim, Minsu Cho, Suha Kwak
- Abstract要約: 我々は、ペアとプロキシの両方の手法の利点を生かし、それらの制限を克服する新しいプロキシベースの損失を示す。
プロキシの使用により、私たちの損失は収束の速度を加速し、ノイズの多いラベルや外れ値に対して堅牢です。
提案手法は、4つの公開ベンチマークで評価され、損失をトレーニングした標準ネットワークは最先端の性能を達成し、最も高速に収束する。
- 参考スコア(独自算出の注目度): 47.832107446521626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing metric learning losses can be categorized into two classes:
pair-based and proxy-based losses. The former class can leverage fine-grained
semantic relations between data points, but slows convergence in general due to
its high training complexity. In contrast, the latter class enables fast and
reliable convergence, but cannot consider the rich data-to-data relations. This
paper presents a new proxy-based loss that takes advantages of both pair- and
proxy-based methods and overcomes their limitations. Thanks to the use of
proxies, our loss boosts the speed of convergence and is robust against noisy
labels and outliers. At the same time, it allows embedding vectors of data to
interact with each other in its gradients to exploit data-to-data relations.
Our method is evaluated on four public benchmarks, where a standard network
trained with our loss achieves state-of-the-art performance and most quickly
converges.
- Abstract(参考訳): 既存のメトリック学習の損失は、ペアベースとプロキシベースという2つのクラスに分類できる。
前者のクラスは、データポイント間のきめ細かい意味関係を活用できるが、トレーニングの複雑さが高いため、一般的に収束が遅くなる。
対照的に、後者のクラスは高速で信頼性の高い収束を可能にするが、リッチなデータ対データ関係は考慮できない。
本稿では、ペアとプロキシの両方の手法の利点を生かし、それらの制約を克服する新しいプロキシベースの損失を提案する。
プロキシの使用により、私たちの損失は収束のスピードを高め、ノイズの多いラベルや外れ値に対して堅牢です。
同時に、データの埋め込みベクターを勾配で相互に相互作用させ、データ対データ関係を利用することができる。
この手法は4つのベンチマークで評価され、標準ネットワークが最先端のパフォーマンスを達成し、最も高速に収束する。
関連論文リスト
- JointMatch: A Unified Approach for Diverse and Collaborative
Pseudo-Labeling to Semi-Supervised Text Classification [65.268245109828]
半教師付きテキスト分類(SSTC)は、ラベルのないデータを活用する能力によって注目を集めている。
擬似ラベルに基づく既存のアプローチは、擬似ラベルバイアスと誤り蓄積の問題に悩まされる。
我々は、最近の半教師付き学習からアイデアを統一することでこれらの課題に対処する、SSTCの総合的なアプローチであるJointMatchを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:43:35Z) - Outlier Robust Adversarial Training [57.06824365801612]
本研究では,アウトリー・ロバスト・アドバイザリアル・トレーニング(ORAT)を紹介する。
ORATは、強靭なランクに基づく損失関数を持つ対向訓練の2レベル最適化の定式化に基づいている。
ORATの学習目的はバイナリ分類における$mathcalH$-consistencyを満たすことが示され、これは敵の0/1損失に対する適切なサロゲートとして確立されている。
論文 参考訳(メタデータ) (2023-09-10T21:36:38Z) - Deep Metric Learning with Soft Orthogonal Proxies [1.823505080809275]
本稿では,プロキシにソフト直交性(SO)制約を導入する新しいアプローチを提案する。
提案手法では,DMLの目的と合わせて,画像からコンテキスト特徴を抽出するエンコーダとして,データ効率の良い画像変換器(DeiT)を利用する。
提案手法が最先端手法よりも有意なマージンで優れていることを示す。
論文 参考訳(メタデータ) (2023-06-22T17:22:15Z) - SuSana Distancia is all you need: Enforcing class separability in metric
learning via two novel distance-based loss functions for few-shot image
classification [0.9236074230806579]
本稿では,少数のデータ間のクラス内距離とクラス間距離を調べることで,埋め込みベクトルの重要性を考慮に入れた2つの損失関数を提案する。
以上の結果から,miniImagenNetベンチマークの精度は,他のメトリクスベースの数ショット学習手法に比べて2%向上した。
論文 参考訳(メタデータ) (2023-05-15T23:12:09Z) - Robust Calibrate Proxy Loss for Deep Metric Learning [6.784952050036532]
本稿では、実際のサンプル情報を用いて、プロキシベースの損失の類似性計算を改善するCalibrate Proxy構造を提案する。
提案手法は,正規データセットと雑音データセットの両方において,一般的に使用されるプロキシベース損失の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2023-04-06T02:43:10Z) - Hierarchical Proxy-based Loss for Deep Metric Learning [32.10423536428467]
プロキシベースのメトリック学習の損失は、高速収束とトレーニングの複雑さが低いため、ペアベースの損失よりも優れている。
我々は,この暗黙の階層を,プロキシに階層構造を課すことで活用するフレームワークを提案する。
その結果、階層型プロキシベースの損失フレームワークは、既存のプロキシベースの損失のパフォーマンスを改善します。
論文 参考訳(メタデータ) (2021-03-25T00:38:33Z) - Learning from Similarity-Confidence Data [94.94650350944377]
類似度信頼性(Sconf)データから学習する新しい弱監督学習問題について検討する。
本研究では,Sconfデータのみから計算可能な分類リスクの非バイアス推定器を提案し,推定誤差境界が最適収束率を達成することを示す。
論文 参考訳(メタデータ) (2021-02-13T07:31:16Z) - Adaptive additive classification-based loss for deep metric learning [0.0]
分類に基づくディープメトリック学習において,既存の適応マージンの拡張を提案する。
コンバージェンスを高速化し、コードの複雑さを従来の最先端よりも小さくすることで、私たちの成果が得られました。
論文 参考訳(メタデータ) (2020-06-25T20:45:22Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Towards Certified Robustness of Distance Metric Learning [53.96113074344632]
我々は,距離学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆のマージンを付与することを提唱する。
アルゴリズム的ロバスト性の理論手法を用いることにより,拡張マージンは一般化能力に有益であることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:51:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。