論文の概要: Towards Certified Robustness of Distance Metric Learning
- arxiv url: http://arxiv.org/abs/2006.05945v2
- Date: Tue, 16 Aug 2022 15:16:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 04:49:04.072709
- Title: Towards Certified Robustness of Distance Metric Learning
- Title(参考訳): 距離メトリック学習のロバスト性認定に向けて
- Authors: Xiaochen Yang, Yiwen Guo, Mingzhi Dong, Jing-Hao Xue
- Abstract要約: 我々は,距離学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆のマージンを付与することを提唱する。
アルゴリズム的ロバスト性の理論手法を用いることにより,拡張マージンは一般化能力に有益であることを示す。
- 参考スコア(独自算出の注目度): 53.96113074344632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Metric learning aims to learn a distance metric such that semantically
similar instances are pulled together while dissimilar instances are pushed
away. Many existing methods consider maximizing or at least constraining a
distance margin in the feature space that separates similar and dissimilar
pairs of instances to guarantee their generalization ability. In this paper, we
advocate imposing an adversarial margin in the input space so as to improve the
generalization and robustness of metric learning algorithms. We first show
that, the adversarial margin, defined as the distance between training
instances and their closest adversarial examples in the input space, takes
account of both the distance margin in the feature space and the correlation
between the metric and triplet constraints. Next, to enhance robustness to
instance perturbation, we propose to enlarge the adversarial margin through
minimizing a derived novel loss function termed the perturbation loss. The
proposed loss can be viewed as a data-dependent regularizer and easily plugged
into any existing metric learning methods. Finally, we show that the enlarged
margin is beneficial to the generalization ability by using the theoretical
technique of algorithmic robustness. Experimental results on 16 datasets
demonstrate the superiority of the proposed method over existing
state-of-the-art methods in both discrimination accuracy and robustness against
possible noise.
- Abstract(参考訳): メトリクス学習は、意味的に類似したインスタンスがまとめられ、異種インスタンスが押し出されるような距離メトリックを学習することを目的としている。
多くの既存の手法では、それらの一般化能力を保証するために類似のインスタンスと異なるインスタンスを分離する特徴空間における距離マージンを最大化または少なくとも制限することを検討している。
本稿では,計量学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆マージンを課すことを提唱する。
まず、入力空間におけるトレーニングインスタンスと最も近い逆の例の間の距離として定義される逆マージンが、特徴空間における距離マージンと計量と三重項の制約の相関を考慮に入れていることを示す。
次に,インスタンスの摂動に対する堅牢性を高めるために,摂動損失と呼ばれる新規な損失関数を最小化することにより,対向的マージンを拡大することを提案する。
提案する損失はデータ依存正規化子と見なすことができ、既存のメトリック学習メソッドに簡単に接続できる。
最後に,アルゴリズム的ロバスト性の理論手法を用いて,拡張マージンが一般化能力に有益であることを示す。
16のデータセットに対する実験結果から,既存の最先端手法に比べて,ノイズに対する識別精度と頑健性の両方において,提案手法の優位性が示された。
関連論文リスト
- Anti-Collapse Loss for Deep Metric Learning Based on Coding Rate Metric [99.19559537966538]
DMLは、分類、クラスタリング、検索といった下流タスクのための識別可能な高次元埋め込み空間を学習することを目的としている。
埋め込み空間の構造を維持し,特徴の崩壊を避けるために,反崩壊損失と呼ばれる新しい損失関数を提案する。
ベンチマークデータセットの総合実験により,提案手法が既存の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-03T13:44:20Z) - Hyp-UML: Hyperbolic Image Retrieval with Uncertainty-aware Metric
Learning [8.012146883983227]
メトリクス学習は画像検索と分類の訓練において重要な役割を果たしている。
双曲的埋め込みは階層的なデータ構造を表現するのにより効果的である。
本稿では,一般的なコントラスト学習と従来のマージンに基づく距離学習の2種類の不確実性を考慮した距離学習を提案する。
論文 参考訳(メタデータ) (2023-10-12T15:00:06Z) - Deep Metric Learning with Soft Orthogonal Proxies [1.823505080809275]
本稿では,プロキシにソフト直交性(SO)制約を導入する新しいアプローチを提案する。
提案手法では,DMLの目的と合わせて,画像からコンテキスト特徴を抽出するエンコーダとして,データ効率の良い画像変換器(DeiT)を利用する。
提案手法が最先端手法よりも有意なマージンで優れていることを示す。
論文 参考訳(メタデータ) (2023-06-22T17:22:15Z) - Learning Empirical Bregman Divergence for Uncertain Distance
Representation [3.9142982525021512]
本稿では,Bregman分散の根底にある凸関数のパラメータ化に基づくデータから直接,経験的Bregman分散を学習するための新しい手法を提案する。
提案手法は,他のSOTA深度学習法と比較して,一般的な5つのデータセットに対して効果的に動作し,特にパターン認識問題に対して有効である。
論文 参考訳(メタデータ) (2023-04-16T04:16:28Z) - Learning Generalized Hybrid Proximity Representation for Image
Recognition [8.750658662419328]
画像認識のための幾何空間と確率空間の両方で距離メトリクスを学習できる新しい教師付き距離学習法を提案する。
ユークリッド空間における距離指標の学習に重点を置く従来の計量学習法とは対照的に,提案手法はハイブリッド手法でより優れた距離表現を学習することができる。
論文 参考訳(メタデータ) (2023-01-31T07:49:25Z) - Neural Bregman Divergences for Distance Learning [60.375385370556145]
本稿では,入力凸ニューラルネットワークを用いて任意のブレグマン分岐を微分可能な方法で学習するための新しいアプローチを提案する。
提案手法は,新しいタスクと以前に研究されたタスクのセットにおいて,より忠実に相違点を学習することを示す。
我々のテストはさらに、既知の非対称なタスクにまで拡張するが、Bregmanでないタスクでは、不特定性にもかかわらず、我々のメソッドは競争的に機能する。
論文 参考訳(メタデータ) (2022-06-09T20:53:15Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Rethink Maximum Mean Discrepancy for Domain Adaptation [77.2560592127872]
本論文は,(1)最大平均距離の最小化は,それぞれソースとクラス内距離の最大化に等しいが,その差を暗黙の重みと共同で最小化し,特徴判別性は低下する,という2つの本質的な事実を理論的に証明する。
いくつかのベンチマークデータセットの実験は、理論的な結果の有効性を証明しただけでなく、我々のアプローチが比較した最先端手法よりも大幅に向上できることを実証した。
論文 参考訳(メタデータ) (2020-07-01T18:25:10Z) - Provably Robust Metric Learning [98.50580215125142]
既存のメトリクス学習アルゴリズムは、ユークリッド距離よりもロバストなメトリクスをもたらすことを示す。
対向摂動に対して頑健なマハラノビス距離を求めるための新しい距離学習アルゴリズムを提案する。
実験結果から,提案アルゴリズムは証明済みの堅牢な誤りと経験的堅牢な誤りの両方を改善した。
論文 参考訳(メタデータ) (2020-06-12T09:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。