論文の概要: Neural Bregman Divergences for Distance Learning
- arxiv url: http://arxiv.org/abs/2206.04763v1
- Date: Thu, 9 Jun 2022 20:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-13 15:03:23.845156
- Title: Neural Bregman Divergences for Distance Learning
- Title(参考訳): 遠隔学習のためのニューラルブレグマンダイバージェンス
- Authors: Fred Lu, Edward Raff, Francis Ferraro
- Abstract要約: 本稿では,入力凸ニューラルネットワークを用いて任意のベルグマン発散を微分可能な方法で学習する手法を提案する。
そこで、ニューラルブレグマン発散を学習する最初の方法を得るとともに、ブレグマン発散の多くの優れた数学的性質を継承する。
- 参考スコア(独自算出の注目度): 41.03778663275373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many metric learning tasks, such as triplet learning, nearest neighbor
retrieval, and visualization, are treated primarily as embedding tasks where
the ultimate metric is some variant of the Euclidean distance (e.g., cosine or
Mahalanobis), and the algorithm must learn to embed points into the pre-chosen
space. The study of non-Euclidean geometries or appropriateness is often not
explored, which we believe is due to a lack of tools for learning non-Euclidean
measures of distance. Under the belief that the use of asymmetric methods in
particular have lacked sufficient study, we propose a new approach to learning
arbitrary Bergman divergences in a differentiable manner via input convex
neural networks. Over a set of both new and previously studied tasks, including
asymmetric regression, ranking, and clustering, we demonstrate that our method
more faithfully learns divergences than prior Bregman learning approaches. In
doing so we obtain the first method for learning neural Bregman divergences and
with it inherit the many nice mathematical properties of Bregman divergences,
providing the foundation and tooling for better developing and studying
asymmetric distance learning.
- Abstract(参考訳): 三重項学習、近距離探索、可視化といった多くの計量学習タスクは、主にユークリッド距離(例えばコサインやマハラノビス)のある種の変種である埋め込みタスクとして扱われ、アルゴリズムはプレチョセン空間に点を埋め込むことを学ばなければならない。
非ユークリッド測地や適切性の研究は、しばしば研究されていないが、これは非ユークリッド測距離を学習するためのツールが不足しているためと考えられている。
特に非対称法の使用には十分な研究が不足しているという信念のもと,入力凸ニューラルネットワークを用いて任意のバーグマン発散を微分可能な方法で学習する新しい手法を提案する。
非対称回帰、ランク付け、クラスタリングを含む、これまで研究されてきた一連のタスクに対して、本手法が以前のブレグマン学習アプローチよりも多様性をより忠実に学習できることを実証する。
そこで我々は,ニューラルブレグマン発散を学習する最初の方法を得るとともに,ブレグマン発散の多くの数学的性質を継承し,非対称距離学習のより良い開発と研究のための基礎とツールを提供する。
関連論文リスト
- Disentangled Representation Learning with the Gromov-Monge Gap [65.73194652234848]
乱れのないデータから歪んだ表現を学習することは、機械学習における根本的な課題である。
本稿では,2次最適輸送に基づく非交叉表現学習手法を提案する。
提案手法の有効性を4つの標準ベンチマークで示す。
論文 参考訳(メタデータ) (2024-07-10T16:51:32Z) - DiffKendall: A Novel Approach for Few-Shot Learning with Differentiable
Kendall's Rank Correlation [16.038667928358763]
ほとんどショットラーニングは、ベースデータセットでトレーニングされたモデルを、それまでモデルで見られていなかった新しいタスクに適応することを目的としていない。
これはしばしば、新しいクラスのチャネルにまたがって、機能値の比較的均一な分布をもたらす。
特徴チャネルのランク付けの重要性は、幾何学的類似度指標よりも、数ショット学習においてより信頼性の高い指標であることが示される。
論文 参考訳(メタデータ) (2023-07-28T05:32:56Z) - Learning Empirical Bregman Divergence for Uncertain Distance
Representation [3.9142982525021512]
本稿では,Bregman分散の根底にある凸関数のパラメータ化に基づくデータから直接,経験的Bregman分散を学習するための新しい手法を提案する。
提案手法は,他のSOTA深度学習法と比較して,一般的な5つのデータセットに対して効果的に動作し,特にパターン認識問題に対して有効である。
論文 参考訳(メタデータ) (2023-04-16T04:16:28Z) - Learning Generalized Hybrid Proximity Representation for Image
Recognition [8.750658662419328]
画像認識のための幾何空間と確率空間の両方で距離メトリクスを学習できる新しい教師付き距離学習法を提案する。
ユークリッド空間における距離指標の学習に重点を置く従来の計量学習法とは対照的に,提案手法はハイブリッド手法でより優れた距離表現を学習することができる。
論文 参考訳(メタデータ) (2023-01-31T07:49:25Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Provably Robust Metric Learning [98.50580215125142]
既存のメトリクス学習アルゴリズムは、ユークリッド距離よりもロバストなメトリクスをもたらすことを示す。
対向摂動に対して頑健なマハラノビス距離を求めるための新しい距離学習アルゴリズムを提案する。
実験結果から,提案アルゴリズムは証明済みの堅牢な誤りと経験的堅牢な誤りの両方を改善した。
論文 参考訳(メタデータ) (2020-06-12T09:17:08Z) - Towards Certified Robustness of Distance Metric Learning [53.96113074344632]
我々は,距離学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆のマージンを付与することを提唱する。
アルゴリズム的ロバスト性の理論手法を用いることにより,拡張マージンは一般化能力に有益であることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:51:53Z) - Meta-learning with Stochastic Linear Bandits [120.43000970418939]
我々は、よく知られたOFULアルゴリズムの正規化バージョンを実装するバンディットアルゴリズムのクラスを考える。
我々は,タスク数の増加とタスク分散の分散が小さくなると,タスクを個別に学習する上で,我々の戦略が大きな優位性を持つことを理論的および実験的に示す。
論文 参考訳(メタデータ) (2020-05-18T08:41:39Z) - Deep Divergence Learning [11.88774207521156]
本稿では,ニューラルネットワークを用いた関数型ブレグマン発散の学習とパラメータ化に基づくディープブレグマン発散について紹介する。
特に、分布を比較するために、ディープメトリックラーニング、カーネルメトリックラーニング、マハラノビスメトリックラーニング、モーメントマッチング機能がどのように現れるかを示す。
次に、一般関数型Bregman分散学習のためのディープラーニングフレームワークを説明し、この手法がベンチマークデータセット上で優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2020-05-06T06:43:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。