論文の概要: Neural Bregman Divergences for Distance Learning
- arxiv url: http://arxiv.org/abs/2206.04763v2
- Date: Mon, 20 Nov 2023 22:37:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 06:05:58.402896
- Title: Neural Bregman Divergences for Distance Learning
- Title(参考訳): 遠隔学習のためのニューラルブレグマンダイバージェンス
- Authors: Fred Lu, Edward Raff, Francis Ferraro
- Abstract要約: 本稿では,入力凸ニューラルネットワークを用いて任意のブレグマン分岐を微分可能な方法で学習するための新しいアプローチを提案する。
提案手法は,新しいタスクと以前に研究されたタスクのセットにおいて,より忠実に相違点を学習することを示す。
我々のテストはさらに、既知の非対称なタスクにまで拡張するが、Bregmanでないタスクでは、不特定性にもかかわらず、我々のメソッドは競争的に機能する。
- 参考スコア(独自算出の注目度): 60.375385370556145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many metric learning tasks, such as triplet learning, nearest neighbor
retrieval, and visualization, are treated primarily as embedding tasks where
the ultimate metric is some variant of the Euclidean distance (e.g., cosine or
Mahalanobis), and the algorithm must learn to embed points into the pre-chosen
space. The study of non-Euclidean geometries is often not explored, which we
believe is due to a lack of tools for learning non-Euclidean measures of
distance. Recent work has shown that Bregman divergences can be learned from
data, opening a promising approach to learning asymmetric distances. We propose
a new approach to learning arbitrary Bergman divergences in a differentiable
manner via input convex neural networks and show that it overcomes significant
limitations of previous works. We also demonstrate that our method more
faithfully learns divergences over a set of both new and previously studied
tasks, including asymmetric regression, ranking, and clustering. Our tests
further extend to known asymmetric, but non-Bregman tasks, where our method
still performs competitively despite misspecification, showing the general
utility of our approach for asymmetric learning.
- Abstract(参考訳): 三重項学習、近距離探索、可視化といった多くの計量学習タスクは、主にユークリッド距離(例えばコサインやマハラノビス)のある種の変種である埋め込みタスクとして扱われ、アルゴリズムはプレチョセン空間に点を埋め込むことを学ばなければならない。
非ユークリッド測地の研究はしばしば行われず、これは非ユークリッド測地を遠距離で学ぶための道具が不足しているためと考えられている。
最近の研究は、ブレグマンの発散がデータから学べることを示し、非対称距離を学習するための有望なアプローチを開いた。
入力凸ニューラルネットワークを用いて任意のベルグマンの発散を微分可能な方法で学習する新しい手法を提案する。
また,本手法は非対称回帰,ランキング,クラスタリングなど,新しいタスクと以前に研究されたタスクのセットにおいて,より忠実に相違を学習することを示す。
我々のテストは既知の非対称だが非ブレグマンタスクにも拡張され、この手法は誤特定にもかかわらず競争的に動作し、非対称学習へのアプローチの汎用的有用性を示している。
関連論文リスト
- Disentangled Representation Learning with the Gromov-Monge Gap [65.73194652234848]
乱れのないデータから歪んだ表現を学習することは、機械学習における根本的な課題である。
本稿では,2次最適輸送に基づく非交叉表現学習手法を提案する。
提案手法の有効性を4つの標準ベンチマークで示す。
論文 参考訳(メタデータ) (2024-07-10T16:51:32Z) - DiffKendall: A Novel Approach for Few-Shot Learning with Differentiable
Kendall's Rank Correlation [16.038667928358763]
ほとんどショットラーニングは、ベースデータセットでトレーニングされたモデルを、それまでモデルで見られていなかった新しいタスクに適応することを目的としていない。
これはしばしば、新しいクラスのチャネルにまたがって、機能値の比較的均一な分布をもたらす。
特徴チャネルのランク付けの重要性は、幾何学的類似度指標よりも、数ショット学習においてより信頼性の高い指標であることが示される。
論文 参考訳(メタデータ) (2023-07-28T05:32:56Z) - Learning Empirical Bregman Divergence for Uncertain Distance
Representation [3.9142982525021512]
本稿では,Bregman分散の根底にある凸関数のパラメータ化に基づくデータから直接,経験的Bregman分散を学習するための新しい手法を提案する。
提案手法は,他のSOTA深度学習法と比較して,一般的な5つのデータセットに対して効果的に動作し,特にパターン認識問題に対して有効である。
論文 参考訳(メタデータ) (2023-04-16T04:16:28Z) - Learning Generalized Hybrid Proximity Representation for Image
Recognition [8.750658662419328]
画像認識のための幾何空間と確率空間の両方で距離メトリクスを学習できる新しい教師付き距離学習法を提案する。
ユークリッド空間における距離指標の学習に重点を置く従来の計量学習法とは対照的に,提案手法はハイブリッド手法でより優れた距離表現を学習することができる。
論文 参考訳(メタデータ) (2023-01-31T07:49:25Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Provably Robust Metric Learning [98.50580215125142]
既存のメトリクス学習アルゴリズムは、ユークリッド距離よりもロバストなメトリクスをもたらすことを示す。
対向摂動に対して頑健なマハラノビス距離を求めるための新しい距離学習アルゴリズムを提案する。
実験結果から,提案アルゴリズムは証明済みの堅牢な誤りと経験的堅牢な誤りの両方を改善した。
論文 参考訳(メタデータ) (2020-06-12T09:17:08Z) - Towards Certified Robustness of Distance Metric Learning [53.96113074344632]
我々は,距離学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆のマージンを付与することを提唱する。
アルゴリズム的ロバスト性の理論手法を用いることにより,拡張マージンは一般化能力に有益であることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:51:53Z) - Meta-learning with Stochastic Linear Bandits [120.43000970418939]
我々は、よく知られたOFULアルゴリズムの正規化バージョンを実装するバンディットアルゴリズムのクラスを考える。
我々は,タスク数の増加とタスク分散の分散が小さくなると,タスクを個別に学習する上で,我々の戦略が大きな優位性を持つことを理論的および実験的に示す。
論文 参考訳(メタデータ) (2020-05-18T08:41:39Z) - Deep Divergence Learning [11.88774207521156]
本稿では,ニューラルネットワークを用いた関数型ブレグマン発散の学習とパラメータ化に基づくディープブレグマン発散について紹介する。
特に、分布を比較するために、ディープメトリックラーニング、カーネルメトリックラーニング、マハラノビスメトリックラーニング、モーメントマッチング機能がどのように現れるかを示す。
次に、一般関数型Bregman分散学習のためのディープラーニングフレームワークを説明し、この手法がベンチマークデータセット上で優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2020-05-06T06:43:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。