論文の概要: Deep Divergence Learning
- arxiv url: http://arxiv.org/abs/2005.02612v1
- Date: Wed, 6 May 2020 06:43:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 04:56:13.752098
- Title: Deep Divergence Learning
- Title(参考訳): 深層多様性学習
- Authors: Kubra Cilingir, Rachel Manzelli, Brian Kulis
- Abstract要約: 本稿では,ニューラルネットワークを用いた関数型ブレグマン発散の学習とパラメータ化に基づくディープブレグマン発散について紹介する。
特に、分布を比較するために、ディープメトリックラーニング、カーネルメトリックラーニング、マハラノビスメトリックラーニング、モーメントマッチング機能がどのように現れるかを示す。
次に、一般関数型Bregman分散学習のためのディープラーニングフレームワークを説明し、この手法がベンチマークデータセット上で優れた性能を示すことを示す。
- 参考スコア(独自算出の注目度): 11.88774207521156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classical linear metric learning methods have recently been extended along
two distinct lines: deep metric learning methods for learning embeddings of the
data using neural networks, and Bregman divergence learning approaches for
extending learning Euclidean distances to more general divergence measures such
as divergences over distributions. In this paper, we introduce deep Bregman
divergences, which are based on learning and parameterizing functional Bregman
divergences using neural networks, and which unify and extend these existing
lines of work. We show in particular how deep metric learning formulations,
kernel metric learning, Mahalanobis metric learning, and moment-matching
functions for comparing distributions arise as special cases of these
divergences in the symmetric setting. We then describe a deep learning
framework for learning general functional Bregman divergences, and show in
experiments that this method yields superior performance on benchmark datasets
as compared to existing deep metric learning approaches. We also discuss novel
applications, including a semi-supervised distributional clustering problem,
and a new loss function for unsupervised data generation.
- Abstract(参考訳): 古典線形距離学習法は、ニューラルネットワークを用いたデータの埋め込みを学習するためのディープメトリック学習法と、学習ユークリッド距離を分布上の発散のようなより一般的な発散測度に拡張するブレグマン発散学習法である。
本稿では,ニューラルネットワークを用いた関数型ブレグマン発散の学習とパラメータ化に基づく深部ブレグマン発散を導入し,これらの既存の作業ラインを統一・拡張する。
特に、分布を比較するための深層学習形式、カーネル計量学習、マハラノビス計量学習、モーメントマッチング関数が、対称条件におけるこれらの分岐の特別な場合として現れることを示す。
次に,一般関数型Bregman分散学習のためのディープラーニングフレームワークについて述べるとともに,本手法が既存の深度メトリック学習手法と比較して,ベンチマークデータセット上で優れた性能を示すことを示す。
また,半教師あり分散クラスタリング問題や教師なしデータ生成のための新しい損失関数など,新しいアプリケーションについても検討した。
関連論文リスト
- Deep Metric Learning for Computer Vision: A Brief Overview [4.980117530293724]
深層ニューラルネットワークを最適化する目的関数は、入力データの強化された特徴表現を作成する上で重要な役割を果たす。
Deep Metric Learningは、データサンプル間の類似度を測定する方法の開発を目指している。
本稿では、この領域における最近の進歩の概要と最先端のDeep Metric Learningアプローチについて論じる。
論文 参考訳(メタデータ) (2023-12-01T21:53:36Z) - Nonparametric Linear Feature Learning in Regression Through Regularisation [0.0]
連立線形特徴学習と非パラメトリック関数推定のための新しい手法を提案する。
代替最小化を用いることで、データを反復的に回転させ、先頭方向との整合性を改善する。
提案手法の予測リスクは,最小限の仮定と明示的なレートで最小限のリスクに収束することを確認した。
論文 参考訳(メタデータ) (2023-07-24T12:52:55Z) - Learning Empirical Bregman Divergence for Uncertain Distance
Representation [3.9142982525021512]
本稿では,Bregman分散の根底にある凸関数のパラメータ化に基づくデータから直接,経験的Bregman分散を学習するための新しい手法を提案する。
提案手法は,他のSOTA深度学習法と比較して,一般的な5つのデータセットに対して効果的に動作し,特にパターン認識問題に対して有効である。
論文 参考訳(メタデータ) (2023-04-16T04:16:28Z) - Neural Bregman Divergences for Distance Learning [60.375385370556145]
本稿では,入力凸ニューラルネットワークを用いて任意のブレグマン分岐を微分可能な方法で学習するための新しいアプローチを提案する。
提案手法は,新しいタスクと以前に研究されたタスクのセットにおいて,より忠実に相違点を学習することを示す。
我々のテストはさらに、既知の非対称なタスクにまで拡張するが、Bregmanでないタスクでは、不特定性にもかかわらず、我々のメソッドは競争的に機能する。
論文 参考訳(メタデータ) (2022-06-09T20:53:15Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Deep Bregman Divergence for Contrastive Learning of Visual
Representations [4.994260049719745]
Deep Bregmanの発散は、ユークリッド距離を超えるニューラルネットワークを用いて、データポイントの発散を測定する。
我々は,機能的ブレグマンの発散に基づく追加ネットワークを訓練することにより,自己教師あり学習におけるコントラスト損失を高めることを目的としている。
論文 参考訳(メタデータ) (2021-09-15T17:44:40Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - Towards Interpretable Deep Metric Learning with Structural Matching [86.16700459215383]
より透過的な埋め込み学習のための深層解釈可能なメトリック学習(DIML)法を提案する。
本手法は,既製のバックボーンネットワークやメトリック学習手法に適用可能な,モデルに依存しない手法である。
我々は,CUB200-2011,Cars196,Stanford Online Productsの3つの大規模メトリクス学習ベンチマークで評価を行った。
論文 参考訳(メタデータ) (2021-08-12T17:59:09Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。