論文の概要: Spectral, Probabilistic, and Deep Metric Learning: Tutorial and Survey
- arxiv url: http://arxiv.org/abs/2201.09267v1
- Date: Sun, 23 Jan 2022 13:53:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 13:36:35.640093
- Title: Spectral, Probabilistic, and Deep Metric Learning: Tutorial and Survey
- Title(参考訳): スペクトル,確率,深層メトリック学習:チュートリアルと調査
- Authors: Benyamin Ghojogh, Ali Ghodsi, Fakhri Karray, Mark Crowley
- Abstract要約: アルゴリズムはスペクトル、確率、および深度メートル法学習に分けられる。
スペクトル法では、最初のスペクトルメトリック学習を含むデータの散乱を用いた手法から始める。
確率的手法では、入力空間と特徴空間の両方でクラスを折り畳むことから始める。
深層学習法では,まず再構成オートエンコーダと教師付き損失関数を導入する。
- 参考スコア(独自算出の注目度): 13.753161236029328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This is a tutorial and survey paper on metric learning. Algorithms are
divided into spectral, probabilistic, and deep metric learning. We first start
with the definition of distance metric, Mahalanobis distance, and generalized
Mahalanobis distance. In spectral methods, we start with methods using scatters
of data, including the first spectral metric learning, relevant methods to
Fisher discriminant analysis, Relevant Component Analysis (RCA), Discriminant
Component Analysis (DCA), and the Fisher-HSIC method. Then, large-margin metric
learning, imbalanced metric learning, locally linear metric adaptation, and
adversarial metric learning are covered. We also explain several kernel
spectral methods for metric learning in the feature space. We also introduce
geometric metric learning methods on the Riemannian manifolds. In probabilistic
methods, we start with collapsing classes in both input and feature spaces and
then explain the neighborhood component analysis methods, Bayesian metric
learning, information theoretic methods, and empirical risk minimization in
metric learning. In deep learning methods, we first introduce reconstruction
autoencoders and supervised loss functions for metric learning. Then, Siamese
networks and its various loss functions, triplet mining, and triplet sampling
are explained. Deep discriminant analysis methods, based on Fisher discriminant
analysis, are also reviewed. Finally, we introduce multi-modal deep metric
learning, geometric metric learning by neural networks, and few-shot metric
learning.
- Abstract(参考訳): これはメートル法学習に関するチュートリアルおよび調査論文である。
アルゴリズムはスペクトル、確率、および深度メートル法学習に分けられる。
まず、距離距離、マハラノビス距離、および一般化されたマハラノビス距離の定義から始める。
スペクトル法では,第1のスペクトルメトリック学習,フィッシャー判別分析に関連する手法,関連する成分分析(rca),判別成分分析(dca),フィッシャー-hsic法など,データの散乱を用いた手法から始める。
次に, 大規模計量学習, 不均衡計量学習, 局所線形計量適応, 対角距離学習について述べる。
また,特徴空間における計量学習のためのカーネルスペクトル法についても述べる。
また、リーマン多様体上の幾何学的距離学習法も導入する。
確率論的手法では,入力空間と特徴空間の両方でクラスが崩壊し,近隣成分分析法,ベイズ計量学習,情報理論法,計量学習における経験的リスク最小化について説明する。
深層学習法では,まず再構成オートエンコーダと教師付き損失関数を導入する。
次に、シャムネットワークとその損失関数、三重項マイニング、三重項サンプリングについて説明する。
また,フィッシャー判別分析に基づく深層判別分析手法についても概説した。
最後に、マルチモーダルな深度学習、ニューラルネットワークによる幾何メートル法学習、数ショットのメートル法学習を紹介する。
関連論文リスト
- Learning Empirical Bregman Divergence for Uncertain Distance
Representation [3.9142982525021512]
本稿では,Bregman分散の根底にある凸関数のパラメータ化に基づくデータから直接,経験的Bregman分散を学習するための新しい手法を提案する。
提案手法は,他のSOTA深度学習法と比較して,一般的な5つのデータセットに対して効果的に動作し,特にパターン認識問題に対して有効である。
論文 参考訳(メタデータ) (2023-04-16T04:16:28Z) - Neural Bregman Divergences for Distance Learning [60.375385370556145]
本稿では,入力凸ニューラルネットワークを用いて任意のブレグマン分岐を微分可能な方法で学習するための新しいアプローチを提案する。
提案手法は,新しいタスクと以前に研究されたタスクのセットにおいて,より忠実に相違点を学習することを示す。
我々のテストはさらに、既知の非対称なタスクにまで拡張するが、Bregmanでないタスクでは、不特定性にもかかわらず、我々のメソッドは競争的に機能する。
論文 参考訳(メタデータ) (2022-06-09T20:53:15Z) - Adaptive neighborhood Metric learning [184.95321334661898]
適応的近傍距離距離学習(ANML)という新しい距離距離距離距離距離距離学習アルゴリズムを提案する。
ANMLは線形埋め込みと深層埋め込みの両方を学ぶのに使うことができる。
本手法で提案するemphlog-exp平均関数は,深層学習手法をレビューするための新たな視点を与える。
論文 参考訳(メタデータ) (2022-01-20T17:26:37Z) - Towards Interpretable Deep Metric Learning with Structural Matching [86.16700459215383]
より透過的な埋め込み学習のための深層解釈可能なメトリック学習(DIML)法を提案する。
本手法は,既製のバックボーンネットワークやメトリック学習手法に適用可能な,モデルに依存しない手法である。
我々は,CUB200-2011,Cars196,Stanford Online Productsの3つの大規模メトリクス学習ベンチマークで評価を行った。
論文 参考訳(メタデータ) (2021-08-12T17:59:09Z) - Self-Supervised Metric Learning in Multi-View Data: A Downstream Task
Perspective [2.01243755755303]
マルチビューデータの文脈において,自己教師付きメトリック学習が下流タスクにどのような効果をもたらすかを検討する。
本稿では, 下流タスクにおいて, 目標距離がいくつかの望ましい特性を満たすことを示す。
本分析では,4つの下流タスクにおいて,自己教師付きメトリック学習による改善を特徴付ける。
論文 参考訳(メタデータ) (2021-06-14T02:34:33Z) - Towards Improved and Interpretable Deep Metric Learning via Attentive
Grouping [103.71992720794421]
グループ化は、様々な特徴の計算にディープ・メトリック・ラーニングでよく用いられてきた。
本稿では,任意のメトリクス学習フレームワークと柔軟に統合可能な,改良された解釈可能なグループ化手法を提案する。
論文 参考訳(メタデータ) (2020-11-17T19:08:24Z) - ECML: An Ensemble Cascade Metric Learning Mechanism towards Face
Verification [50.137924223702264]
特に、階層的メートル法学習はカスケード方式で実行され、不適合を緩和する。
顔の特徴分布特性を考慮し, 閉形解を用いたロバストなマハラノビス計量学習法(RMML)を提案する。
EC-RMMLは、顔認証のための最先端のメトリック学習法よりも優れている。
論文 参考訳(メタデータ) (2020-07-11T08:47:07Z) - Provably Robust Metric Learning [98.50580215125142]
既存のメトリクス学習アルゴリズムは、ユークリッド距離よりもロバストなメトリクスをもたらすことを示す。
対向摂動に対して頑健なマハラノビス距離を求めるための新しい距離学習アルゴリズムを提案する。
実験結果から,提案アルゴリズムは証明済みの堅牢な誤りと経験的堅牢な誤りの両方を改善した。
論文 参考訳(メタデータ) (2020-06-12T09:17:08Z) - Supervised Categorical Metric Learning with Schatten p-Norms [10.995886294197412]
そこで我々は,分類データにおける計量学習の問題に対処する手法としてCPML(CPML)を提案する。
我々は、データを表すためにValue Distance Metricを使用し、この表現に基づいて新しい距離を提案する。
次に、新しいメトリクスを効率的に学習する方法を示します。
論文 参考訳(メタデータ) (2020-02-26T01:17:12Z) - Variational Metric Scaling for Metric-Based Meta-Learning [37.392840869320686]
我々は,計量に基づくメタラーニングを原型的観点から再放送し,変分的メートル法スケーリングフレームワークを開発する。
提案手法は,事前学習のないエンドツーエンドであり,既存のメートル法に基づくメタアルゴリズムのためのシンプルなプラグイン・アンド・プレイモジュールとして使用できる。
論文 参考訳(メタデータ) (2019-12-26T09:00:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。