論文の概要: Semi-Supervised Metric Learning: A Deep Resurrection
- arxiv url: http://arxiv.org/abs/2105.05061v1
- Date: Mon, 10 May 2021 12:28:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 08:59:46.143238
- Title: Semi-Supervised Metric Learning: A Deep Resurrection
- Title(参考訳): 半教師付きメトリック学習:深い復活
- Authors: Ujjal Kr Dutta, Mehrtash Harandi, Chellu Chandra Sekhar
- Abstract要約: Semi-Supervised DML (SSDML) はいくつかのラベル付き例と豊富なラベルなし例を使ってメトリクスを学習しようとする。
例のペア間の親和性が最初に伝播するグラフベースのアプローチを提案する。
メトリクスパラメータには、より優れたパフォーマンスをもたらすため、メトリクスの制約を課します。
- 参考スコア(独自算出の注目度): 22.918651280720855
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Distance Metric Learning (DML) seeks to learn a discriminative embedding
where similar examples are closer, and dissimilar examples are apart. In this
paper, we address the problem of Semi-Supervised DML (SSDML) that tries to
learn a metric using a few labeled examples, and abundantly available unlabeled
examples. SSDML is important because it is infeasible to manually annotate all
the examples present in a large dataset. Surprisingly, with the exception of a
few classical approaches that learn a linear Mahalanobis metric, SSDML has not
been studied in the recent years, and lacks approaches in the deep SSDML
scenario. In this paper, we address this challenging problem, and revamp SSDML
with respect to deep learning. In particular, we propose a stochastic,
graph-based approach that first propagates the affinities between the pairs of
examples from labeled data, to that of the unlabeled pairs. The propagated
affinities are used to mine triplet based constraints for metric learning. We
impose orthogonality constraint on the metric parameters, as it leads to a
better performance by avoiding a model collapse.
- Abstract(参考訳): 距離メトリックラーニング(DML)は、類似の例が近づき、異なる例が別々にある差別的な埋め込みを学ぼうとする。
本稿では,いくつかのラベル付き例と豊富なラベル付き例を用いてメトリクスを学習しようとするSemi-Supervised DML(SSDML)の問題に対処する。
SSDMLは、大規模なデータセットに存在するすべての例を手動でアノテートすることができないため、重要である。
驚くべきことに、線形マハラノビス計量を学習する古典的なアプローチはいくつかあるが、SSDMLは近年研究されておらず、深いSSDMLシナリオにはアプローチがない。
本稿では,この課題に対処し,ディープラーニングに関してSSDMLを改良する。
特に,ラベル付きデータからラベル付きペアまでの例のペア間の親和性を最初に伝播する確率的グラフベースアプローチを提案する。
伝播親和性は、計量学習のための三重項に基づく制約をマイニングするために用いられる。
メトリクスパラメータに直交性制約を課すことで、モデルの崩壊を避けることでパフォーマンスが向上します。
関連論文リスト
- Characterizing Datapoints via Second-Split Forgetting [93.99363547536392]
我々は、オリジナルのトレーニング例が忘れられた後(もしあれば)のエポックを追跡する補足的メトリックである$$-second-$split$$forgetting$$$time$ (SSFT)を提案する。
例えば$mislabeled$の例はすぐに忘れられ、$rare$の例は比較的ゆっくりと忘れられています。
SSFTは、(i)間違ったラベル付きサンプルを識別し、その除去により一般化が向上し、(ii)障害モードに関する洞察を提供する。
論文 参考訳(メタデータ) (2022-10-26T21:03:46Z) - ELM: Embedding and Logit Margins for Long-Tail Learning [70.19006872113862]
長期学習はスキューラベル分布下での学習の問題である。
本稿では,ロジット空間にマージンを強制するための統一アプローチであるEmbedding and Logit Margins(ELM)を提案する。
The ELM method are shown to be well empirically, and result to tight more tail class embeddeds。
論文 参考訳(メタデータ) (2022-04-27T21:53:50Z) - Adaptive neighborhood Metric learning [184.95321334661898]
適応的近傍距離距離学習(ANML)という新しい距離距離距離距離距離距離学習アルゴリズムを提案する。
ANMLは線形埋め込みと深層埋め込みの両方を学ぶのに使うことができる。
本手法で提案するemphlog-exp平均関数は,深層学習手法をレビューするための新たな視点を与える。
論文 参考訳(メタデータ) (2022-01-20T17:26:37Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Exploring Adversarial Robustness of Deep Metric Learning [25.12224002984514]
DMLはディープニューラルネットワークアーキテクチャを使用して、入力のセマンティック埋め込みを学習する。
私たちは、ミニバッチのサンプルに依存しているメトリック損失の主な課題に取り組みます。
3つの一般的なDMLデータセットの実験を使用して、逆転精度の5-76倍の増加を実証する。
論文 参考訳(メタデータ) (2021-02-14T23:18:12Z) - Multimodal-Aware Weakly Supervised Metric Learning with Self-weighting
Triplet Loss [2.010312620798609]
MDaML (MultimoDal Aware weakly supervised Metric Learning) と呼ばれる新しい弱教師付きメトリック学習アルゴリズムを提案する。
MDaMLは、データ空間を複数のクラスタに分割し、各サンプルのローカルクラスタセンターとウェイトを割り当てる。
13のデータセットで実験を行い、提案したMDaMLの優位性を検証した。
論文 参考訳(メタデータ) (2021-02-03T07:27:05Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Unsupervised Deep Metric Learning via Orthogonality based Probabilistic
Loss [27.955068939695042]
既存の最先端のメトリック学習アプローチでは、メトリクスを学ぶためにクラスラベルが必要である。
クラスラベルを使わずにメトリクスを学習する教師なしアプローチを提案する。
擬似ラベルは、メートル法学習のガイドとなる3つの例を形成するために使用される。
論文 参考訳(メタデータ) (2020-08-22T17:13:33Z) - Positive semidefinite support vector regression metric learning [0.0]
これらのシナリオにおけるメートル法学習問題に対処するためにRAMLフレームワークが提案されている。
計量学習に必要な正の半定距離メートル法を学習することはできない。
弱さを克服するために2つのメソドを提案する。
論文 参考訳(メタデータ) (2020-08-18T04:45:59Z) - Robust and On-the-fly Dataset Denoising for Image Classification [72.10311040730815]
On-the-fly Data Denoising (ODD)は、間違ったラベルの例に対して堅牢だが、通常のトレーニングと比べて計算オーバーヘッドはほぼゼロである。
ODDはWebVisionやClothing1Mといった現実世界のデータセットを含む、幅広いデータセットで最先端の結果を達成することができる。
論文 参考訳(メタデータ) (2020-03-24T03:59:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。