論文の概要: Unsupervised Deep Metric Learning via Orthogonality based Probabilistic
Loss
- arxiv url: http://arxiv.org/abs/2008.09880v1
- Date: Sat, 22 Aug 2020 17:13:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 08:13:53.835223
- Title: Unsupervised Deep Metric Learning via Orthogonality based Probabilistic
Loss
- Title(参考訳): 直交性に基づく確率損失による教師なし深度学習
- Authors: Ujjal Kr Dutta, Mehrtash Harandi and Chellu Chandra Sekhar
- Abstract要約: 既存の最先端のメトリック学習アプローチでは、メトリクスを学ぶためにクラスラベルが必要である。
クラスラベルを使わずにメトリクスを学習する教師なしアプローチを提案する。
擬似ラベルは、メートル法学習のガイドとなる3つの例を形成するために使用される。
- 参考スコア(独自算出の注目度): 27.955068939695042
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Metric learning is an important problem in machine learning. It aims to group
similar examples together. Existing state-of-the-art metric learning approaches
require class labels to learn a metric. As obtaining class labels in all
applications is not feasible, we propose an unsupervised approach that learns a
metric without making use of class labels. The lack of class labels is
compensated by obtaining pseudo-labels of data using a graph-based clustering
approach. The pseudo-labels are used to form triplets of examples, which guide
the metric learning. We propose a probabilistic loss that minimizes the chances
of each triplet violating an angular constraint. A weight function, and an
orthogonality constraint in the objective speeds up the convergence and avoids
a model collapse. We also provide a stochastic formulation of our method to
scale up to large-scale datasets. Our studies demonstrate the competitiveness
of our approach against state-of-the-art methods. We also thoroughly study the
effect of the different components of our method.
- Abstract(参考訳): メトリクス学習は機械学習において重要な問題である。
同様の例をまとめることを目的としている。
既存の最先端のメトリック学習アプローチでは、クラスラベルでメトリクスを学習する必要がある。
全てのアプリケーションでクラスラベルを取得することは不可能であるため、クラスラベルを使わずにメトリクスを学習する教師なしアプローチを提案する。
クラスラベルの欠如は、グラフベースのクラスタリングアプローチを使用して疑似ラベルデータを取得することで補償される。
擬似ラベルは、メトリクス学習を導く例のトリプレットを形成するために使用される。
我々は、角制約に違反する各三重項の確率を最小化する確率的損失を提案する。
重み関数と対象の直交制約は収束を加速させ、モデルの崩壊を避ける。
また,大規模データセットにスケールアップするための確率的定式化も提供する。
本研究は,最先端手法に対するアプローチの競争力を示す。
また,本手法の異なる成分の影響についても徹底的に検討した。
関連論文リスト
- Partial-Label Regression [54.74984751371617]
部分ラベル学習は、弱い教師付き学習環境であり、各トレーニング例に候補ラベルのセットをアノテートすることができる。
部分ラベル学習に関する従来の研究は、候補ラベルがすべて離散的な分類設定のみに焦点を当てていた。
本稿では,各トレーニング例に実値付き候補ラベルのセットをアノテートした部分ラベル回帰を初めて検討する。
論文 参考訳(メタデータ) (2023-06-15T09:02:24Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Are labels informative in semi-supervised learning? -- Estimating and
leveraging the missing-data mechanism [4.675583319625962]
半教師付き学習は、ラベルのないデータを利用して機械学習モデルを改善するための強力な技術である。
これは、あるクラスが他のクラスよりもラベル付けされる可能性が高い場合に発生する、情報的ラベルの存在に影響される可能性がある。
本稿では,データ不足のメカニズムを推定し,逆確率重み付けを用いてSSLアルゴリズムを劣化させることにより,この問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T09:18:46Z) - SLaM: Student-Label Mixing for Distillation with Unlabeled Examples [15.825078347452024]
学生ラベル混合(SLaM)と呼ばれる未ラベル例を用いた知識蒸留の原理的手法を提案する。
SLaMは、いくつかの標準ベンチマークで評価することで、従来のアプローチよりも一貫して改善されている。
ランダムな分類雑音下でハーフスペースを学習する際の最もよく知られたサンプル複雑性を改善するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-08T00:14:44Z) - Learning from Multiple Unlabeled Datasets with Partial Risk
Regularization [80.54710259664698]
本稿では,クラスラベルを使わずに正確な分類器を学習することを目的とする。
まず、与えられたラベルのない集合から推定できる分類リスクの偏りのない推定器を導出する。
その結果、経験的リスクがトレーニング中に負になるにつれて、分類器が過度に適合する傾向があることが判明した。
実験により,本手法は,複数の未ラベル集合から学習する最先端の手法を効果的に緩和し,性能を向上することを示した。
論文 参考訳(メタデータ) (2022-07-04T16:22:44Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - It Takes Two to Tango: Mixup for Deep Metric Learning [16.60855728302127]
最先端の手法は、主に高度な損失関数や鉱業戦略に焦点を当てている。
Mixupは、2つ以上のサンプルと対応するターゲットラベルを同時に補間する強力なデータ拡張アプローチである。
入力、中間表現、埋め込みを対象ラベルと組み合わせることで、表現を著しく改善し、4つのベンチマークデータセットにおける最先端のメトリック学習方法より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-09T11:20:03Z) - Semi-Supervised Learning with Meta-Gradient [123.26748223837802]
半教師付き学習における簡単なメタ学習アルゴリズムを提案する。
その結果,提案アルゴリズムは最先端の手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-07-08T08:48:56Z) - Not All Unlabeled Data are Equal: Learning to Weight Data in
Semi-supervised Learning [135.89676456312247]
ラベル付けされていないすべての例に対して、異なるウェイトを使用する方法を示します。
影響関数に基づいたアルゴリズムを用いて重み付けを調整する。
本手法は,半教師付き画像および言語分類タスクにおける最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-07-02T17:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。