論文の概要: Deep Metric Learning Meets Deep Clustering: An Novel Unsupervised
Approach for Feature Embedding
- arxiv url: http://arxiv.org/abs/2009.04091v1
- Date: Wed, 9 Sep 2020 04:02:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 11:39:00.715799
- Title: Deep Metric Learning Meets Deep Clustering: An Novel Unsupervised
Approach for Feature Embedding
- Title(参考訳): Deep Metric LearningがDeep Clusteringを発表 - 機能埋め込みの新しい教師なしアプローチ
- Authors: Binh X. Nguyen, Binh D. Nguyen, Gustavo Carneiro, Erman Tjiputra,
Quang D. Tran, Thanh-Toan Do
- Abstract要約: Unsupervised Deep Distance Metric Learning (UDML)は、ラベルのないデータセットから埋め込み空間のサンプル類似性を学ぶことを目的としている。
従来のUDML法は通常、正と負のサンプルの採掘を必要とする三重項損失または対損失を用いる。
しかし、ラベル情報が入手できないため、教師なしの設定ではこれは難しい。
本稿では,その課題を克服する新しいUDML手法を提案する。
- 参考スコア(独自算出の注目度): 32.8693763689033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Deep Distance Metric Learning (UDML) aims to learn sample
similarities in the embedding space from an unlabeled dataset. Traditional UDML
methods usually use the triplet loss or pairwise loss which requires the mining
of positive and negative samples w.r.t. anchor data points. This is, however,
challenging in an unsupervised setting as the label information is not
available. In this paper, we propose a new UDML method that overcomes that
challenge. In particular, we propose to use a deep clustering loss to learn
centroids, i.e., pseudo labels, that represent semantic classes. During
learning, these centroids are also used to reconstruct the input samples. It
hence ensures the representativeness of centroids - each centroid represents
visually similar samples. Therefore, the centroids give information about
positive (visually similar) and negative (visually dissimilar) samples. Based
on pseudo labels, we propose a novel unsupervised metric loss which enforces
the positive concentration and negative separation of samples in the embedding
space. Experimental results on benchmarking datasets show that the proposed
approach outperforms other UDML methods.
- Abstract(参考訳): unsupervised deep distance metric learning (udml) はラベルなしデータセットから埋め込み空間のサンプル類似性を学ぶことを目的としている。
伝統的なudml法は、通常、正および負のサンプルw.r.t.アンカーデータポイントのマイニングを必要とする三重項損失または対方向損失を使用する。
しかし、ラベル情報が入手できないため、教師なしの設定ではこれは難しい。
本稿では,その課題を克服する新しいUDML手法を提案する。
特に,セマンティッククラスを表すセンタロイド(擬似ラベル)を学習するために,深いクラスタリング損失を用いることを提案する。
学習中、これらのセントロイドは入力サンプルの再構築にも用いられる。
したがって、セントロイドの代表性を保証する - 各セントロイドは視覚的に類似したサンプルを表す。
したがって、セントロイドは正(視覚的に類似)と負(視覚的に異な)サンプルに関する情報を与える。
擬似ラベルに基づいて, 埋込空間における試料の正の濃度と負の分離を強制する非教師付き計量損失を提案する。
ベンチマークデータセットの実験結果は、提案手法が他のUDML手法よりも優れていることを示している。
関連論文リスト
- Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Manifold DivideMix: A Semi-Supervised Contrastive Learning Framework for
Severe Label Noise [4.90148689564172]
実世界のデータセットには、データセットのどのクラスにも意味のないノイズの多いラベルサンプルが含まれている。
最先端の手法の多くは、IDラベル付きノイズサンプルを半教師付き学習のためのラベルなしデータとして利用する。
自己指導型トレーニングの利点を生かして,すべてのトレーニングデータからの情報を活用することを提案する。
論文 参考訳(メタデータ) (2023-08-13T23:33:33Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning [69.81438976273866]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - CEREAL: Few-Sample Clustering Evaluation [4.569028973407756]
限られたラベルでクラスタリング品質を推定する未解決の問題に焦点をあてる。
本稿では,少数のクラスタリング評価のための総合的なフレームワークCEREALを紹介する。
その結果,CEREALはサンプリング基準値と比較して絶対誤差曲線下での面積を最大57%削減できることがわかった。
論文 参考訳(メタデータ) (2022-09-30T19:52:41Z) - Negative Selection by Clustering for Contrastive Learning in Human
Activity Recognition [5.351176836203563]
我々は,HAR(Human Activity Recognition)におけるクラスタリングによるネガティブな選択を行う新しいコントラスト学習フレームワークを提案する。
SimCLRと比較して、教師なしクラスタリング法を用いて、対照的な損失関数の負のペアを再定義し、同じクラスタの他のサンプルを隠蔽するソフトラベルを生成し、負のサンプルとして扱うことを避ける。
評価指標として平均F1スコアを用いて,USC-HAD,MotionSense,UCI-HARの3つのベンチマークデータセット上でClusterCLHARを評価する。
論文 参考訳(メタデータ) (2022-03-23T06:54:16Z) - Guided Point Contrastive Learning for Semi-supervised Point Cloud
Semantic Segmentation [90.2445084743881]
そこで本研究では,モデル性能を向上させるために,未ラベルの点群をトレーニングに採用するための半教師付き点群セマンティックセマンティックセマンティックセマンティクスを提案する。
近年の自己監督型タスクのコントラスト損失に触発されて,特徴表現とモデル一般化能力を高めるためのガイド付きポイントコントラスト損失を提案する。
論文 参考訳(メタデータ) (2021-10-15T16:38:54Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Multimodal-Aware Weakly Supervised Metric Learning with Self-weighting
Triplet Loss [2.010312620798609]
MDaML (MultimoDal Aware weakly supervised Metric Learning) と呼ばれる新しい弱教師付きメトリック学習アルゴリズムを提案する。
MDaMLは、データ空間を複数のクラスタに分割し、各サンプルのローカルクラスタセンターとウェイトを割り当てる。
13のデータセットで実験を行い、提案したMDaMLの優位性を検証した。
論文 参考訳(メタデータ) (2021-02-03T07:27:05Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。