論文の概要: Selective Pseudo-label Clustering
- arxiv url: http://arxiv.org/abs/2107.10692v1
- Date: Thu, 22 Jul 2021 13:56:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-23 12:49:58.782964
- Title: Selective Pseudo-label Clustering
- Title(参考訳): 擬似ラベルクラスタリング
- Authors: Louis Mahon, Thomas Lukasiewicz
- Abstract要約: ディープニューラルネットワーク(DNN)は、高次元データをクラスタリングする困難なタスクに対処する手段を提供する。
DNNのトレーニングに最も自信のある擬似ラベルのみを用いる選択的擬似ラベルクラスタリングを提案する。
新しいアプローチは、3つの人気のある画像データセット上で最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 42.19193184852487
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) offer a means of addressing the challenging task
of clustering high-dimensional data. DNNs can extract useful features, and so
produce a lower dimensional representation, which is more amenable to
clustering techniques. As clustering is typically performed in a purely
unsupervised setting, where no training labels are available, the question then
arises as to how the DNN feature extractor can be trained. The most accurate
existing approaches combine the training of the DNN with the clustering
objective, so that information from the clustering process can be used to
update the DNN to produce better features for clustering. One problem with this
approach is that these ``pseudo-labels'' produced by the clustering algorithm
are noisy, and any errors that they contain will hurt the training of the DNN.
In this paper, we propose selective pseudo-label clustering, which uses only
the most confident pseudo-labels for training the~DNN. We formally prove the
performance gains under certain conditions. Applied to the task of image
clustering, the new approach achieves a state-of-the-art performance on three
popular image datasets. Code is available at
https://github.com/Lou1sM/clustering.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、高次元データをクラスタリングする困難なタスクに対処する手段を提供する。
dnnは有用な特徴を抽出し、より低い次元の表現を生成することができる。
クラスタリングは通常、トレーニングラベルが使用できない純粋に教師なしの環境で実行されるため、DNN機能抽出器をどのようにトレーニングできるかという疑問が生じる。
最も正確な既存のアプローチは、DNNのトレーニングとクラスタリングの目標を組み合わせることで、クラスタリングプロセスからの情報を使用して、DNNを更新してクラスタリングのためのより良い機能を生成することができる。
このアプローチの1つの問題は、クラスタリングアルゴリズムによって生成されたこれらの ``pseudo-labels'' がノイズであり、それらを含むエラーがDNNのトレーニングを損なうことである。
本稿では,DNNの学習に最も確実な擬似ラベルのみを用いる選択的擬似ラベルクラスタリングを提案する。
我々は一定の条件下で性能向上を正式に証明する。
画像クラスタリングのタスクに適用すると、新しいアプローチは3つの人気のある画像データセットで最先端のパフォーマンスを実現する。
コードはhttps://github.com/lou1sm/clusteringで入手できる。
関連論文リスト
- ECGN: A Cluster-Aware Approach to Graph Neural Networks for Imbalanced Classification [9.516450051858891]
グラフ内のノードの分類は一般的な問題である。
既存のグラフニューラルネットワーク(GNN)は、両方の問題に一緒に対処していない。
拡張クラスタ対応グラフネットワーク(ECGN)を提案する。
論文 参考訳(メタデータ) (2024-10-15T16:39:38Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - DeepCut: Unsupervised Segmentation using Graph Neural Networks
Clustering [6.447863458841379]
本研究では,従来のクラスタリング手法を置き換える軽量グラフニューラルネットワーク(GNN)を提案する。
既存の手法とは異なり、GNNはローカル画像特徴と生特徴とのペアワイズ親和性の両方を入力として取ります。
画像セグメンテーションGNNを訓練するための自己教師付き損失関数として,古典的クラスタリングの目的を定式化する方法を実証する。
論文 参考訳(メタデータ) (2022-12-12T12:31:46Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - Learning Hierarchical Graph Neural Networks for Image Clustering [81.5841862489509]
本稿では,画像の集合を未知の個数にクラスタリングする方法を学ぶ階層型グラフニューラルネットワーク(GNN)モデルを提案する。
我々の階層的なGNNは、階層の各レベルで予測される連結コンポーネントをマージして、次のレベルで新しいグラフを形成するために、新しいアプローチを用いています。
論文 参考訳(メタデータ) (2021-07-03T01:28:42Z) - CAGNN: Cluster-Aware Graph Neural Networks for Unsupervised Graph
Representation Learning [19.432449825536423]
教師なしグラフ表現学習は、教師なしの低次元ノード埋め込みを学習することを目的としている。
本稿では、自己教師付き手法を用いた教師なしグラフ表現学習のための新しいクラスタ対応グラフニューラルネットワーク(CAGNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-03T13:57:18Z) - AutoEmbedder: A semi-supervised DNN embedding system for clustering [0.0]
本稿では,高次元データをクラスタリング可能な埋め込みポイントにダウンサンプリングする,AutoEmbedderという新しい埋め込みシステムを提案する。
トレーニングプロセスは半教師付きで、Siameseネットワークアーキテクチャを使用して、機能学習フェーズにおけるペアワイズ制約損失を計算します。
論文 参考訳(メタデータ) (2020-07-11T19:00:45Z) - Online Deep Clustering for Unsupervised Representation Learning [108.33534231219464]
オンラインディープクラスタリング(ODC)は、交互にではなく、クラスタリングとネットワーク更新を同時に実行する。
我々は,2つの動的メモリモジュール,すなわち,サンプルラベルと特徴を格納するサンプルメモリと,セントロイド進化のためのセントロイドメモリを設計,維持する。
このように、ラベルとネットワークは交互にではなく肩から肩へと進化する。
論文 参考訳(メタデータ) (2020-06-18T16:15:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。