論文の概要: Deep Clustering with Measure Propagation
- arxiv url: http://arxiv.org/abs/2104.08967v2
- Date: Tue, 20 Apr 2021 02:42:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-21 11:28:30.362357
- Title: Deep Clustering with Measure Propagation
- Title(参考訳): 測度伝播による深部クラスタリング
- Authors: Minhua Chen, Badrinath Jayakumar, Padmasundari Gopalakrishnan, Qiming
Huang, Michael Johnston, and Patrick Haffner
- Abstract要約: 本稿では,深層表現学習の強さと計測伝搬(MP)を結合する。
本稿では,Deep Embedded Clustering Aided by Measure Propagation (DE CAMP)モデルを提案する。
3つのパブリックデータセットで、de campは他の最先端のベースラインと競合する。
- 参考スコア(独自算出の注目度): 2.4783465852664315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep models have improved state-of-the-art for both supervised and
unsupervised learning. For example, deep embedded clustering (DEC) has greatly
improved the unsupervised clustering performance, by using stacked autoencoders
for representation learning. However, one weakness of deep modeling is that the
local neighborhood structure in the original space is not necessarily preserved
in the latent space. To preserve local geometry, various methods have been
proposed in the supervised and semi-supervised learning literature (e.g.,
spectral clustering and label propagation) using graph Laplacian
regularization. In this paper, we combine the strength of deep representation
learning with measure propagation (MP), a KL-divergence based graph
regularization method originally used in the semi-supervised scenario. The main
assumption of MP is that if two data points are close in the original space,
they are likely to belong to the same class, measured by KL-divergence of class
membership distribution. By taking the same assumption in the unsupervised
learning scenario, we propose our Deep Embedded Clustering Aided by Measure
Propagation (DECAMP) model. We evaluate DECAMP on short text clustering tasks.
On three public datasets, DECAMP performs competitively with other
state-of-the-art baselines, including baselines using additional data to
generate word embeddings used in the clustering process. As an example, on the
Stackoverflow dataset, DECAMP achieved a clustering accuracy of 79%, which is
about 5% higher than all existing baselines. These empirical results suggest
that DECAMP is a very effective method for unsupervised learning.
- Abstract(参考訳): ディープモデルは教師なしと教師なしの両方の学習の最先端を改善した。
例えば、深層クラスタリング(DEC)は、表現学習にスタックされたオートエンコーダを使用することで、教師なしクラスタリング性能を大幅に改善した。
しかし、深部モデリングの弱点の一つは、元の空間の局所的な近傍構造が潜在空間で必ずしも保存されないことである。
局所幾何学を保存するために、グラフラプラシアン正則化を用いた教師あり半教師あり学習文献(スペクトルクラスタリングやラベル伝播など)において様々な方法が提案されている。
本稿では,深層表現学習の強みと,半教師付きシナリオで当初用いられていたKL偏差グラフ正規化手法である測度伝搬(MP)を組み合わせる。
MPの主な仮定は、2つのデータポイントが元の空間に近接している場合、それらはクラスメンバーシップ分布のKL-発散によって測定された同じクラスに属する可能性が高いということである。
教師なし学習シナリオでも同様の仮定をとることで,測定伝搬(DECAMP)モデルによる深層埋め込みクラスタリングを提案する。
短文クラスタリングタスクにおけるDECAMPの評価を行う。
3つのパブリックデータセットで、decampは、クラスタリングプロセスで使われる単語埋め込みを生成するために追加データを使用するベースラインを含む、他の最先端のベースラインと競合する。
例えば、Stackoverflowデータセットでは、DECAMPのクラスタリング精度は79%に達しており、これは既存のすべてのベースラインよりも約5%高い。
これらの実験結果は、DECAMPが教師なし学習の非常に効果的な方法であることを示唆している。
関連論文リスト
- GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Chaos to Order: A Label Propagation Perspective on Source-Free Domain
Adaptation [8.27771856472078]
我々は、ソースフリードメイン適応(SFDA)のための新しいアプローチであるChaos to Order(CtO)を提示する。
CtOは、セマンティックな信頼性を制約し、ターゲットのサブポピュレーション間でラベル情報を伝達する。
実証的な証拠は、CtOが3つの公開ベンチマークで芸術の状態を上回っていることを示している。
論文 参考訳(メタデータ) (2023-01-20T03:39:35Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - A Deep Dive into Deep Cluster [0.2578242050187029]
DeepClusterは、ビジュアル表現のシンプルでスケーラブルな教師なし事前トレーニングである。
本稿では,DeepClusterの収束と性能が,畳み込み層のランダムフィルタの品質と選択されたクラスタ数の相互作用に依存することを示す。
論文 参考訳(メタデータ) (2022-07-24T22:55:09Z) - Implicit Sample Extension for Unsupervised Person Re-Identification [97.46045935897608]
クラスタリングは、時に異なる真のアイデンティティを混ぜ合わせたり、同じアイデンティティを2つ以上のサブクラスタに分割する。
本稿では,クラスタ境界周辺のサポートサンプルを生成するために,Implicit Sample Extension (OurWholeMethod)法を提案する。
提案手法の有効性を実証し,教師なしのRe-IDに対して最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-04-14T11:41:48Z) - Self-Evolutionary Clustering [1.662966122370634]
既存のディープクラスタリング手法の多くは、単純な距離比較に基づいており、手作り非線形マッピングによって生成されたターゲット分布に大きく依存している。
新たなモジュール型自己進化クラスタリング(Self-EvoC)フレームワークが構築され,自己管理的な分類によってクラスタリング性能が向上する。
このフレームワークは、サンプルアウトレイラを効率よく識別し、自己監督の助けを借りて、より良い目標分布を生成することができる。
論文 参考訳(メタデータ) (2022-02-21T19:38:18Z) - Top-Down Deep Clustering with Multi-generator GANs [0.0]
ディープクラスタリング(DC)は、クラスタ分析に最適な埋め込み空間を学習する。
複数のジェネレータ(MGAN)を持つGANをベースとした新しい技術であるHC-MGANを提案する。
本手法は,MGANの各生成元が実データ分布のサブリージョンと相関するデータを生成する傾向にあるという観察に着想を得たものである。
論文 参考訳(メタデータ) (2021-12-06T22:53:12Z) - Towards Uncovering the Intrinsic Data Structures for Unsupervised Domain
Adaptation using Structurally Regularized Deep Clustering [119.88565565454378]
Unsupervised Domain Adapt (UDA) は、ターゲットドメイン上のラベルなしデータの予測を行う分類モデルを学ぶことである。
本稿では,対象データの正規化判別クラスタリングと生成クラスタリングを統合する構造的正規化深層クラスタリングのハイブリッドモデルを提案する。
提案するH-SRDCは, インダクティブ設定とトランスダクティブ設定の両方において, 既存の手法よりも優れている。
論文 参考訳(メタデータ) (2020-12-08T08:52:00Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - CycleCluster: Modernising Clustering Regularisation for Deep
Semi-Supervised Classification [0.0]
深層半教師付き分類のための新しいフレームワークであるCycleClusterを提案する。
我々のコア最適化は、グラフベースの擬似ラベルと共有深層ネットワークとともに、新たなクラスタリングベースの正規化によって推進されます。
論文 参考訳(メタデータ) (2020-01-15T13:34:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。