論文の概要: Dual-disentangled Deep Multiple Clustering
- arxiv url: http://arxiv.org/abs/2402.05310v1
- Date: Wed, 7 Feb 2024 23:05:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 16:55:01.458238
- Title: Dual-disentangled Deep Multiple Clustering
- Title(参考訳): 二重異方性深層クラスタリング
- Authors: Jiawei Yao and Juhua Hu
- Abstract要約: 本稿では,Dual-Disentangled Deep Multiple Clustering法であるDDMCを提案する。
実験の結果,DDMCは7つのタスクにまたがって常に最先端の手法より優れていることがわかった。
- 参考スコア(独自算出の注目度): 4.040415173465543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple clustering has gathered significant attention in recent years due to
its potential to reveal multiple hidden structures of the data from different
perspectives. Most of multiple clustering methods first derive feature
representations by controlling the dissimilarity among them, subsequently
employing traditional clustering methods (e.g., k-means) to achieve the final
multiple clustering outcomes. However, the learned feature representations can
exhibit a weak relevance to the ultimate goal of distinct clustering. Moreover,
these features are often not explicitly learned for the purpose of clustering.
Therefore, in this paper, we propose a novel Dual-Disentangled deep Multiple
Clustering method named DDMC by learning disentangled representations.
Specifically, DDMC is achieved by a variational Expectation-Maximization (EM)
framework. In the E-step, the disentanglement learning module employs
coarse-grained and fine-grained disentangled representations to obtain a more
diverse set of latent factors from the data. In the M-step, the cluster
assignment module utilizes a cluster objective function to augment the
effectiveness of the cluster output. Our extensive experiments demonstrate that
DDMC consistently outperforms state-of-the-art methods across seven commonly
used tasks. Our code is available at https://github.com/Alexander-Yao/DDMC.
- Abstract(参考訳): 近年、異なる視点からデータの複数の隠れ構造を明らかにする可能性から、複数のクラスタリングが注目されている。
複数のクラスタリング手法のほとんどは、まずそれらの間の相違を制御して特徴表現を導出し、その後、最終的な複数のクラスタリング結果を達成するために伝統的なクラスタリング手法(例えばk-means)を用いる。
しかし、学習された特徴表現は、異なるクラスタリングの最終的な目標と弱い関係を示すことができる。
さらに、これらの機能はクラスタリングのために明示的に学習されないことが多い。
そこで本研究では,非交叉表現を学習し,DDMCと呼ばれる新しいDual-Disentangled Deep Multiple Clustering法を提案する。
具体的には,変動予測最大化(EM)フレームワークを用いてDDMCを実現する。
Eステップでは、乱れ学習モジュールは粗くきめ細かな乱れ表現を用いて、データからより多様な潜伏因子の集合を得る。
Mステップでは、クラスタ割り当てモジュールがクラスタ目標関数を使用して、クラスタ出力の有効性を向上する。
DDMCは7つの一般的なタスクにまたがって常に最先端の手法より優れていることを示す。
私たちのコードはhttps://github.com/Alexander-Yao/DDMC.comで公開されています。
関連論文リスト
- Self Supervised Correlation-based Permutations for Multi-View Clustering [7.972599673048582]
汎用データのためのエンドツーエンドのディープラーニングベースのMVCフレームワークを提案する。
我々のアプローチは、新しい置換に基づく正準相関目標を用いて有意義な融合データ表現を学習することである。
10つのMVCベンチマークデータセットを用いて、モデルの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-26T08:08:30Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - AugDMC: Data Augmentation Guided Deep Multiple Clustering [2.479720095773358]
AugDMCは、Deep Multiple Clustering法による新しいデータ拡張ガイドである。
データ拡張を利用して、データの特定の側面に関連する機能を自動的に抽出する。
異なる拡張から不安定な問題を緩和するために、安定な最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-06-22T16:31:46Z) - One-step Multi-view Clustering with Diverse Representation [47.41455937479201]
本稿では,多視点学習と$k$-meansを統合フレームワークに組み込んだ一段階のマルチビュークラスタリングを提案する。
そこで本研究では,効率の良い最適化アルゴリズムを開発し,その解法について述べる。
論文 参考訳(メタデータ) (2023-06-08T02:52:24Z) - MHCCL: Masked Hierarchical Cluster-Wise Contrastive Learning for
Multivariate Time Series [20.008535430484475]
Masked Hierarchical Cluster-wise Contrastive Learning modelを示す。
時系列の複数の潜在パーティションからなる階層構造から得られる意味情報を利用する。
教師なし時系列表現学習における最先端の手法よりも優れていることが示されている。
論文 参考訳(メタデータ) (2022-12-02T12:42:53Z) - Unified Multi-View Orthonormal Non-Negative Graph Based Clustering
Framework [74.25493157757943]
我々は,非負の特徴特性を活用し,多視点情報を統合された共同学習フレームワークに組み込む,新しいクラスタリングモデルを定式化する。
また、深層機能に基づいたクラスタリングデータに対するマルチモデル非負グラフベースのアプローチを初めて検討する。
論文 参考訳(メタデータ) (2022-11-03T08:18:27Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Deep Attention-guided Graph Clustering with Dual Self-supervision [49.040136530379094]
デュアル・セルフ・スーパービジョン(DAGC)を用いたディープアテンション誘導グラフクラスタリング法を提案する。
我々は,三重項Kulback-Leibler分散損失を持つソフトな自己スーパービジョン戦略と,擬似的な監督損失を持つハードな自己スーパービジョン戦略からなる二重自己スーパービジョンソリューションを開発する。
提案手法は6つのベンチマークデータセットにおける最先端の手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-10T06:53:03Z) - LSEC: Large-scale spectral ensemble clustering [8.545202841051582]
本稿では,効率と効率のバランスを良くするために,大規模スペクトルアンサンブルクラスタリング(LSEC)手法を提案する。
LSEC法は既存のアンサンブルクラスタリング法よりも計算複雑性が低い。
論文 参考訳(メタデータ) (2021-06-18T00:42:03Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。