論文の概要: Deep Descriptive Clustering
- arxiv url: http://arxiv.org/abs/2105.11549v1
- Date: Mon, 24 May 2021 21:40:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-26 14:29:09.253855
- Title: Deep Descriptive Clustering
- Title(参考訳): Deep Descriptive Clustering
- Authors: Hongjing Zhang, Ian Davidson
- Abstract要約: 本稿では,解釈可能なタグを用いた説明を同時に生成しながら,複雑なデータに対してクラスタリングを行うための新しい設定について検討する。
我々は,入力に対する経験的分布と,クラスタリング目的に対して誘導されたクラスタリングラベルの相互情報を最大化することにより,優れたクラスタを形成する。
公開データによる実験結果から,クラスタリング性能の競争ベースラインよりも優れた結果が得られた。
- 参考スコア(独自算出の注目度): 24.237000220172906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work on explainable clustering allows describing clusters when the
features are interpretable. However, much modern machine learning focuses on
complex data such as images, text, and graphs where deep learning is used but
the raw features of data are not interpretable. This paper explores a novel
setting for performing clustering on complex data while simultaneously
generating explanations using interpretable tags. We propose deep descriptive
clustering that performs sub-symbolic representation learning on complex data
while generating explanations based on symbolic data. We form good clusters by
maximizing the mutual information between empirical distribution on the inputs
and the induced clustering labels for clustering objectives. We generate
explanations by solving an integer linear programming that generates concise
and orthogonal descriptions for each cluster. Finally, we allow the explanation
to inform better clustering by proposing a novel pairwise loss with
self-generated constraints to maximize the clustering and explanation module's
consistency. Experimental results on public data demonstrate that our model
outperforms competitive baselines in clustering performance while offering
high-quality cluster-level explanations.
- Abstract(参考訳): 説明可能なクラスタリングに関する最近の作業は、機能が解釈可能な時にクラスタを記述することを可能にする。
しかし、現代の機械学習の多くは、ディープラーニングが使用される画像、テキスト、グラフなどの複雑なデータに焦点を当てているが、データの生の特徴は解釈できない。
本稿では,解釈可能なタグを用いた説明を同時に生成しながら,複雑なデータに対してクラスタリングを行うための新しい設定を提案する。
本稿では,記号データに基づく説明を生成しながら,複雑なデータに対する準記号表現学習を行う深層記述クラスタリングを提案する。
我々は,入力に対する経験的分布とクラスタリング目的のための誘導的クラスタリングラベルとの相互情報を最大化することにより,よいクラスタを形成する。
各クラスタに対して簡潔で直交的な記述を生成する整数線形プログラミングを解いて説明を生成する。
最後に,クラスタリングと説明モジュールの一貫性を最大化するために,自己生成制約による新たなペアワイズ損失を提案することにより,より優れたクラスタリングを説明できる。
公開データを用いた実験の結果,我々のモデルは,高品質なクラスタレベルの説明を提供しながら,クラスタ性能における競合ベースラインを上回っていることがわかった。
関連論文リスト
- Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Using Decision Trees for Interpretable Supervised Clustering [0.0]
教師付きクラスタリングは、高い確率密度でラベル付きデータのクラスタを形成することを目的としている。
特に、特定のクラスのデータのクラスタを見つけ、包括的なルールのセットでクラスタを記述することに興味があります。
論文 参考訳(メタデータ) (2023-07-16T17:12:45Z) - Interpretable Deep Clustering for Tabular Data [7.972599673048582]
クラスタリングは、データ分析で広く使われている基本的な学習タスクである。
本稿では,インスタンスとクラスタレベルでの解釈可能なクラスタ割り当てを予測する,新たなディープラーニングフレームワークを提案する。
提案手法は,生物,テキスト,画像,物理データセットのクラスタ割り当てを確実に予測できることを示す。
論文 参考訳(メタデータ) (2023-06-07T21:08:09Z) - Goal-Driven Explainable Clustering via Language Descriptions [50.980832345025334]
我々は新しいタスク定式化"Goal-Driven Clustering with Explanations"(GoalEx)を提案する。
GoalExは、ゴールと説明の両方を自由形式の言語記述として表現している。
提案手法は,従来の手法よりも精度が高く,目標に関連のある説明を導出する。
論文 参考訳(メタデータ) (2023-05-23T07:05:50Z) - Towards Practical Explainability with Cluster Descriptors [3.899688920770429]
本稿では,クラスタ記述子を解析することにより,クラスタをより説明しやすいものにすることの課題について検討する。
目標は、クラスタディスクリプタと呼ばれる各クラスタの代表的なタグセットを見つけることだ。
本稿では,説明可能性に寄与せず,クラスタを十分に区別しないタグが最適記述子に追加されないような,従来のモデルを強化する新しい説明可能性モデルを提案する。
論文 参考訳(メタデータ) (2022-10-18T01:53:43Z) - Cluster Explanation via Polyhedral Descriptions [0.0]
クラスタリングは教師なしの学習問題であり、競合しないデータポイントを同様の機能を持つグループに分割することを目的としている。
従来のクラスタリングアルゴリズムは、グループ割り当ての解釈可能性ではなく、正確性に重点を置いているため、グループに対する限られた洞察を提供する。
本稿では,各クラスタのまわりにポリヘドラを配置し,結果として生じるポリヘドラの複雑さを最小化して,クラスタを説明するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-10-17T07:26:44Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Structured Graph Learning for Clustering and Semi-supervised
Classification [74.35376212789132]
データの局所構造とグローバル構造の両方を保存するためのグラフ学習フレームワークを提案する。
本手法は, サンプルの自己表現性を利用して, 局所構造を尊重するために, 大域的構造と適応的隣接アプローチを捉える。
我々のモデルは、ある条件下でのカーネルk平均法とk平均法の組合せと等価である。
論文 参考訳(メタデータ) (2020-08-31T08:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。