論文の概要: Cluster Explanation via Polyhedral Descriptions
- arxiv url: http://arxiv.org/abs/2210.08798v1
- Date: Mon, 17 Oct 2022 07:26:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 21:50:56.221772
- Title: Cluster Explanation via Polyhedral Descriptions
- Title(参考訳): 多面体記述によるクラスター説明
- Authors: Connor Lawless, Oktay Gunluk
- Abstract要約: クラスタリングは教師なしの学習問題であり、競合しないデータポイントを同様の機能を持つグループに分割することを目的としている。
従来のクラスタリングアルゴリズムは、グループ割り当ての解釈可能性ではなく、正確性に重点を置いているため、グループに対する限られた洞察を提供する。
本稿では,各クラスタのまわりにポリヘドラを配置し,結果として生じるポリヘドラの複雑さを最小化して,クラスタを説明するための新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clustering is an unsupervised learning problem that aims to partition
unlabelled data points into groups with similar features. Traditional
clustering algorithms provide limited insight into the groups they find as
their main focus is accuracy and not the interpretability of the group
assignments. This has spurred a recent line of work on explainable machine
learning for clustering. In this paper we focus on the cluster description
problem where, given a dataset and its partition into clusters, the task is to
explain the clusters. We introduce a new approach to explain clusters by
constructing polyhedra around each cluster while minimizing either the
complexity of the resulting polyhedra or the number of features used in the
description. We formulate the cluster description problem as an integer program
and present a column generation approach to search over an exponential number
of candidate half-spaces that can be used to build the polyhedra. To deal with
large datasets, we introduce a novel grouping scheme that first forms smaller
groups of data points and then builds the polyhedra around the grouped data, a
strategy which out-performs simply sub-sampling data. Compared to state of the
art cluster description algorithms, our approach is able to achieve competitive
interpretability with improved description accuracy.
- Abstract(参考訳): クラスタリングは教師なしの学習問題であり、競合しないデータポイントを同様の機能を持つグループに分割することを目的としている。
従来のクラスタリングアルゴリズムは、グループ割り当ての解釈可能性ではなく、精度に重点を置いたグループに対する限定的な洞察を提供する。
これにより、クラスタリングのための説明可能な機械学習に関する最近の作業が促進された。
本稿では、データセットとそのクラスタへの分割が与えられた場合、そのタスクはクラスタを説明することであるクラスタ記述問題に焦点を当てる。
本稿では,各クラスタのまわりにポリヘドラを配置し,結果として生じるポリヘドラの複雑さを最小化してクラスタを説明する手法を提案する。
本稿では,クラスタ記述問題を整数プログラムとして定式化し,多面体構築に使用可能な指数関数的な半空間候補を探索するための列生成手法を提案する。
大規模なデータセットを扱うために,まず,より小さなデータポイント群を形成し,次にグループ化されたデータを取り巻くポリヘドラを構築する,新たなグループ化方式を導入する。
artクラスタ記述アルゴリズムの状況と比較すると,提案手法は,記述精度を向上させた競合解釈性を実現することができる。
関連論文リスト
- Fair Minimum Representation Clustering via Integer Programming [0.6906005491572401]
クラスタリングは、データをクラスタの集合に分割することを目的とした教師なしの学習タスクである。
本稿では,各群が最小表現レベルを持つ必要があるという制約を伴って,k平均とkメダニアンのクラスタリング問題を考察する。
フェアネス制約を直接組み込んだ,MiniReLと呼ばれる交代最小化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-04T00:13:40Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Using Decision Trees for Interpretable Supervised Clustering [0.0]
教師付きクラスタリングは、高い確率密度でラベル付きデータのクラスタを形成することを目的としている。
特に、特定のクラスのデータのクラスタを見つけ、包括的なルールのセットでクラスタを記述することに興味があります。
論文 参考訳(メタデータ) (2023-07-16T17:12:45Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Deep Clustering: A Comprehensive Survey [53.387957674512585]
クラスタリング分析は、機械学習とデータマイニングにおいて必須の役割を果たす。
ディープ・クラスタリングは、ディープ・ニューラルネットワークを使ってクラスタリングフレンドリーな表現を学習することができるが、幅広いクラスタリングタスクに広く適用されている。
ディープクラスタリングに関する既存の調査は、主にシングルビューフィールドとネットワークアーキテクチャに焦点を当てており、クラスタリングの複雑なアプリケーションシナリオを無視している。
論文 参考訳(メタデータ) (2022-10-09T02:31:32Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Fast and explainable clustering based on sorting [0.0]
我々はCLASSIXと呼ばれる高速で説明可能なクラスタリング手法を提案する。
このアルゴリズムは2つのスカラーパラメータ、すなわちアグリゲーションのための距離パラメータと、最小クラスタサイズを制御する別のパラメータによって制御される。
実験により, CLASSIXは最先端クラスタリングアルゴリズムと競合することを示した。
論文 参考訳(メタデータ) (2022-02-03T08:24:21Z) - Interpretable Clustering via Multi-Polytope Machines [12.69310440882225]
本稿では,クラスタデータポイントと,検出したクラスタの周辺にポリトープを構築して説明する,解釈可能なクラスタリングのための新しい手法を提案する。
我々は,我々の手法を,人工クラスタリングと実世界のクラスタリングの一連の問題にベンチマークし,我々のアルゴリズムは,アート解釈可能で非解釈可能なクラスタリングアルゴリズムの状態を上回ります。
論文 参考訳(メタデータ) (2021-12-10T16:36:32Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - Deep Descriptive Clustering [24.237000220172906]
本稿では,解釈可能なタグを用いた説明を同時に生成しながら,複雑なデータに対してクラスタリングを行うための新しい設定について検討する。
我々は,入力に対する経験的分布と,クラスタリング目的に対して誘導されたクラスタリングラベルの相互情報を最大化することにより,優れたクラスタを形成する。
公開データによる実験結果から,クラスタリング性能の競争ベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2021-05-24T21:40:16Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。