論文の概要: Interpretable Deep Clustering
- arxiv url: http://arxiv.org/abs/2306.04785v1
- Date: Wed, 7 Jun 2023 21:08:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 17:32:24.324872
- Title: Interpretable Deep Clustering
- Title(参考訳): 解釈可能な深層クラスタリング
- Authors: Jonathan Svirsky, Ofir Lindenbaum
- Abstract要約: 本稿では,インスタンスとクラスタレベルでの解釈可能なクラスタ割り当てを予測する,新たなディープラーニングフレームワークを提案する。
提案手法は,合成データと実データを用いてクラスタ割り当てを確実に予測できることを示す。
- 参考スコア(独自算出の注目度): 3.9596068699962315
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Clustering is a fundamental learning task widely used as a first step in data
analysis. For example, biologists often use cluster assignments to analyze
genome sequences, medical records, or images. Since downstream analysis is
typically performed at the cluster level, practitioners seek reliable and
interpretable clustering models. We propose a new deep-learning framework that
predicts interpretable cluster assignments at the instance and cluster levels.
First, we present a self-supervised procedure to identify a subset of
informative features from each data point. Then, we design a model that
predicts cluster assignments and a gate matrix that leads to cluster-level
feature selection. We show that the proposed method can reliably predict
cluster assignments using synthetic and real data. Furthermore, we verify that
our model leads to interpretable results at a sample and cluster level.
- Abstract(参考訳): クラスタリングは、データ分析の第一歩として広く使われている基本的な学習タスクである。
例えば、生物学者はしばしばクラスター割り当てを使ってゲノム配列、医療記録、画像を分析する。
ダウンストリーム分析は一般的にクラスタレベルで実行されるため、実践者は信頼性と解釈可能なクラスタリングモデルを求める。
インスタンスとクラスタレベルで解釈可能なクラスタ割り当てを予測する、新しいディープラーニングフレームワークを提案する。
まず,各データポイントから情報的特徴のサブセットを識別するための自己教師あり手順を提案する。
そして,クラスタ割り当てを予測するモデルと,クラスタレベルの特徴選択につながるゲート行列を設計する。
提案手法は,合成および実データを用いてクラスタ割り当てを確実に予測できることを示す。
さらに,本モデルがサンプルおよびクラスタレベルで解釈可能な結果をもたらすことを検証した。
関連論文リスト
- Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Using Decision Trees for Interpretable Supervised Clustering [0.0]
教師付きクラスタリングは、高い確率密度でラベル付きデータのクラスタを形成することを目的としている。
特に、特定のクラスのデータのクラスタを見つけ、包括的なルールのセットでクラスタを記述することに興味があります。
論文 参考訳(メタデータ) (2023-07-16T17:12:45Z) - Large Language Models Enable Few-Shot Clustering [88.06276828752553]
大規模言語モデルは、クエリ効率が良く、数発のセミ教師付きテキストクラスタリングを可能にするために、専門家のガイダンスを増幅できることを示す。
最初の2つのステージにLSMを組み込むことで、クラスタの品質が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-07-02T09:17:11Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - A Generalized Framework for Predictive Clustering and Optimization [18.06697544912383]
クラスタリングは強力で広く使われているデータサイエンスツールです。
本稿では,予測クラスタリングのための一般化最適化フレームワークを定義する。
また,大域的最適化のためにMILP(mixed-integer linear programming)を利用する共同最適化手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T19:56:51Z) - Deep Clustering: A Comprehensive Survey [53.387957674512585]
クラスタリング分析は、機械学習とデータマイニングにおいて必須の役割を果たす。
ディープ・クラスタリングは、ディープ・ニューラルネットワークを使ってクラスタリングフレンドリーな表現を学習することができるが、幅広いクラスタリングタスクに広く適用されている。
ディープクラスタリングに関する既存の調査は、主にシングルビューフィールドとネットワークアーキテクチャに焦点を当てており、クラスタリングの複雑なアプリケーションシナリオを無視している。
論文 参考訳(メタデータ) (2022-10-09T02:31:32Z) - Interpretable Time Series Clustering Using Local Explanations [0.4588028371034407]
最先端のクラスタリングモデルの多くは、直接的に説明できない。
クラスタラベルを推定するために分類モデルを訓練する。
そこで我々は,解釈可能性法を用いて分類モデルの決定を説明する。
論文 参考訳(メタデータ) (2022-08-01T21:51:16Z) - Self-Evolutionary Clustering [1.662966122370634]
既存のディープクラスタリング手法の多くは、単純な距離比較に基づいており、手作り非線形マッピングによって生成されたターゲット分布に大きく依存している。
新たなモジュール型自己進化クラスタリング(Self-EvoC)フレームワークが構築され,自己管理的な分類によってクラスタリング性能が向上する。
このフレームワークは、サンプルアウトレイラを効率よく識別し、自己監督の助けを借りて、より良い目標分布を生成することができる。
論文 参考訳(メタデータ) (2022-02-21T19:38:18Z) - KnAC: an approach for enhancing cluster analysis with background
knowledge and explanations [0.20999222360659603]
我々はKnAC(Knowledge Augmented Clustering)を紹介します。
KnACは任意のクラスタリングアルゴリズムの拡張として機能し、アプローチを堅牢でモデルに依存しないものにすることができる。
論文 参考訳(メタデータ) (2021-12-16T10:13:47Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。