論文の概要: Refining Filter Global Feature Weighting for Fully-Unsupervised Clustering
- arxiv url: http://arxiv.org/abs/2503.11706v1
- Date: Wed, 12 Mar 2025 13:14:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 16:00:19.659922
- Title: Refining Filter Global Feature Weighting for Fully-Unsupervised Clustering
- Title(参考訳): 完全教師なしクラスタリングのための精製フィルタのグローバルな特徴重み付け
- Authors: Fabian Galis, Darian Onchis,
- Abstract要約: 教師なし学習では、効果的なクラスタリングが、ラベルのないデータからパターンや洞察を明らかにする上で重要な役割を果たす。
本稿では,クラスタリングのための特徴重み付けについて検討し,SHAP(SHapley Additive exPlanations)に基づく手法を含む新しい重み付け手法を提案する。
実験により、SHAPに基づく特徴重み付けは、教師なしクラスタリングの品質を高め、他の重み付け法よりも最大22.69%改善できることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In the context of unsupervised learning, effective clustering plays a vital role in revealing patterns and insights from unlabeled data. However, the success of clustering algorithms often depends on the relevance and contribution of features, which can differ between various datasets. This paper explores feature weighting for clustering and presents new weighting strategies, including methods based on SHAP (SHapley Additive exPlanations), a technique commonly used for providing explainability in various supervised machine learning tasks. By taking advantage of SHAP values in a way other than just to gain explainability, we use them to weight features and ultimately improve the clustering process itself in unsupervised scenarios. Our empirical evaluations across five benchmark datasets and clustering methods demonstrate that feature weighting based on SHAP can enhance unsupervised clustering quality, achieving up to a 22.69\% improvement over other weighting methods (from 0.586 to 0.719 in terms of the Adjusted Rand Index). Additionally, these situations where the weighted data boosts the results are highlighted and thoroughly explored, offering insight for practical applications.
- Abstract(参考訳): 教師なし学習の文脈では、効果的なクラスタリングは、ラベルのないデータからパターンや洞察を明らかにする上で重要な役割を果たす。
しかし、クラスタリングアルゴリズムの成功は、しばしば、さまざまなデータセット間で異なる可能性がある機能の関連性と寄与に依存する。
本稿では,クラスタリングにおける特徴重み付けについて検討し,SHAP(SHapley Additive exPlanations)に基づく手法を含む新たな重み付け手法を提案する。
SHAPの値を活用することで、説明可能性を得るだけでなく、機能を重み付けし、最終的に教師なしのシナリオでクラスタリングプロセス自体を改善するために利用します。
5つのベンチマークデータセットとクラスタリング手法による実証的な評価は、SHAPに基づく特徴重み付けが、教師なしクラスタリングの品質を向上させることを示し、他の重み付け手法(調整ランダム指標の0.586から0.719まで)よりも最大22.69倍の改善を実現している。
さらに、重み付けされたデータによって結果が促進されるこれらの状況は強調され、徹底的に調査され、実用的なアプリケーションに対する洞察を提供する。
関連論文リスト
- Revisiting Self-Supervised Heterogeneous Graph Learning from Spectral Clustering Perspective [52.662463893268225]
自己教師付きヘテロジニアスグラフ学習(SHGL)は様々なシナリオにおいて有望な可能性を示している。
既存のSHGLメソッドには2つの大きな制限がある。
ランクと二重整合性制約によって強化された新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2024-12-01T09:33:20Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Adaptive Self-supervised Robust Clustering for Unstructured Data with Unknown Cluster Number [12.926206811876174]
適応型自己教師型ロバストクラスタリング(Adaptive Self-supervised Robust Clustering, ASRC)と呼ばれる非構造化データに適した,新たな自己教師型ディープクラスタリング手法を提案する。
ASRCはグラフ構造とエッジ重みを適応的に学習し、局所構造情報と大域構造情報の両方をキャプチャする。
ASRCは、クラスタ数の事前知識に依存するメソッドよりも優れており、非構造化データのクラスタリングの課題に対処する上での有効性を強調している。
論文 参考訳(メタデータ) (2024-07-29T15:51:09Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Mitigating shortage of labeled data using clustering-based active
learning with diversity exploration [3.312798619476657]
本稿ではクラスタリングに基づくアクティブラーニングフレームワーク,すなわちクラスタリングに基づくサンプリングを用いたアクティブラーニングを提案する。
重なり合うクラスを分類する学習性能を向上させるために、クラスタ境界に基づくサンプルクエリ手順が導入された。
論文 参考訳(メタデータ) (2022-07-06T20:53:28Z) - Leveraging Ensembles and Self-Supervised Learning for Fully-Unsupervised
Person Re-Identification and Text Authorship Attribution [77.85461690214551]
完全ラベル付きデータからの学習は、Person Re-IdentificationやText Authorship Attributionなどのマルチメディアフォレスト問題において困難である。
近年の自己教師型学習法は,基礎となるクラスに意味的差異が有る場合に,完全ラベル付きデータを扱う際に有効であることが示されている。
本研究では,異なるクラスからのサンプルが顕著に多様性を持っていない場合でも,ラベルのないデータから学習できるようにすることにより,個人再認識とテキストオーサシップの属性に対処する戦略を提案する。
論文 参考訳(メタデータ) (2022-02-07T13:08:11Z) - Transductive Few-Shot Learning: Clustering is All You Need? [31.21306826132773]
そこで本研究では,プロトタイプをベースとした超越的数ショット学習の汎用的定式化について検討する。
提案手法は, 精度と最適化の観点から, 大きな問題にスケールアップしながら, 競争性能を向上する。
驚いたことに、私たちの一般的なモデルは、最先端の学習と比較して、すでに競争力のあるパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2021-06-16T16:14:01Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Deep Fair Discriminative Clustering [24.237000220172906]
2値および多状態保護状態変数(PSV)に対するグループレベルの公正性の一般概念について検討する。
本稿では,クラスタリング目標とフェアネス目標とを組み合わせて,フェアクラスタを適応的に学習する改良学習アルゴリズムを提案する。
本フレームワークは, フレキシブルフェアネス制約, マルチステートPSV, 予測クラスタリングなど, 新規なクラスタリングタスクに対して有望な結果を示す。
論文 参考訳(メタデータ) (2021-05-28T23:50:48Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Variable feature weighted fuzzy k-means algorithm for high dimensional data [30.828627752648767]
現実世界のアプリケーションでは、クラスタに依存した機能はデータセットをより意味のあるクラスタに分割するのに役立ちます。
本稿では,2つの異なるエントロピー項を用いてファジィk平均の目的関数を変更することで,新しいファジィk平均クラスタリングアルゴリズムを提案する。
本手法は実世界および合成データセットにおける教師なしおよび教師なしのパフォーマンス測定を用いて検証する。
論文 参考訳(メタデータ) (2019-12-24T04:58:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。