論文の概要: Assigning Confidence: K-partition Ensembles
- arxiv url: http://arxiv.org/abs/2602.18435v1
- Date: Fri, 20 Feb 2026 18:59:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.423971
- Title: Assigning Confidence: K-partition Ensembles
- Title(参考訳): 信頼を割り当てる:K-パーティション・アンサンブル
- Authors: Aggelos Semoglou, John Pavlopoulos,
- Abstract要約: 本稿では,クラスタリングアンサンブル上で計算された2つの相補的統計量を用いて各点を評価するフレームワークであるCAKEを紹介する。
CAKEは、不明瞭な点と安定したコアメンバーを効果的に強調し、クラスタリング品質を改善するためにフィルタリングや優先順位付けをガイドできる信頼性ランキングを提供する。
- 参考スコア(独自算出の注目度): 6.194291632696817
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clustering is widely used for unsupervised structure discovery, yet it offers limited insight into how reliable each individual assignment is. Diagnostics, such as convergence behavior or objective values, may reflect global quality, but they do not indicate whether particular instances are assigned confidently, especially for initialization-sensitive algorithms like k-means. This assignment-level instability can undermine both accuracy and robustness. Ensemble approaches improve global consistency by aggregating multiple runs, but they typically lack tools for quantifying pointwise confidence in a way that combines cross-run agreement with geometric support from the learned cluster structure. We introduce CAKE (Confidence in Assignments via K-partition Ensembles), a framework that evaluates each point using two complementary statistics computed over a clustering ensemble: assignment stability and consistency of local geometric fit. These are combined into a single, interpretable score in [0,1]. Our theoretical analysis shows that CAKE remains effective under noise and separates stable from unstable points. Experiments on synthetic and real-world datasets indicate that CAKE effectively highlights ambiguous points and stable core members, providing a confidence ranking that can guide filtering or prioritization to improve clustering quality.
- Abstract(参考訳): クラスタリングは、教師なし構造発見に広く使用されているが、個々の割り当ての信頼性について限定的な洞察を提供する。
収束挙動や客観的値などの診断は、グローバルな品質を反映するが、特にk平均のような初期化に敏感なアルゴリズムに対して、特定のインスタンスが確実に割り当てられているかどうかは示さない。
この割り当てレベルの不安定性は、正確性と堅牢性の両方を損なう可能性がある。
Ensembleアプローチは、複数の実行を集約することで、グローバルな一貫性を向上させるが、一般的には、クロスラン合意と学習されたクラスタ構造からの幾何学的サポートを組み合わせた方法で、ポイントワイドな信頼性を定量化するツールが欠如している。
CAKE(Confidence in Assignments via K-partition Ensembles)は,クラスタリングアンサンブル上で計算された2つの相補的統計量を用いて各点を評価するフレームワークである。
これらは[0,1]で1つの解釈可能なスコアにまとめられます。
我々の理論的分析は、CAKEはノイズの下で有効であり、不安定な点から安定していることを示している。
合成および実世界のデータセットに関する実験は、CAKEが不明瞭な点と安定したコアメンバーを効果的に強調し、クラスタ品質を改善するためにフィルタリングや優先順位付けをガイドできる信頼性ランキングを提供することを示している。
関連論文リスト
- Hierarchical Clustering With Confidence [6.479319856992936]
集約的階層的クラスタリングは、データの小さな摂動に非常に敏感である。
階層的クラスタリングのランダム化は,安定性の測定だけでなく,有効な仮説テスト手順の設計にも有用であることを示す。
論文 参考訳(メタデータ) (2025-12-06T18:18:20Z) - You Can Trust Your Clustering Model: A Parameter-free Self-Boosting Plug-in for Deep Clustering [73.48306836608124]
DCBoostはパラメータフリーのプラグインで、現在のディープクラスタリングモデルのグローバルな特徴構造を強化するように設計されている。
本手法は, クラスタリング性能を効果的に向上することを目的としている。
論文 参考訳(メタデータ) (2025-11-26T09:16:36Z) - Silhouette-Guided Instance-Weighted k-means [2.56711111236449]
K-シル(K-Sil)は、シルエットのスコアに基づいて点を重み付けするk-meansアルゴリズムの改良である。
境界線やノイズの多い領域を抑えながら、適切にクラスタ化されたインスタンスを優先順位付けする。
これらの結果から、K-Silは高品質でよく分離されたクラスタを必要とするアプリケーションの原則的な代替品として確立される。
論文 参考訳(メタデータ) (2025-06-15T15:09:05Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Wide Gaps and Clustering Axioms [0.0]
k-平均は、距離に基づくクラスタリングアルゴリズムのためのクラインバーグの公理系と矛盾している。
我々は,2つの新しいクラスタビリティ特性,変分k-分離性と残留k-分離性を導入する。
我々は、k-meansを、ユークリッドおよび非ユークリッドセッティングにおけるクラインバーグの公理的フレームワークと照合する。
論文 参考訳(メタデータ) (2023-08-07T10:43:48Z) - Perfect Spectral Clustering with Discrete Covariates [68.8204255655161]
本稿では,大規模なスパースネットワークのクラスにおいて,高い確率で完全クラスタリングを実現するスペクトルアルゴリズムを提案する。
本手法は,スペクトルクラスタリングによる一貫した潜在構造回復を保証する最初の方法である。
論文 参考訳(メタデータ) (2022-05-17T01:41:06Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Neural Ensemble Search for Uncertainty Estimation and Dataset Shift [67.57720300323928]
ニューラルネットワークのアンサンブルは、データセットシフトに対する精度、不確実性キャリブレーション、堅牢性の観点から、スタンドアロンネットワークよりも優れたパフォーマンスを実現する。
本稿では,アンサンブルをアンサンブルで自動構築する2つの手法を提案する。
得られたアンサンブルは、精度だけでなく、不確実なキャリブレーションやデータセットシフトに対する堅牢性の観点からも、深いアンサンブルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-15T17:38:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。