論文の概要: Applying Semi-Automated Hyperparameter Tuning for Clustering Algorithms
- arxiv url: http://arxiv.org/abs/2108.11053v1
- Date: Wed, 25 Aug 2021 05:48:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-26 12:54:08.040790
- Title: Applying Semi-Automated Hyperparameter Tuning for Clustering Algorithms
- Title(参考訳): クラスタリングアルゴリズムへの半自動ハイパーパラメータチューニングの適用
- Authors: Elizabeth Ditton, Anne Swinbourne, Trina Myers, Mitchell Scovell
- Abstract要約: 本研究では,クラスタリング問題に対する半自動ハイパーパラメータチューニングのためのフレームワークを提案する。
グリッド検索を使用して一連のグラフを開発し、メトリクスを解釈しやすくし、より効率的なドメイン固有評価に使用できる。
予備的な結果は、内部メトリクスが、開発されたクラスタのセマンティックな品質をキャプチャできないことを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: When approaching a clustering problem, choosing the right clustering
algorithm and parameters is essential, as each clustering algorithm is
proficient at finding clusters of a particular nature. Due to the unsupervised
nature of clustering algorithms, there are no ground truth values available for
empirical evaluation, which makes automation of the parameter selection process
through hyperparameter tuning difficult. Previous approaches to hyperparameter
tuning for clustering algorithms have relied on internal metrics, which are
often biased towards certain algorithms, or having some ground truth labels
available, moving the problem into the semi-supervised space. This preliminary
study proposes a framework for semi-automated hyperparameter tuning of
clustering problems, using a grid search to develop a series of graphs and easy
to interpret metrics that can then be used for more efficient domain-specific
evaluation. Preliminary results show that internal metrics are unable to
capture the semantic quality of the clusters developed and approaches driven by
internal metrics would come to different conclusions than those driven by
manual evaluation.
- Abstract(参考訳): クラスタリング問題にアプローチする場合、各クラスタリングアルゴリズムは特定の性質のクラスタを見つけるのに熟練しているため、適切なクラスタリングアルゴリズムとパラメータを選択することが不可欠である。
クラスタリングアルゴリズムの教師なしの性質のため、経験的評価に利用可能な基底真理値は存在せず、ハイパーパラメータチューニングによるパラメータ選択プロセスの自動化が難しい。
クラスタリングアルゴリズムのハイパーパラメータチューニングに対する従来のアプローチは、内部メトリクスに依存しており、それはしばしば特定のアルゴリズムに偏っている。
この予備研究では、グリッド探索を用いて一連のグラフを開発し、より効率的なドメイン特化評価に使用できるメトリクスを解釈する、半自動的なクラスタリング問題のハイパーパラメータチューニングのためのフレームワークを提案する。
予備的な結果は、内部メトリクスがクラスタの意味的品質を捉えることができないことを示し、内部メトリクスによって駆動されるアプローチは、手動による評価によって駆動されるものと異なる結論に達することを示している。
関連論文リスト
- Interpretable label-free self-guided subspace clustering [0.0]
多数部分空間クラスタリング(SC)アルゴリズムは1つ以上のハイパーパラメータに依存しており、高いクラスタリング性能を達成するためにはSCアルゴリズムを慎重に調整する必要がある。
我々は,精度 (ACC) や正規化相互情報 (NMI) などのクラスタリング品質指標を用いたラベル非依存HPOの新しい手法を提案する。
本手法は,複数のシングルビューおよびマルチビューSCアルゴリズムを用いて,達成された性能を,桁,顔,オブジェクトを表す6つのデータセットで比較する。
論文 参考訳(メタデータ) (2024-11-26T10:29:09Z) - Robust and Automatic Data Clustering: Dirichlet Process meets
Median-of-Means [18.3248037914529]
本稿では,モデルに基づく手法とセントロイド方式の原理を統合することにより,効率的かつ自動的なクラスタリング手法を提案する。
クラスタリング誤差の上限に関する統計的保証は,既存のクラスタリングアルゴリズムよりも提案手法の利点を示唆している。
論文 参考訳(メタデータ) (2023-11-26T19:01:15Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - A Parameter-free Adaptive Resonance Theory-based Topological Clustering
Algorithm Capable of Continual Learning [20.995946115633963]
本稿では,パラメータ推定手法を導入して連続学習が可能な,パラメータフリーのARTに基づく新しいトポロジクラスタリングアルゴリズムを提案する。
合成および実世界のデータセットによる実験結果から,提案アルゴリズムはパラメータの事前特定なしに,最先端のクラスタリングアルゴリズムよりも優れたクラスタリング性能を有することが示された。
論文 参考訳(メタデータ) (2023-05-01T01:04:07Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Gradient Based Clustering [72.15857783681658]
本稿では,クラスタリングの品質を計測するコスト関数の勾配を用いて,距離に基づくクラスタリングの一般的な手法を提案する。
アプローチは反復的な2段階の手順(クラスタ割り当てとクラスタセンターのアップデートの代替)であり、幅広い機能に適用できる。
論文 参考訳(メタデータ) (2022-02-01T19:31:15Z) - Personalized Federated Learning via Convex Clustering [72.15857783681658]
本稿では,局所凸型ユーザコストを用いた個人化フェデレーション学習のためのアルゴリズム群を提案する。
提案するフレームワークは,異なるユーザのモデルの違いをペナル化する凸クラスタリングの一般化に基づいている。
論文 参考訳(メタデータ) (2022-02-01T19:25:31Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Stable and consistent density-based clustering via multiparameter
persistence [77.34726150561087]
トポロジカルデータ解析による次数-リップス構成について考察する。
我々は,入力データの摂動に対する安定性を,通信間距離を用いて解析する。
私たちはこれらのメソッドを、Persistableと呼ばれる密度ベースのクラスタリングのためのパイプラインに統合します。
論文 参考訳(メタデータ) (2020-05-18T19:45:04Z) - A semi-supervised sparse K-Means algorithm [3.04585143845864]
クラスタリングに必要な機能のサブグループを検出するために、教師なしスパースクラスタリング手法を用いることができる。
半教師付き手法では、ラベル付きデータを使用して制約を作成し、クラスタリングソリューションを強化することができる。
提案アルゴリズムは,他の半教師付きアルゴリズムの高性能性を保ち,また,情報的特徴から情報的特徴を識別する能力も保持していることを示す。
論文 参考訳(メタデータ) (2020-03-16T02:05:23Z) - Simple and Scalable Sparse k-means Clustering via Feature Ranking [14.839931533868176]
直感的で実装が簡単で,最先端のアルゴリズムと競合する,スパースk平均クラスタリングのための新しいフレームワークを提案する。
本手法は,属性のサブセットのクラスタリングや部分的に観測されたデータ設定など,タスク固有のアルゴリズムに容易に一般化できる。
論文 参考訳(メタデータ) (2020-02-20T02:41:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。