論文の概要: SACA: Selective Attention-Based Clustering Algorithm
- arxiv url: http://arxiv.org/abs/2508.17150v1
- Date: Sat, 23 Aug 2025 22:07:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.367743
- Title: SACA: Selective Attention-Based Clustering Algorithm
- Title(参考訳): SACA: Selective Attention-Based Clustering Algorithm
- Authors: Meysam Shirdel Bilehsavar, Razieh Ghaedi, Samira Seyed Taheri, Xinqi Fan, Christian O'Reilly,
- Abstract要約: 本稿では,選択的アテンションの概念から着想を得た,新しい密度に基づくクラスタリング手法を提案する。
この方法は、標準条件下でのユーザ定義パラメータの必要性を最小限に抑える。
多様なデータセットに対する実験的な評価は、この手法のアクセシビリティとロバストな性能を強調している。
- 参考スコア(独自算出の注目度): 2.8412470965721113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clustering algorithms are widely used in various applications, with density-based methods such as Density-Based Spatial Clustering of Applications with Noise (DBSCAN) being particularly prominent. These algorithms identify clusters in high-density regions while treating sparser areas as noise. However, reliance on user-defined parameters often poses optimization challenges that require domain expertise. This paper presents a novel density-based clustering method inspired by the concept of selective attention, which minimizes the need for user-defined parameters under standard conditions. Initially, the algorithm operates without requiring user-defined parameters. If parameter adjustment is needed, the method simplifies the process by introducing a single integer parameter that is straightforward to tune. The approach computes a threshold to filter out the most sparsely distributed points and outliers, forms a preliminary cluster structure, and then reintegrates the excluded points to finalize the results. Experimental evaluations on diverse data sets highlight the accessibility and robust performance of the method, providing an effective alternative for density-based clustering tasks.
- Abstract(参考訳): クラスタリングアルゴリズムは様々なアプリケーションで広く使われており、密度に基づく密度ベースの空間クラスタリング(DBSCAN)のような手法が特に顕著である。
これらのアルゴリズムは、スペーサー領域をノイズとして扱いながら、高密度領域のクラスタを識別する。
しかし、ユーザ定義パラメータへの依存は、ドメインの専門知識を必要とする最適化の課題を引き起こすことが多い。
本稿では, 標準条件下でのユーザ定義パラメータの必要性を最小限に抑えるため, 選択的アテンションの概念に着想を得た, 新しい密度クラスタリング手法を提案する。
当初、アルゴリズムはユーザー定義パラメータを必要とせずに動作する。
パラメータ調整が必要な場合、このメソッドは、チューニングが容易な単一の整数パラメータを導入することで、プロセスを単純化する。
このアプローチは、最も分散した点とアウトレーヤをフィルタリングし、予備的なクラスタ構造を形成し、除外された点を再積分して結果を確定するしきい値を計算する。
多様なデータセットに対する実験的な評価は、この手法のアクセシビリティとロバストな性能を強調し、密度に基づくクラスタリングタスクの効果的な代替手段を提供する。
関連論文リスト
- Convex Clustering [4.577104493960515]
凸クラスタリングには、先行技術と区別するいくつかの珍しい特徴がある。
そのユニークな大域最小化器は、全ての入力に対して安定である。
重要なアルゴリズムを強調し、その計算コストが問題のサイズにどのようにスケールするかを洞察する。
論文 参考訳(メタデータ) (2025-07-11T23:38:15Z) - K*-Means: A Parameter-free Clustering Algorithm [55.20132267309382]
k*-meansは、kや他のパラメータをセットする必要がない新しいクラスタリングアルゴリズムである。
最小記述長の原理を用いて、クラスタの分割とマージによって最適なクラスタ数k*を自動的に決定する。
k*-平均が収束することが保証されることを証明し、kが未知のシナリオにおいて既存のメソッドよりも著しく優れていることを実験的に証明する。
論文 参考訳(メタデータ) (2025-05-17T08:41:07Z) - Deep Embedding Clustering Driven by Sample Stability [16.53706617383543]
サンプル安定性(DECS)により駆動されるディープ埋め込みクラスタリングアルゴリズムを提案する。
具体的には、まずオートエンコーダで初期特徴空間を構築し、次にサンプル安定性に制約されたクラスタ指向の埋め込み機能を学ぶ。
5つのデータセットに対する実験結果から,提案手法は最先端のクラスタリング手法と比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-01-29T09:19:49Z) - Dirichlet Process-based Robust Clustering using the Median-of-Means Estimator [16.774378814288806]
本稿では,モデルに基づく手法とセントロイド方式の長所を統合することにより,効率的かつ自動的なクラスタリング手法を提案する。
本手法は,クラスタリングの品質に及ぼすノイズの影響を緩和するが,同時にクラスタ数を推定する。
論文 参考訳(メタデータ) (2023-11-26T19:01:15Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - Gradient Based Clustering [72.15857783681658]
本稿では,クラスタリングの品質を計測するコスト関数の勾配を用いて,距離に基づくクラスタリングの一般的な手法を提案する。
アプローチは反復的な2段階の手順(クラスタ割り当てとクラスタセンターのアップデートの代替)であり、幅広い機能に適用できる。
論文 参考訳(メタデータ) (2022-02-01T19:31:15Z) - Applying Semi-Automated Hyperparameter Tuning for Clustering Algorithms [0.0]
本研究では,クラスタリング問題に対する半自動ハイパーパラメータチューニングのためのフレームワークを提案する。
グリッド検索を使用して一連のグラフを開発し、メトリクスを解釈しやすくし、より効率的なドメイン固有評価に使用できる。
予備的な結果は、内部メトリクスが、開発されたクラスタのセマンティックな品質をキャプチャできないことを示している。
論文 参考訳(メタデータ) (2021-08-25T05:48:06Z) - Differentially Private Clustering: Tight Approximation Ratios [57.89473217052714]
基本的なクラスタリング問題に対して,効率的な微分プライベートアルゴリズムを提案する。
この結果から,SampleとAggregateのプライバシーフレームワークのアルゴリズムの改善が示唆された。
1-Clusterアルゴリズムで使用されるツールの1つは、ClosestPairのより高速な量子アルゴリズムを適度な次元で得るために利用できる。
論文 参考訳(メタデータ) (2020-08-18T16:22:06Z) - Simple and Scalable Sparse k-means Clustering via Feature Ranking [14.839931533868176]
直感的で実装が簡単で,最先端のアルゴリズムと競合する,スパースk平均クラスタリングのための新しいフレームワークを提案する。
本手法は,属性のサブセットのクラスタリングや部分的に観測されたデータ設定など,タスク固有のアルゴリズムに容易に一般化できる。
論文 参考訳(メタデータ) (2020-02-20T02:41:02Z) - Optimal Clustering from Noisy Binary Feedback [75.17453757892152]
本稿では,二元的ユーザフィードバックから一組のアイテムをクラスタリングする問題について検討する。
最小クラスタ回復誤差率のアルゴリズムを考案する。
適応選択のために,情報理論的誤差下界の導出にインスパイアされたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2019-10-14T09:18:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。