論文の概要: High-Dimensional Wide Gap $k$-Means Versus Clustering Axioms
- arxiv url: http://arxiv.org/abs/2211.17036v1
- Date: Wed, 30 Nov 2022 14:31:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 15:53:26.662797
- Title: High-Dimensional Wide Gap $k$-Means Versus Clustering Axioms
- Title(参考訳): 高次元ワイドギャップ$k$-means対クラスタリング公理
- Authors: Mieczys{\l}aw A. K{\l}opotek
- Abstract要約: 我々は,高次元空間に埋め込み,クラスタ間の広いギャップを与えることによってこの問題に対処する試みを行っている。
距離に基づくクラスタリングに対するクラインバーグの公理は矛盾することが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kleinberg's axioms for distance based clustering proved to be contradictory.
Various efforts have been made to overcome this problem.
Here we make an attempt to handle the issue by embedding in high-dimensional
space and granting wide gaps between clusters.
- Abstract(参考訳): 距離に基づくクラスタリングに対するクラインバーグの公理は矛盾することが判明した。
この問題を解決するために様々な努力がなされている。
ここでは,高次元空間に埋め込み,クラスタ間の広いギャップを付与することでこの問題に対処しようとする。
関連論文リスト
- Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - How To Overcome Richness Axiom Fallacy [0.0]
この論文は、クラインベルクの公理系におけるリッチネス公理によって示唆される悲しみの問題を指摘している。
豊かさは一般に学習可能性の問題を引き起こし、一貫性の公理と矛盾する。
論文 参考訳(メタデータ) (2022-10-27T14:39:48Z) - Continuous percolation in a Hilbert space for a large system of qubits [58.720142291102135]
パーコレーション遷移は無限クラスターの出現によって定義される。
ヒルベルト空間の指数的に増加する次元性は、有限サイズの超球面による被覆を非効率にすることを示す。
コンパクトな距離空間におけるパーコレーション遷移への我々のアプローチは、他の文脈での厳密な処理に有用である。
論文 参考訳(メタデータ) (2022-10-15T13:53:21Z) - On Mitigating Hard Clusters for Face Clustering [48.39472979642971]
顔クラスタリングは、大規模な未ラベルの顔画像を使用して顔認識システムをスケールアップするための有望な方法である。
我々はNDDe(Neighborhood-Diffusion-based Density)とTPDi(Transition-Probability-based Distance)の2つの新しいモジュールを紹介した。
複数のベンチマーク実験により,各モジュールが最終性能に寄与することが示された。
論文 参考訳(メタデータ) (2022-07-25T03:55:15Z) - How I learned to stop worrying and love the curse of dimensionality: an
appraisal of cluster validation in high-dimensional spaces [0.0]
本研究では,一般的なユークリッドノルムに基づくクラスタ指標の感度が,様々な合成データスキームの次元でどのようにスケールするかを検討する。
その結果、指数の圧倒的多数は高次元での感度を改善したり安定させたりしていることがわかった。
論文 参考訳(メタデータ) (2022-01-13T21:17:10Z) - Lattice-Based Methods Surpass Sum-of-Squares in Clustering [98.46302040220395]
クラスタリングは教師なし学習における基本的なプリミティブである。
最近の研究は、低次手法のクラスに対する低い境界を確立している。
意外なことに、この特定のクラスタリングモデルのtextitdoesは、統計的-計算的ギャップを示さない。
論文 参考訳(メタデータ) (2021-12-07T18:50:17Z) - Clustering to the Fewest Clusters Under Intra-Cluster Dissimilarity
Constraints [0.0]
均等なクラスタリングは、密度も期待されるクラスの数にも依存せず、相似性の閾値にも依存します。
このクラスタリング問題に対する様々な実践的ソリューション間のトレードオフを特定するために,適切なクラスタリングアルゴリズムをレビューし,評価する。
論文 参考訳(メタデータ) (2021-09-28T12:02:18Z) - Local versions of sum-of-norms clustering [77.34726150561087]
本手法はボールモデルにおいて任意に閉じた球を分離できることを示す。
我々は、不連結連結集合のクラスタリングで発生する誤差に定量的な有界性を証明した。
論文 参考訳(メタデータ) (2021-09-20T14:45:29Z) - The role of regularization in classification of high-dimensional noisy
Gaussian mixture [36.279288150100875]
雑音状態における2つのガウスの高次元混合を考える。
正規化凸分類器の一般化誤差を厳密に解析する。
ベイズ最適性能に到達できるような正規化の驚くべき効果について論じる。
論文 参考訳(メタデータ) (2020-02-26T14:54:28Z) - Explicit agreement extremes for a $2\times2$ table with given marginals [0.0]
クラスタリング間の合意を最大化(あるいは最小化する)する問題は、与えられた限界を条件として、共通の枠組みの下で正式に提案することができる。
ここでは、2つのクラスタリングがそれぞれ2つのクラスタを持つ場合の明示的な解を示す。
論文 参考訳(メタデータ) (2020-01-21T09:47:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。