論文の概要: An Asymptotic Equivalence between the Mean-Shift Algorithm and the
Cluster Tree
- arxiv url: http://arxiv.org/abs/2111.10298v1
- Date: Fri, 19 Nov 2021 16:14:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-22 16:32:13.335533
- Title: An Asymptotic Equivalence between the Mean-Shift Algorithm and the
Cluster Tree
- Title(参考訳): 平均シフトアルゴリズムとクラスタツリーの漸近等価性
- Authors: Ery Arias-Castro and Wanli Qiao
- Abstract要約: 我々は、勾配流がクラスタツリーに沿って移動する方法を提供するという理論を論じる。
その結果, サンプリング密度の標準仮定の下で, 勾配流によって与えられる分配に還元されることが判明した。
- 参考スコア(独自算出の注目度): 8.147652597876863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Two important nonparametric approaches to clustering emerged in the 1970's:
clustering by level sets or cluster tree as proposed by Hartigan, and
clustering by gradient lines or gradient flow as proposed by Fukunaga and
Hosteler. In a recent paper, we argue the thesis that these two approaches are
fundamentally the same by showing that the gradient flow provides a way to move
along the cluster tree. In making a stronger case, we are confronted with the
fact the cluster tree does not define a partition of the entire support of the
underlying density, while the gradient flow does. In the present paper, we
resolve this conundrum by proposing two ways of obtaining a partition from the
cluster tree -- each one of them very natural in its own right -- and showing
that both of them reduce to the partition given by the gradient flow under
standard assumptions on the sampling density.
- Abstract(参考訳): 1970年代には、ハルディガンが提唱したレベルセットやクラスタツリーによるクラスタリングと、福永とホステラーが提唱した勾配線や勾配流によるクラスタリングの2つの重要な非パラメトリックなアプローチが現れた。
最近の論文では、これらの2つのアプローチは基本的に同じであり、勾配流がクラスタツリーに沿って移動する手段を提供することを示す。
より強固なケースを作るとき、私たちは、勾配フローがそうであるのに対して、クラスタツリーが基盤となる密度のサポート全体の分割を定義しないという事実に直面する。
本稿では,クラスタツリーからの分割を得る2つの方法 -- それぞれが単独で非常に自然である -- を提案し,その両方がサンプリング密度の標準的な仮定の下での勾配フローによって与えられる分割に還元されることを示すことで,この混乱を解消する。
関連論文リスト
- Adversarial flows: A gradient flow characterization of adversarial attacks [1.8749305679160366]
ニューラルネットワークに対する敵攻撃を行う一般的な方法は、いわゆる高速勾配符号法である。
我々は、離散化と関連する勾配流の収束性を示す。
論文 参考訳(メタデータ) (2024-06-08T07:05:26Z) - HeNCler: Node Clustering in Heterophilous Graphs through Learned Asymmetric Similarity [55.27586970082595]
HeNClerは、Heterophilous Node Clusteringの新しいアプローチである。
HeNClerは異種グラフコンテキストにおけるノードクラスタリングタスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-05-27T11:04:05Z) - Spectral Normalized-Cut Graph Partitioning with Fairness Constraints [18.835004555146575]
正規化されたグラフ分割は、グラフ内のノードの集合を$k$ディスジョイントクラスタに分割して、任意のクラスタと他のクラスタ間の全エッジの分画を最小限にすることを目的としている。
本稿では,ノードが異なる階層群に属することを示す分類学的属性によって特徴付けられる分割問題の公平な変種について考察する。
私たちの目標は、正規化されたカット値を最小化しながら、各グループが各クラスタにほぼ比例的に表現されることを保証することです。
論文 参考訳(メタデータ) (2023-07-22T12:20:46Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Level Sets or Gradient Lines? A Unifying View of Modal Clustering [8.147652597876863]
本稿は,1970年代に出現した2つの重要なクラスタリング手法,すなわちハルディガンが提唱したレベルセットやクラスタツリーによるクラスタリングと,福永とホステラーが提唱した勾配線や勾配流によるクラスタリングの2つの重要な対応性を確立するものである。
論文 参考訳(メタデータ) (2021-09-17T05:58:56Z) - Exact Recovery in the General Hypergraph Stochastic Block Model [92.28929858529679]
本稿では,d-uniform hypergraph block model(d-HSBM)の正確な回復の基本的な限界について検討する。
精度の高いしきい値が存在し、正確な回復がしきい値の上に達成でき、その下には不可能であることを示す。
論文 参考訳(メタデータ) (2021-05-11T03:39:08Z) - Spectral clustering under degree heterogeneity: a case for the random
walk Laplacian [83.79286663107845]
本稿では,ランダムウォークラプラシアンを用いたグラフスペクトル埋め込みが,ノード次数に対して完全に補正されたベクトル表現を生成することを示す。
次数補正ブロックモデルの特別な場合、埋め込みはK個の異なる点に集中し、コミュニティを表す。
論文 参考訳(メタデータ) (2021-05-03T16:36:27Z) - Multilayer Graph Clustering with Optimized Node Embedding [70.1053472751897]
多層グラフクラスタリングは、グラフノードをカテゴリまたはコミュニティに分割することを目指しています。
与えられた多層グラフの層をクラスタリングに親しみやすい埋め込みを提案する。
実験の結果,本手法は著しい改善をもたらすことがわかった。
論文 参考訳(メタデータ) (2021-03-30T17:36:40Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Hierarchical Correlation Clustering and Tree Preserving Embedding [3.821323038670061]
本稿では,よく知られた相関クラスタリングを拡張する階層的相関クラスタリング手法を提案する。
本稿では,このような階層的相関クラスタリングを用いた教師なし表現学習について検討する。
論文 参考訳(メタデータ) (2020-02-18T17:44:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。