論文の概要: Neural Normalized Cut: A Differential and Generalizable Approach for Spectral Clustering
- arxiv url: http://arxiv.org/abs/2503.09260v1
- Date: Wed, 12 Mar 2025 11:00:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:35:16.596808
- Title: Neural Normalized Cut: A Differential and Generalizable Approach for Spectral Clustering
- Title(参考訳): ニューラルノーマライズドカット:スペクトルクラスタリングにおける微分および一般化可能なアプローチ
- Authors: Wei He, Shangzhi Zhang, Chun-Guang Li, Xianbiao Qi, Rong Xiao, Jun Guo,
- Abstract要約: スペクトルクラスタリングのクラスタリングメンバシップを直接学習するために,ニューラル正規化カット(NeuNcut)と呼ばれるスケーラブルで一般化可能なアプローチを提案する。
我々は、合成データとベンチマークデータセットの両方について広範な実験を行い、我々のアプローチの有効性と優位性を検証した。
- 参考スコア(独自算出の注目度): 13.251662213010075
- License:
- Abstract: Spectral clustering, as a popular tool for data clustering, requires an eigen-decomposition step on a given affinity to obtain the spectral embedding. Nevertheless, such a step suffers from the lack of generalizability and scalability. Moreover, the obtained spectral embeddings can hardly provide a good approximation to the ground-truth partition and thus a k-means step is adopted to quantize the embedding. In this paper, we propose a simple yet effective scalable and generalizable approach, called Neural Normalized Cut (NeuNcut), to learn the clustering membership for spectral clustering directly. In NeuNcut, we properly reparameterize the unknown cluster membership via a neural network, and train the neural network via stochastic gradient descent with a properly relaxed normalized cut loss. As a result, our NeuNcut enjoys a desired generalization ability to directly infer clustering membership for out-of-sample unseen data and hence brings us an efficient way to handle clustering task with ultra large-scale data. We conduct extensive experiments on both synthetic data and benchmark datasets and experimental results validate the effectiveness and the superiority of our approach. Our code is available at: https://github.com/hewei98/NeuNcut.
- Abstract(参考訳): データクラスタリングの一般的なツールであるスペクトルクラスタリングは、スペクトル埋め込みを得るために、与えられた親和性に対する固有分解ステップを必要とする。
それでも、そのようなステップは、一般化性とスケーラビリティの欠如に悩まされている。
さらに、得られたスペクトル埋め込みは、接地トラス分割に良好な近似を与えることができず、したがって、埋め込みを定量化するためにk平均ステップが採用される。
本稿では,ニューラル正規化カット (NeuNcut) と呼ばれる単純なスケーラブルかつ一般化可能な手法を提案し,スペクトルクラスタリングのクラスタリングメンバシップを直接学習する。
NeuNcutでは、ニューラルネットワークを介して未知のクラスタメンバシップを適切にパラメータ化し、正規化カット損失を適切に緩和した確率勾配勾配勾配を用いてニューラルネットワークをトレーニングする。
結果として,我々のNeuNcutは,クラスタリングメンバシップを直接推論する,望まれる一般化能力を享受し,超大規模データによるクラスタリングタスクの効率的な処理方法を提供する。
我々は、合成データとベンチマークデータセットの両方について広範な実験を行い、我々のアプローチの有効性と優位性を検証した。
私たちのコードは、https://github.com/hewei98/NeuNcut.comで利用可能です。
関連論文リスト
- Nonlinear subspace clustering by functional link neural networks [20.972039615938193]
フィードフォワードニューラルネットワークに基づくサブスペースクラスタリングは、いくつかの高度なサブスペースクラスタリングアルゴリズムよりも優れたクラスタリング精度を提供することを示した。
我々は,データサンプルを非線形領域に変換するために,関数型リンクニューラルネットワークを用いる。
本稿では,線形サブスペースクラスタリング手法と関数型リンクニューラルネットワークサブスペースクラスタリング手法を組み合わせた凸結合サブスペースクラスタリング手法を提案する。
論文 参考訳(メタデータ) (2024-02-03T06:01:21Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - A Scalable Walsh-Hadamard Regularizer to Overcome the Low-degree
Spectral Bias of Neural Networks [79.28094304325116]
任意の関数を学習するニューラルネットワークの能力にもかかわらず、勾配降下によって訓練されたモデルは、しばしばより単純な関数に対するバイアスを示す。
我々は、この低度周波数に対するスペクトルバイアスが、現実のデータセットにおけるニューラルネットワークの一般化を実際にいかに損なうかを示す。
本稿では,ニューラルネットワークによる高次周波数学習を支援する,スケーラブルな機能正規化手法を提案する。
論文 参考訳(メタデータ) (2023-05-16T20:06:01Z) - Learning Neural Eigenfunctions for Unsupervised Semantic Segmentation [12.91586050451152]
スペクトルクラスタリング(英: Spectral clustering)は、異なるクラスタを構築するために画素のスペクトル埋め込みを計算する理論上の解である。
現在のアプローチは、まだスペクトル分解の非効率性と、試験データに適用する際の柔軟性に悩まされている。
この研究は、スペクトルクラスタリングをニューラルネットワークに基づく固有関数を用いてスペクトル埋め込みを生成するパラメトリックアプローチとしてキャストすることで、これらの問題に対処する。
実際には、神経固有関数は軽量であり、事前訓練されたモデルの特徴を入力とし、トレーニング効率を改善し、より密集した予測のための事前訓練されたモデルの可能性を解き放つ。
論文 参考訳(メタデータ) (2023-04-06T03:14:15Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Improving Spectral Clustering Using Spectrum-Preserving Node Reduction [1.52292571922932]
我々は、スペクトル保存ノード還元を用いて固有分解を加速し、データセットの簡潔な表現を生成する。
実験の結果,最先端手法と比較してクラスタリング性能が劇的に向上した。
論文 参考訳(メタデータ) (2021-10-24T01:43:12Z) - Variational Auto Encoder Gradient Clustering [0.0]
近年,ディープニューラルネットワークモデルを用いたクラスタリングが広く研究されている。
本稿では、より良いクラスタリングを実現するために確率関数勾配上昇を使用してデータを処理する方法を検討する。
DBSCANクラスタリングアルゴリズムに基づいて,データに適したクラスタ数を調べるための簡便かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2021-05-11T08:00:36Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Local Graph Clustering with Network Lasso [90.66817876491052]
局所グラフクラスタリングのためのネットワークLasso法の統計的および計算的性質について検討する。
nLassoによって提供されるクラスタは、クラスタ境界とシードノードの間のネットワークフローを通じて、エレガントに特徴付けられる。
論文 参考訳(メタデータ) (2020-04-25T17:52:05Z) - OSLNet: Deep Small-Sample Classification with an Orthogonal Softmax
Layer [77.90012156266324]
本稿では,ニューラルネットワークのサブスペースを見つけることを目的としている。
そこで本研究では,Orthogonal Softmax Layer (OSL) を提案する。
実験結果から,提案OSLは4つの小サンプルベンチマークデータセットとの比較に用いた手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-20T02:41:01Z) - Robust Classification of High-Dimensional Spectroscopy Data Using Deep
Learning and Data Synthesis [0.5801044612920815]
分光データのバイナリ分類における局所接続型ニューラルネットワーク(NN)の新たな応用を提案する。
2段階の分類プロセスは、2段階の分類パラダイムと1段階の分類パラダイムの代替として提示される。
論文 参考訳(メタデータ) (2020-03-26T11:33:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。