論文の概要: Optimal Clustering of Discrete Mixtures: Binomial, Poisson, Block
Models, and Multi-layer Networks
- arxiv url: http://arxiv.org/abs/2311.15598v1
- Date: Mon, 27 Nov 2023 07:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 16:38:23.423321
- Title: Optimal Clustering of Discrete Mixtures: Binomial, Poisson, Block
Models, and Multi-layer Networks
- Title(参考訳): 離散混合系の最適クラスタリング:二項, ポアソン, ブロックモデル, 多層ネットワーク
- Authors: Zhongyuan Lyu, Ting Li, Dong Xia
- Abstract要約: 多層ネットワークが存在する場合のクラスタリングネットワークの基本的限界について検討する。
混合多層ブロックモデル (MMSBM) では, 最適ネットワーククラスタリング誤差率の最小値が指数関数形式であることを示す。
本稿では,ノード分割とサンプル分割の両方を含むテンソルベースアルゴリズムを含む,新しい2段階ネットワーククラスタリング手法を提案する。
- 参考スコア(独自算出の注目度): 9.57586103097079
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we first study the fundamental limit of clustering networks
when a multi-layer network is present. Under the mixture multi-layer stochastic
block model (MMSBM), we show that the minimax optimal network clustering error
rate, which takes an exponential form and is characterized by the Renyi
divergence between the edge probability distributions of the component
networks. We propose a novel two-stage network clustering method including a
tensor-based initialization algorithm involving both node and sample splitting
and a refinement procedure by likelihood-based Lloyd algorithm. Network
clustering must be accompanied by node community detection. Our proposed
algorithm achieves the minimax optimal network clustering error rate and allows
extreme network sparsity under MMSBM. Numerical simulations and real data
experiments both validate that our method outperforms existing methods.
Oftentimes, the edges of networks carry count-type weights. We then extend our
methodology and analysis framework to study the minimax optimal clustering
error rate for mixture of discrete distributions including Binomial, Poisson,
and multi-layer Poisson networks. The minimax optimal clustering error rates in
these discrete mixtures all take the same exponential form characterized by the
Renyi divergences. These optimal clustering error rates in discrete mixtures
can also be achieved by our proposed two-stage clustering algorithm.
- Abstract(参考訳): 本稿では,まず,多層ネットワークが存在する場合のクラスタリングネットワークの基本限界について検討する。
混合多層確率ブロックモデル (mmsbm) では, 指数関数形式をとり, 成分ネットワークのエッジ確率分布間のrenyi発散を特徴とする最小最適ネットワーククラスタリング誤差率を示す。
本稿では,ノード分割とサンプル分割の両方を含むテンソルに基づく初期化アルゴリズムと,ラピッドベースロイドアルゴリズムによる改良手順を含む,新しい2段階ネットワーククラスタリング手法を提案する。
ネットワーククラスタリングにはノードコミュニティ検出を伴わなければならない。
提案アルゴリズムは,最大ネットワーククラスタリング誤差率の最小化を実現し,MMSBM下での極端ネットワーク間隔を許容する。
数値シミュレーションと実データ実験はどちらも,本手法が既存手法より優れていることを示す。
多くの場合、ネットワークのエッジはカウントタイプの重みを持つ。
次に,Binomial,Poisson,および多層Poissonネットワークを含む離散分布の混合に対する最小クラスタリング誤差率について検討するために,方法論と分析フレームワークを拡張した。
これらの離散混合系におけるミニマックス最適クラスタリング誤差率は、すべてrenyiの発散によって特徴づけられる同じ指数型をとる。
これらの離散混合系における最適クラスタリング誤差率は,提案する2段階クラスタリングアルゴリズムによっても達成できる。
関連論文リスト
- Rethinking Clustered Federated Learning in NOMA Enhanced Wireless
Networks [60.09912912343705]
本研究では,新しいクラスタ化フェデレーション学習(CFL)アプローチと,非独立かつ同一に分散した(非IID)データセットを統合することのメリットについて検討する。
データ分布における非IIDの度合いを測定する一般化ギャップの詳細な理論的解析について述べる。
非IID条件によって引き起こされる課題に対処する解決策は、特性の分析によって提案される。
論文 参考訳(メタデータ) (2024-03-05T17:49:09Z) - Universal Lower Bounds and Optimal Rates: Achieving Minimax Clustering Error in Sub-Exponential Mixture Models [8.097200145973389]
まず、混合モデルのクラスタリングにおける誤差率の普遍的な下限を確立する。
次に、この下界をサブ指数尾を持つ混合モデルで再現的アルゴリズムが達成できることを実証する。
ポアソンまたは負二項混合によりモデル化されたデータセットについて,指数族に属する混合モデルについて検討した。
このような混合では、ブロッグマンの発散を利用したロイドのアルゴリズムの変種であるブロッグマンのハードクラスタリングが最適であることを示す。
論文 参考訳(メタデータ) (2024-02-23T16:51:17Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Layer Ensembles [95.42181254494287]
本稿では,ネットワークの各層に対する独立なカテゴリ分布の集合を考慮した不確実性推定手法を提案する。
その結果,メモリと実行時間が少なくなるモデルが得られた。
論文 参考訳(メタデータ) (2022-10-10T17:52:47Z) - Unsupervised Clustered Federated Learning in Complex Multi-source
Acoustic Environments [75.8001929811943]
現実的で挑戦的なマルチソース・マルチルーム音響環境を導入する。
本稿では,音響シーンの変動を考慮したクラスタリング制御手法を提案する。
提案手法はクラスタリングに基づく測度を用いて最適化され,ネットワークワイド分類タスクによって検証される。
論文 参考訳(メタデータ) (2021-06-07T14:51:39Z) - ALMA: Alternating Minimization Algorithm for Clustering Mixture
Multilayer Network [20.888592224540748]
目標は、多層ネットワークを同様のレイヤのクラスタに分割し、それらのレイヤ内のコミュニティを特定することだ。
本稿では,層分割の同時回復を目的とした交互最小化アルゴリズム (ALMA) を提案する。
論文 参考訳(メタデータ) (2021-02-20T01:26:55Z) - Spectral clustering via adaptive layer aggregation for multi-layer
networks [6.0073653636512585]
有効凸層アグリゲーションに基づく積分スペクトルクラスタリング手法を提案する。
提案手法は, 広く用いられている手法と比較して, 極めて競争力が高いことを示す。
論文 参考訳(メタデータ) (2020-12-07T21:58:18Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Local Graph Clustering with Network Lasso [90.66817876491052]
局所グラフクラスタリングのためのネットワークLasso法の統計的および計算的性質について検討する。
nLassoによって提供されるクラスタは、クラスタ境界とシードノードの間のネットワークフローを通じて、エレガントに特徴付けられる。
論文 参考訳(メタデータ) (2020-04-25T17:52:05Z) - Randomized spectral co-clustering for large-scale directed networks [15.486507430729052]
共同クラスタリングは、有向ネットワークの送信者と受信者を同時にクラスタ化することを目的としている。
スケッチ技術を活用し、2つのランダム化スペクトルコクラスタリングアルゴリズムを導出する。
我々は、それらの近似誤差率と誤クラスタリング誤差率を確立し、共クラスタリング文学の最先端結果よりも優れた境界を示す。
論文 参考訳(メタデータ) (2020-04-25T15:00:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。