論文の概要: Robust Markov stability for community detection at a scale learned based on the structure
- arxiv url: http://arxiv.org/abs/2504.11621v1
- Date: Tue, 15 Apr 2025 21:16:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:38:10.437315
- Title: Robust Markov stability for community detection at a scale learned based on the structure
- Title(参考訳): 構造から学習した規模でのコミュニティ検出のためのロバストマルコフ安定性
- Authors: Samin Aref, Sanchaai Mathiyarasan,
- Abstract要約: 本稿では、PyGenStabilityが生成する複数のパーティションから、1つのロバストなパーティションを適切なスケールで選択するための原則的手法を提案する。
提案手法は,マルコフ安定性フレームワークと事前学習された機械学習モデルを組み合わせて,スケール選択を行う。
PyGenStabilityOne (PO) は他の25のアルゴリズムよりも統計的に有意なマージンで優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Community detection, the unsupervised task of clustering nodes of a graph, finds applications across various fields. The common approaches for community detection involve optimizing an objective function to partition the nodes into communities at a single scale of granularity. However, the single-scale approaches often fall short of producing partitions that are robust and at a suitable scale. The existing algorithm, PyGenStability, returns multiple robust partitions for a network by optimizing the multi-scale Markov stability function. However, in cases where the suitable scale is not known or assumed by the user, there is no principled method to select a single robust partition at a suitable scale from the multiple partitions that PyGenStability produces. Our proposed method combines the Markov stability framework with a pre-trained machine learning model for scale selection to obtain one robust partition at a scale that is learned based on the graph structure. This automatic scale selection involves using a gradient boosting model pre-trained on hand-crafted and embedding-based network features from a labeled dataset of 10k benchmark networks. This model was trained to predicts the scale value that maximizes the similarity of the output partition to the planted partition of the benchmark network. Combining our scale selection algorithm with the PyGenStability algorithm results in PyGenStabilityOne (PO): a hyperparameter-free multi-scale community detection algorithm that returns one robust partition at a suitable scale without the need for any assumptions, input, or tweaking from the user. We compare the performance of PO against 29 algorithms and show that it outperforms 25 other algorithms by statistically meaningful margins. Our results facilitate choosing between community detection algorithms, among which PO stands out as the accurate, robust, and hyperparameter-free method.
- Abstract(参考訳): グラフのクラスタリングノードの教師なしタスクであるコミュニティ検出は、さまざまなフィールドにわたるアプリケーションを見つける。
コミュニティ検出の一般的なアプローチは、単一スケールの粒度でノードをコミュニティに分割する目的関数を最適化することである。
しかしながら、単一スケールのアプローチは、堅牢で適切なスケールのパーティションを生成するのに不足することが多い。
既存のアルゴリズムであるPyGenStabilityは、マルチスケールのマルコフ安定性関数を最適化することにより、ネットワークに対して複数の堅牢なパーティションを返す。
しかし、適切なスケールが分かっていない場合、PyGenStabilityが生成する複数のパーティションから、適切なスケールで単一のロバストパーティションを選択するための原則的な方法はない。
提案手法は,マルコフ安定性フレームワークと事前学習された機械学習モデルを組み合わせることで,グラフ構造に基づいて学習した1つのロバストなパーティションを得る。
この自動スケール選択は、10kベンチマークネットワークのラベル付きデータセットから手作りおよび埋め込みベースのネットワーク機能で事前訓練された勾配ブースティングモデルを使用する。
このモデルは、ベンチマークネットワークの植込みパーティションと出力パーティションの類似性を最大化するスケール値を予測するために訓練された。
スケール選択アルゴリズムとPyGenStabilityアルゴリズムを組み合わせることで、PyGenStabilityOne (PO): ユーザからの仮定、入力、調整を必要とせずに、1つのロバストパーティションを適切なスケールで返す、ハイパーパラメータフリーなマルチスケールコミュニティ検出アルゴリズム。
我々はPOの性能を29のアルゴリズムと比較し、統計的に有意なマージンで25のアルゴリズムより優れていることを示す。
この結果からコミュニティ検出アルゴリズムの選択が容易となり,POは精度,ロバスト,ハイパーパラメータフリーの手法として注目されている。
関連論文リスト
- Towards Hyper-parameter-free Federated Learning [1.3682156035049038]
グローバルモデル更新の自動スケーリングのためのアルゴリズムを導入する。
第1のアルゴリズムでは、クライアントにおける降下検知ステップサイズ体制が、サーバの目的に対して降下を保証することが保証される。
第2のアルゴリズムは、サンプリングされたクライアントの目的値の平均値が、スケーリング係数を計算するのに必要な値サーバの実用的で効果的な代用であることを示している。
論文 参考訳(メタデータ) (2024-08-30T09:35:36Z) - Ensemble Quadratic Assignment Network for Graph Matching [52.20001802006391]
グラフマッチングはコンピュータビジョンやパターン認識において一般的に用いられる技法である。
最近のデータ駆動型アプローチは、グラフマッチングの精度を著しく改善した。
データ駆動手法と従来の手法の利点を組み合わせたグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-11T06:34:05Z) - A Weighted K-Center Algorithm for Data Subset Selection [70.49696246526199]
サブセット選択は、トレーニングデータの小さな部分を特定する上で重要な役割を果たす、基本的な問題である。
我々は,k中心および不確かさサンプリング目的関数の重み付け和に基づいて,サブセットを計算する新しい係数3近似アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-17T04:41:07Z) - Morphologically-Aware Consensus Computation via Heuristics-based
IterATive Optimization (MACCHIatO) [1.8749305679160362]
本稿では,慎重に選択された距離のFr'echet平均に基づいて,二分法あるいは確率的コンセンサスセグメンテーションを構築する手法を提案する。
その結果,2値のコンセンサスマスクが多数投票とSTAPLEの中間サイズとなり,Mask Averaging法とSTAPLE法との違いが判明した。
論文 参考訳(メタデータ) (2023-09-14T23:28:58Z) - PointInst3D: Segmenting 3D Instances by Points [136.7261709896713]
本稿では,ポイント単位の予測方式で機能する,完全畳み込み型3Dポイントクラウドインスタンスセグメンテーション手法を提案する。
その成功の鍵は、各サンプルポイントに適切なターゲットを割り当てることにある。
提案手法はScanNetとS3DISのベンチマークで有望な結果が得られる。
論文 参考訳(メタデータ) (2022-04-25T02:41:46Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Asynchronous Distributed Reinforcement Learning for LQR Control via Zeroth-Order Block Coordinate Descent [7.6860514640178]
分散強化学習のための新しいゼロ階最適化アルゴリズムを提案する。
これにより、各エージェントはコンセンサスプロトコルを使わずに、コスト評価を独立してローカル勾配を推定できる。
論文 参考訳(メタデータ) (2021-07-26T18:11:07Z) - Fast Network Community Detection with Profile-Pseudo Likelihood Methods [19.639557431997037]
ブロックモデル確率関数に適合するほとんどのアルゴリズムは、大規模ネットワークには拡張できない。
本稿では,行ラベルと列ラベルを疎結合する新たな可能性的アプローチを提案する。
本手法は,ブロックモデルにおいて,コミュニティの強い一貫した推定値を提供することを示す。
論文 参考訳(メタデータ) (2020-11-01T23:40:26Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - Scope Head for Accurate Localization in Object Detection [135.9979405835606]
本研究では,各位置のアンカーを相互依存関係としてモデル化したScopeNetと呼ばれる新しい検出器を提案する。
我々の簡潔で効果的な設計により、提案したScopeNetはCOCOの最先端の成果を達成する。
論文 参考訳(メタデータ) (2020-05-11T04:00:09Z) - Robust Learning Rate Selection for Stochastic Optimization via Splitting
Diagnostic [5.395127324484869]
SplitSGDは最適化のための新しい動的学習スケジュールである。
本手法は,対象関数の局所的幾何への適応性を向上するために学習率を低下させる。
基本的には標準のSGDよりも計算コストがかかるわけではない。
論文 参考訳(メタデータ) (2019-10-18T19:38:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。