論文の概要: Recurrent Graph Neural Network Algorithm for Unsupervised Network
Community Detection
- arxiv url: http://arxiv.org/abs/2103.02520v1
- Date: Wed, 3 Mar 2021 16:50:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 14:44:10.306508
- Title: Recurrent Graph Neural Network Algorithm for Unsupervised Network
Community Detection
- Title(参考訳): 教師なしネットワークコミュニティ検出のためのグラフニューラルネットワークの繰り返しアルゴリズム
- Authors: Stanislav Sobolevsky
- Abstract要約: 本稿では,モジュール性最適化による非教師付きネットワークコミュニティ検出のための再帰グラフニューラルネットワークアルゴリズムの新しい変種を提案する。
新しいアルゴリズムのパフォーマンスは、人気があり高速なLouvain法と、最近著者が提案したより効率的だが遅いComboアルゴリズムと比較される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network community detection often relies on optimizing partition quality
functions, like modularity. This optimization appears to be a complex problem
traditionally relying on discrete heuristics. And although the problem could be
reformulated as continuous optimization, direct application of the standard
optimization methods has limited efficiency in overcoming the numerous local
extrema. However, the rise of deep learning and its applications to graphs
offers new opportunities. And while graph neural networks have been used for
supervised and unsupervised learning on networks, their application to
modularity optimization has not been explored yet. This paper proposes a new
variant of the recurrent graph neural network algorithm for unsupervised
network community detection through modularity optimization. The new
algorithm's performance is compared against a popular and fast Louvain method
and a more efficient but slower Combo algorithm recently proposed by the
author. The approach also serves as a proof-of-concept for the broader
application of recurrent graph neural networks to unsupervised network
optimization.
- Abstract(参考訳): ネットワークコミュニティの検出は、モジュール化のようなパーティション品質機能の最適化にしばしば依存する。
この最適化は、伝統的に離散ヒューリスティックに依存する複雑な問題である。
問題は連続的な最適化として再構成されるかもしれないが、標準的な最適化方法の直接適用は多数のローカルエクストレマを克服する効率を制限している。
しかし、ディープラーニングの台頭とそのグラフへの応用は新しい機会をもたらす。
グラフニューラルネットワークはネットワーク上の教師付き学習や教師なし学習に使用されているが、モジュラリティ最適化への応用はまだ検討されていない。
本稿では,モジュール性最適化による非教師付きネットワークコミュニティ検出のための再帰グラフニューラルネットワークアルゴリズムの新しい変種を提案する。
新しいアルゴリズムのパフォーマンスは、人気があり高速なLouvain法と、最近著者が提案したより効率的だが遅いComboアルゴリズムと比較される。
このアプローチはまた、教師なしネットワーク最適化へのリカレントグラフニューラルネットワークの広範な適用に対する概念実証としても機能する。
関連論文リスト
- Enhancing GNNs Performance on Combinatorial Optimization by Recurrent Feature Update [0.09986418756990156]
本稿では,組合せ最適化(CO)問題を効率よく解くために,GNNのパワーを活用して,QRF-GNNと呼ぶ新しいアルゴリズムを提案する。
QUBO緩和による損失関数の最小化による教師なし学習に依存している。
実験の結果、QRF-GNNは既存の学習ベースアプローチを大幅に上回り、最先端の手法に匹敵することがわかった。
論文 参考訳(メタデータ) (2024-07-23T13:34:35Z) - Online Network Source Optimization with Graph-Kernel MAB [62.6067511147939]
大規模ネットワークにおける最適なソース配置をオンラインで学習するためのグラフカーネルマルチアームバンディットアルゴリズムであるGrab-UCBを提案する。
適応グラフ辞書モデルを用いて,ネットワークプロセスを記述する。
我々は、ネットワークパラメータに依存する性能保証を導出し、シーケンシャルな意思決定戦略の学習曲線にさらに影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-07T15:03:42Z) - Layer Collaboration in the Forward-Forward Algorithm [28.856139738073626]
フォワードフォワードアルゴリズムにおける層間協調について検討する。
ネットワーク内の情報の流れを考慮した場合, フォワードアルゴリズムの現在のバージョンが最適であることを示す。
ネットワーク構造をよりよく活用するために,レイヤコラボレーションをサポートする改良版を提案する。
論文 参考訳(メタデータ) (2023-05-21T08:12:54Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Alternately Optimized Graph Neural Networks [33.98939289745346]
グラフ上の半教師付き学習のための新しい最適化フレームワークを提案する。
提案手法は交互最適化アルゴリズムにより便利に解けるので,効率は大幅に向上する。
論文 参考訳(メタデータ) (2022-06-08T01:50:08Z) - A Continuous Optimisation Benchmark Suite from Neural Network Regression [0.0]
ニューラルネットワークのトレーニングは、近年のディープラーニングの成功で注目を集めている最適化タスクである。
勾配降下変種は、大規模機械学習タスクにおける信頼性の高いパフォーマンスにおいて、最も一般的な選択である。
CORNNは、ニューラルネットワークのトレーニング問題に対して、連続的なブラックボックスアルゴリズムのパフォーマンスをベンチマークするスイートである。
論文 参考訳(メタデータ) (2021-09-12T20:24:11Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Community detection using fast low-cardinality semidefinite programming [94.4878715085334]
局所的な更新を一般化し、ライデン-k-カットから導かれる半定緩和を最大化する、新しい低カルチナリティアルゴリズムを提案する。
提案アルゴリズムはスケーラビリティが高く,最先端のアルゴリズムより優れ,実時間では性能が向上し,追加コストがほとんどない。
論文 参考訳(メタデータ) (2020-12-04T15:46:30Z) - A Dynamical View on Optimization Algorithms of Overparameterized Neural
Networks [23.038631072178735]
我々は、一般的に使用される最適化アルゴリズムの幅広いクラスについて考察する。
その結果、ニューラルネットワークの収束挙動を利用することができる。
このアプローチは他の最適化アルゴリズムやネットワーク理論にも拡張できると考えています。
論文 参考訳(メタデータ) (2020-10-25T17:10:22Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Dynamic Hierarchical Mimicking Towards Consistent Optimization
Objectives [73.15276998621582]
一般化能力を高めたCNN訓練を推進するための汎用的特徴学習機構を提案する。
DSNに部分的にインスパイアされた私たちは、ニューラルネットワークの中間層から微妙に設計されたサイドブランチをフォークしました。
カテゴリ認識タスクとインスタンス認識タスクの両方の実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2020-03-24T09:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。