論文の概要: Large Scale Traning of Graph Neural Networks for Optimal Markov-Chain
Partitioning Using the Kemeny Constant
- arxiv url: http://arxiv.org/abs/2312.14847v1
- Date: Fri, 22 Dec 2023 17:19:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 14:18:48.007818
- Title: Large Scale Traning of Graph Neural Networks for Optimal Markov-Chain
Partitioning Using the Kemeny Constant
- Title(参考訳): kemeny定数を用いた最適マルコフ鎖分割のためのグラフニューラルネットワークの大規模トレーディング
- Authors: Sam Alexander Martino, Jo\~ao Morado, Chenghao Li, Zhenghao Lu, Edina
Rosta
- Abstract要約: 我々は,マルコフ連鎖のグラフ分割問題に対処するGNNアーキテクチャをいくつか提案する。
このアプローチは、提案されたパーティショニングがケメニー定数をどの程度変更するかを最小化することを目的としている。
線形層を持つグラフSAGEベースのGNNが、この文脈でより大きく、より表現力に富んだアテンションベースモデルよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 1.9716028647013701
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional clustering algorithms often struggle to capture the complex
relationships within graphs and generalise to arbitrary clustering criteria.
The emergence of graph neural networks (GNNs) as a powerful framework for
learning representations of graph data provides new approaches to solving the
problem. Previous work has shown GNNs to be capable of proposing partitionings
using a variety of criteria, however, these approaches have not yet been
extended to work on Markov chains or kinetic networks. These arise frequently
in the study of molecular systems and are of particular interest to the
biochemical modelling community. In this work, we propose several GNN-based
architectures to tackle the graph partitioning problem for Markov Chains
described as kinetic networks. This approach aims to minimize how much a
proposed partitioning changes the Kemeny constant. We propose using an
encoder-decoder architecture and show how simple GraphSAGE-based GNNs with
linear layers can outperform much larger and more expressive attention-based
models in this context. As a proof of concept, we first demonstrate the
method's ability to cluster randomly connected graphs. We also use a linear
chain architecture corresponding to a 1D free energy profile as our kinetic
network. Subsequently, we demonstrate the effectiveness of our method through
experiments on a data set derived from molecular dynamics. We compare the
performance of our method to other partitioning techniques such as PCCA+. We
explore the importance of feature and hyperparameter selection and propose a
general strategy for large-scale parallel training of GNNs for discovering
optimal graph partitionings.
- Abstract(参考訳): 従来のクラスタリングアルゴリズムは、グラフ内の複雑な関係を捉え、任意のクラスタリング基準に一般化するのに苦労することが多い。
グラフデータの表現を学習する強力なフレームワークとしてのグラフニューラルネットワーク(GNN)の出現は、その問題を解決するための新しいアプローチを提供する。
これまでの研究は、GNNが様々な基準を用いてパーティショニングを提案できることを示したが、これらのアプローチはまだマルコフ連鎖や運動ネットワークに拡張されていない。
これらは分子システムの研究で頻繁に発生し、特に生化学的モデリングのコミュニティに興味を持つ。
本稿では,マルコフ連鎖のグラフ分割問題に対処するために,複数のgnnベースのアーキテクチャを提案する。
このアプローチは、提案されたパーティショニングがケメニー定数をどの程度変更するかを最小化することを目的としている。
本稿では,エンコーダデコーダアーキテクチャを用いて,リニアレイヤを持つGraphSAGEベースのGNNが,このコンテキストにおいてより大きく,より表現力に富んだアテンションベースモデルよりも優れていることを示す。
概念実証として,まずランダムに連結されたグラフをクラスタ化する手法を実証する。
また、運動ネットワークとして1次元自由エネルギープロファイルに対応する線形鎖構造を用いる。
その後,分子動力学から得られたデータセットを用いた実験により,本手法の有効性を示す。
本手法の性能をpcca+などの他の分割手法と比較する。
本稿では,特徴量選択とハイパーパラメータ選択の重要性を検討し,gnnの大規模並列学習のための汎用的戦略を提案する。
関連論文リスト
- Graph as a feature: improving node classification with non-neural graph-aware logistic regression [2.952177779219163]
Graph-aware Logistic Regression (GLR) はノード分類タスク用に設計された非神経モデルである。
GNNにアクセスできる情報のごく一部しか使わない従来のグラフアルゴリズムとは異なり、提案モデルではノードの特徴とエンティティ間の関係を同時に活用する。
論文 参考訳(メタデータ) (2024-11-19T08:32:14Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Ensemble Quadratic Assignment Network for Graph Matching [52.20001802006391]
グラフマッチングはコンピュータビジョンやパターン認識において一般的に用いられる技法である。
最近のデータ駆動型アプローチは、グラフマッチングの精度を著しく改善した。
データ駆動手法と従来の手法の利点を組み合わせたグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-11T06:34:05Z) - DGCLUSTER: A Neural Framework for Attributed Graph Clustering via
Modularity Maximization [5.329981192545312]
本稿では,グラフニューラルネットワークを用いてモジュラリティの目的を最適化し,グラフサイズと線形にスケールする新しい手法DGClusterを提案する。
私たちはDGClusterを、さまざまなサイズの実世界のデータセットで、複数の一般的なクラスタ品質メトリクスで広範囲にテストしています。
われわれの手法は最先端の手法よりも一貫して優れており、ほぼすべての設定で顕著な性能向上を示している。
論文 参考訳(メタデータ) (2023-12-20T01:43:55Z) - Self-supervision meets kernel graph neural models: From architecture to
augmentations [36.388069423383286]
カーネルグラフニューラルネットワーク(KGNN)の設計と学習の改善
我々はLGA(Latent graph augmentation)と呼ばれる新しい構造保存グラフデータ拡張法を開発した。
提案モデルは,最先端のグラフ表現学習フレームワークに匹敵する,あるいは時として優れる性能を実現する。
論文 参考訳(メタデータ) (2023-10-17T14:04:22Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z) - Embedding Graph Auto-Encoder for Graph Clustering [90.8576971748142]
グラフ自動エンコーダ(GAE)モデルは、半教師付きグラフ畳み込みネットワーク(GCN)に基づく
我々は、グラフクラスタリングのための特定のGAEベースのモデルを設計し、その理論、すなわち、埋め込みグラフオートエンコーダ(EGAE)と整合する。
EGAEは1つのエンコーダと2つのデコーダで構成される。
論文 参考訳(メタデータ) (2020-02-20T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。