論文の概要: DiffWire: Inductive Graph Rewiring via the Lov\'asz Bound
- arxiv url: http://arxiv.org/abs/2206.07369v1
- Date: Wed, 15 Jun 2022 08:22:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 12:42:46.426302
- Title: DiffWire: Inductive Graph Rewiring via the Lov\'asz Bound
- Title(参考訳): DiffWire: Lov\'asz境界によるインダクティブグラフのリライト
- Authors: Adri\'an Arnaiz-Rodr\'iguez, Ahmed Begga, Francisco Escolano, Nuria
Oliver
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ関連タスクに対処するための競合的な結果を達成することが示されている。
MPNNは、過密、過密、過密に悩まされていると報告されている。
DiffWireは、MPNNでグラフを書き換える新しいフレームワークであり、原則的で、完全に微分可能で、パラメータフリーである。
- 参考スコア(独自算出の注目度): 1.0323063834827415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have been shown to achieve competitive results
to tackle graph-related tasks, such as node and graph classification, link
prediction and node and graph clustering in a variety of domains. Most GNNs use
a message passing framework and hence are called MPNNs. Despite their promising
results, MPNNs have been reported to suffer from over-smoothing, over-squashing
and under-reaching. Graph rewiring and graph pooling have been proposed in the
literature as solutions to address these limitations. However, most
state-of-the-art graph rewiring methods fail to preserve the global topology of
the graph, are not differentiable (inductive) and require the tuning of
hyper-parameters. In this paper, we propose DiffWire, a novel framework for
graph rewiring in MPNNs that is principled, fully differentiable and
parameter-free by leveraging the Lov\'asz bound. Our approach provides a
unified theory for graph rewiring by proposing two new, complementary layers in
MPNNs: first, CTLayer, a layer that learns the commute times and uses them as a
relevance function for edge re-weighting; second, GAPLayer, a layer to optimize
the spectral gap, depending on the nature of the network and the task at hand.
We empirically validate the value of our proposed approach and each of these
layers separately with benchmark datasets for graph classification. DiffWire
brings together the learnability of commute times to related definitions of
curvature, opening the door to the development of more expressive MPNNs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ノードとグラフの分類、リンク予測、ノードとグラフのクラスタリングといったグラフ関連のタスクに、さまざまな領域で取り組むための競合的な結果を達成している。
ほとんどのGNNはメッセージパッシングフレームワークを使用しており、MPNNと呼ばれている。
その有望な結果にもかかわらず、MPNNは過密、過密、過密に悩まされていると報告されている。
グラフのリワイリングとグラフプーリングは、これらの制限に対処するソリューションとして文献で提案されている。
しかし、最先端のグラフ検索法の多くは、グラフのグローバルトポロジを保存できず、微分可能(帰納的)ではなく、ハイパーパラメータのチューニングを必要とする。
本稿では, lov\'asz 境界を活用し, 原理的かつ完全微分可能かつパラメータフリーな mpnn でグラフ検索を行うための新しいフレームワーク diffwire を提案する。
提案手法は,MPNNに新たに2つの相補的レイヤを提案することにより,グラフ再配線の統一理論を提供する。第1に,通勤時間を学習し,エッジ再重み付けの関連関数として使用する層CTLayer,第2に,ネットワークの性質や手作業に依存するスペクトルギャップを最適化する層GAPLayerである。
グラフ分類のためのベンチマークデータセットとは分離して,提案手法と各レイヤの価値を実証的に検証した。
DiffWireは、通勤時間の学習性を関連した曲率の定義にまとめ、より表現力のあるMPNNの開発への扉を開く。
関連論文リスト
- Improving Graph Neural Networks by Learning Continuous Edge Directions [0.0]
グラフニューラルネットワーク(GNN)は、従来、非指向グラフ上の拡散に似たメッセージパッシング機構を採用している。
私たちのキーとなる洞察は、ファジィエッジ方向をグラフのエッジに割り当てることです。
ファジィエッジを持つグラフを学習するためのフレームワークとして,Continuous Edge Direction (CoED) GNNを提案する。
論文 参考訳(メタデータ) (2024-10-18T01:34:35Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Transferability of Graph Neural Networks using Graphon and Sampling Theories [0.0]
グラフニューラルネットワーク(GNN)は、さまざまなドメインでグラフベースの情報を処理するための強力なツールとなっている。
GNNの望ましい特性は転送可能性であり、トレーニングされたネットワークは、その正確性を再トレーニングすることなく、異なるグラフから情報を交換することができる。
我々は,2層グラファイトニューラルネットワーク(WNN)アーキテクチャを明示することにより,GNNへのグラファイトの適用に寄与する。
論文 参考訳(メタデータ) (2023-07-25T02:11:41Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - FoSR: First-order spectral rewiring for addressing oversquashing in GNNs [0.0]
グラフニューラルネットワーク(GNN)は、グラフのエッジに沿ってメッセージを渡すことによって、グラフデータの構造を活用することができる。
本稿では,グラフにエッジを体系的に付加することで過疎化を防止する計算効率のよいアルゴリズムを提案する。
提案アルゴリズムは,いくつかのグラフ分類タスクにおいて,既存のグラフリウィリング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T07:58:03Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - KGNN: Harnessing Kernel-based Networks for Semi-supervised Graph
Classification [13.419578861488226]
半教師付きグラフ分類のための Kernel-based Graph Neural Network (KGNN) を提案する。
我々は,KGNNが競争ベースラインよりも優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-21T10:03:46Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。