論文の概要: Rethinking the Power of Graph Canonization in Graph Representation
Learning with Stability
- arxiv url: http://arxiv.org/abs/2309.00738v3
- Date: Fri, 9 Feb 2024 13:34:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 20:30:21.523868
- Title: Rethinking the Power of Graph Canonization in Graph Representation
Learning with Stability
- Title(参考訳): 安定なグラフ表現学習におけるグラフカノン化の力の再考
- Authors: Zehao Dong, Muhan Zhang, Philip R.O. Payne, Michael A Province, Carlos
Cruchaga, Tianyu Zhao, Fuhai Li, Yixin Chen
- Abstract要約: 本稿では,グラフカノン化によるGNNの表現率の最大化を提案する。
安定なGNNは、類似グラフをベクトル空間の閉グラフ表現にマッピングし、GNNの安定性は、その性能を目に見えないグラフに一般化することが重要である。
実験の総合的なセットは,提案手法の有効性を示すものである。
- 参考スコア(独自算出の注目度): 29.026197379375557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The expressivity of Graph Neural Networks (GNNs) has been studied broadly in
recent years to reveal the design principles for more powerful GNNs. Graph
canonization is known as a typical approach to distinguish non-isomorphic
graphs, yet rarely adopted when developing expressive GNNs. This paper proposes
to maximize the expressivity of GNNs by graph canonization, then the power of
such GNNs is studies from the perspective of model stability. A stable GNN will
map similar graphs to close graph representations in the vectorial space, and
the stability of GNNs is critical to generalize their performance to unseen
graphs. We theoretically reveal the trade-off of expressivity and stability in
graph-canonization-enhanced GNNs. Then we introduce a notion of universal graph
canonization as the general solution to address the trade-off and characterize
a widely applicable sufficient condition to solve the universal graph
canonization. A comprehensive set of experiments demonstrates the effectiveness
of the proposed method. In many popular graph benchmark datasets, graph
canonization successfully enhances GNNs and provides highly competitive
performance, indicating the capability and great potential of proposed method
in general graph representation learning. In graph datasets where the
sufficient condition holds, GNNs enhanced by universal graph canonization
consistently outperform GNN baselines and successfully improve the SOTA
performance up to $31\%$, providing the optimal solution to numerous
challenging real-world graph analytical tasks like gene network representation
learning in bioinformatics.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の表現性は近年,より強力なGNNの設計原則を明らかにするために広く研究されている。
グラフカノン化は非同型グラフを区別する典型的な手法として知られているが、表現的なGNNを開発する際にはほとんど採用されない。
本稿では,グラフの正準化によりgnnの表現性を最大化し,モデル安定性の観点からgnnのパワーを考察する。
安定なGNNは、類似グラフをベクトル空間の閉グラフ表現にマッピングし、GNNの安定性は、その性能を目に見えないグラフに一般化することが重要である。
グラフカノン化強化GNNにおける表現性と安定性のトレードオフを理論的に明らかにする。
次に、トレードオフに対処する一般解として普遍グラフカノン化の概念を導入し、普遍グラフカノン化を解決するために広く適用可能な条件を特徴づける。
実験の総合的なセットは,提案手法の有効性を示すものである。
多くのグラフベンチマークデータセットにおいて、グラフカノン化はGNNの強化に成功し、高い競争性能を提供し、グラフ表現学習における提案手法の可能性と可能性を示している。
十分な条件が満たされたグラフデータセットでは、普遍的なグラフキャノン化によって強化されたGNNは、GNNのベースラインを一貫して上回り、SOTAのパフォーマンスを311 %まで向上させ、バイオインフォマティクスにおける遺伝子ネットワーク表現学習のような、多くの課題のある実世界のグラフ解析タスクに対する最適な解決策を提供する。
関連論文リスト
- Scalable Implicit Graphon Learning [25.015678499211404]
本稿では、暗黙的ニューラルネットワーク(INR)とグラフニューラルネットワーク(GNN)を組み合わせて、観測されたグラフからグラフを推定するスケーラブルな手法を提案する。
合成グラフと実世界のグラフでSIGLを評価し,既存の手法より優れ,大規模グラフに効果的にスケール可能であることを示した。
論文 参考訳(メタデータ) (2024-10-22T22:44:24Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Edge Directionality Improves Learning on Heterophilic Graphs [42.5099159786891]
我々は、有向グラフを深層学習するための新しいフレームワークであるDir-GNN(Directed Graph Neural Network)を紹介する。
Dir-GNNは、任意のメッセージパッシングニューラルネットワーク(MPNN)を拡張して、エッジ指向性情報を考慮するために使用することができる。
我々は,Dir-GNNが従来のMPNNよりも高い指向性Weisfeiler-Lehmanテストの表現性に一致することを証明した。
論文 参考訳(メタデータ) (2023-05-17T18:06:43Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Measuring and Improving the Use of Graph Information in Graph Neural
Networks [38.41049128525036]
グラフニューラルネットワーク(GNN)は,グラフデータの表現学習に広く利用されている。
本稿では,グラフデータから得られる情報の量と質を測定するための2つのスムーズネス指標を提案する。
CS-GNNと呼ばれる新しいGNNモデルは、グラフの滑らかさ値に基づいてグラフ情報の利用を改善するように設計されている。
論文 参考訳(メタデータ) (2022-06-27T10:27:28Z) - Distribution Preserving Graph Representation Learning [11.340722297341788]
グラフニューラルネットワーク(GNN)は、ノードとグラフ全体の分散表現のためのグラフをモデル化するのに有効である。
本稿では,表現型GNNモデルの一般化性を向上させるGNNフレームワークとして,分散保存GNN(DP-GNN)を提案する。
提案するDP-GNNフレームワークを,グラフ分類タスクのための複数のベンチマークデータセット上で評価する。
論文 参考訳(メタデータ) (2022-02-27T19:16:26Z) - Graph Neural Networks for Graphs with Heterophily: A Survey [98.45621222357397]
異種グラフに対するグラフニューラルネットワーク(GNN)の総合的なレビューを提供する。
具体的には,既存の異好性GNNモデルを本質的に支配する系統分類法を提案する。
グラフヘテロフィリーと様々なグラフ研究領域の相関を議論し、より効果的なGNNの開発を促進することを目的とした。
論文 参考訳(メタデータ) (2022-02-14T23:07:47Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。