論文の概要: Reconstruction for Powerful Graph Representations
- arxiv url: http://arxiv.org/abs/2110.00577v1
- Date: Fri, 1 Oct 2021 17:59:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 14:40:20.810973
- Title: Reconstruction for Powerful Graph Representations
- Title(参考訳): 強力なグラフ表現のための再構成
- Authors: Leonardo Cotta, Christopher Morris, Bruno Ribeiro
- Abstract要約: グラフニューラルネットワーク(GNN)は表現力に制限があり、多くのグラフクラスを正しく表現できない。
GRLアーキテクチャが直面する理論的および実践的な問題を,グラフ再構成がどの程度緩和できるかを示す。
- 参考スコア(独自算出の注目度): 13.48865645935051
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have limited expressive power, failing to
represent many graph classes correctly. While more expressive graph
representation learning (GRL) alternatives can distinguish some of these
classes, they are significantly harder to implement, may not scale well, and
have not been shown to outperform well-tuned GNNs in real-world tasks. Thus,
devising simple, scalable, and expressive GRL architectures that also achieve
real-world improvements remains an open challenge. In this work, we show the
extent to which graph reconstruction -- reconstructing a graph from its
subgraphs -- can mitigate the theoretical and practical problems currently
faced by GRL architectures. First, we leverage graph reconstruction to build
two new classes of expressive graph representations. Secondly, we show how
graph reconstruction boosts the expressive power of any GNN architecture while
being a (provably) powerful inductive bias for invariances to vertex removals.
Empirically, we show how reconstruction can boost GNN's expressive power --
while maintaining its invariance to permutations of the vertices -- by solving
seven graph property tasks not solvable by the original GNN. Further, we
demonstrate how it boosts state-of-the-art GNN's performance across nine
real-world benchmark datasets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は表現力に制限があり、多くのグラフクラスを正しく表現できない。
より表現力のあるグラフ表現学習(GRL)は、これらのクラスの一部を区別することができるが、実装が著しく困難であり、スケールが良くなく、現実世界のタスクにおいて十分に調整されたGNNよりも優れていることが示されていない。
したがって、現実世界の改善も達成できるシンプルでスケーラブルで表現力豊かなGRLアーキテクチャを考案することは、まだオープンな課題である。
本稿では,その部分グラフからグラフを再構築するグラフ再構成が,現在grlアーキテクチャが直面している理論的・実用的問題をどの程度緩和できるかを示す。
まず、グラフ再構成を利用して表現グラフ表現の新しいクラスを2つ構築する。
第2に,グラフ再構成が任意のGNNアーキテクチャの表現力を高める一方で,頂点除去に対する不変性に対する(おそらく)強力な帰納バイアスであることを示す。
経験的に、元のGNNでは解けない7つのグラフプロパティタスクを解くことで、GNNの表現力(頂点の置換に不変性を保ちながら)をいかに向上させるかを示す。
さらに、9つの実世界のベンチマークデータセットに対して、最先端のGNNのパフォーマンスをいかに向上させるかを実証する。
関連論文リスト
- Graph Structure Prompt Learning: A Novel Methodology to Improve Performance of Graph Neural Networks [13.655670509818144]
グラフネットワーク(GNN)のトレーニングを強化するための新しいグラフ構造Prompt Learning法(GPL)を提案する。
GPLはタスク非依存のグラフ構造損失を利用して、GNNが下流タスクを同時に解決しながら固有のグラフ特性を学習することを奨励している。
11の実世界のデータセットの実験では、ニューラルネットワークによってトレーニングされた後、GNNはノード分類、グラフ分類、エッジタスクにおいて、元のパフォーマンスを大幅に上回った。
論文 参考訳(メタデータ) (2024-07-16T03:59:18Z) - Uplifting the Expressive Power of Graph Neural Networks through Graph
Partitioning [3.236774847052122]
グラフ分割のレンズによるグラフニューラルネットワークの表現力について検討する。
我々は新しいGNNアーキテクチャ、すなわちグラフ分割ニューラルネットワーク(GPNN)を導入する。
論文 参考訳(メタデータ) (2023-12-14T06:08:35Z) - Transferability of Graph Neural Networks using Graphon and Sampling Theories [0.0]
グラフニューラルネットワーク(GNN)は、さまざまなドメインでグラフベースの情報を処理するための強力なツールとなっている。
GNNの望ましい特性は転送可能性であり、トレーニングされたネットワークは、その正確性を再トレーニングすることなく、異なるグラフから情報を交換することができる。
我々は,2層グラファイトニューラルネットワーク(WNN)アーキテクチャを明示することにより,GNNへのグラファイトの適用に寄与する。
論文 参考訳(メタデータ) (2023-07-25T02:11:41Z) - Gradient Gating for Deep Multi-Rate Learning on Graphs [62.25886489571097]
グラフニューラルネットワーク(GNN)の性能向上のための新しいフレームワークであるグラディエントゲーティング(G$2$)を提案する。
我々のフレームワークは,GNN層の出力を,基盤となるグラフのノード間でのメッセージパッシング情報のマルチレートフローのメカニズムでゲーティングすることに基づいている。
論文 参考訳(メタデータ) (2022-10-02T13:19:48Z) - A Class-Aware Representation Refinement Framework for Graph Classification [8.998543739618077]
グラフ分類作業のためのクラス認識表現rEfinement (CARE) フレームワークを提案する。
CAREは単純だが強力なクラス表現を計算し、グラフ表現の学習をより良いクラス分離性へと導くためにそれらを注入する。
9つのベンチマークデータセット上の11のよく知られたGNNバックボーンを用いた実験は、そのGNNよりもCAREの優位性と有効性を検証する。
論文 参考訳(メタデータ) (2022-09-02T10:18:33Z) - Reliable Representations Make A Stronger Defender: Unsupervised
Structure Refinement for Robust GNN [36.045702771828736]
グラフニューラルネットワーク(GNN)は、グラフデータ上でのタスクの繁栄に成功している。
近年の研究では、グラフ構造を悪質に修正することで、攻撃者がGNNの性能を壊滅的に低下させることができることが示されている。
グラフ構造を最適化するための教師なしパイプラインSTABLEを提案する。
論文 参考訳(メタデータ) (2022-06-30T10:02:32Z) - Representation Power of Graph Neural Networks: Improved Expressivity via
Algebraic Analysis [124.97061497512804]
標準グラフニューラルネットワーク (GNN) はWeisfeiler-Lehman (WL) アルゴリズムよりも差別的な表現を生成する。
また、白い入力を持つ単純な畳み込みアーキテクチャは、グラフの閉経路をカウントする同変の特徴を生じさせることを示した。
論文 参考訳(メタデータ) (2022-05-19T18:40:25Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。