論文の概要: Gradient Gating for Deep Multi-Rate Learning on Graphs
- arxiv url: http://arxiv.org/abs/2210.00513v1
- Date: Sun, 2 Oct 2022 13:19:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 13:55:30.876023
- Title: Gradient Gating for Deep Multi-Rate Learning on Graphs
- Title(参考訳): グラフによる深層学習のためのグラディエントゲーティング
- Authors: T. Konstantin Rusch, Benjamin P. Chamberlain, Michael W. Mahoney,
Michael M. Bronstein, Siddhartha Mishra
- Abstract要約: グラフニューラルネットワーク(GNN)の性能向上のための新しいフレームワークであるグラディエントゲーティング(G$2$)を提案する。
我々のフレームワークは,GNN層の出力を,基盤となるグラフのノード間でのメッセージパッシング情報のマルチレートフローのメカニズムでゲーティングすることに基づいている。
- 参考スコア(独自算出の注目度): 62.25886489571097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Gradient Gating (G$^2$), a novel framework for improving the
performance of Graph Neural Networks (GNNs). Our framework is based on gating
the output of GNN layers with a mechanism for multi-rate flow of message
passing information across nodes of the underlying graph. Local gradients are
harnessed to further modulate message passing updates. Our framework flexibly
allows one to use any basic GNN layer as a wrapper around which the multi-rate
gradient gating mechanism is built. We rigorously prove that G$^2$ alleviates
the oversmoothing problem and allows the design of deep GNNs. Empirical results
are presented to demonstrate that the proposed framework achieves
state-of-the-art performance on a variety of graph learning tasks, including on
large-scale heterophilic graphs.
- Abstract(参考訳): 本稿では,グラフニューラルネットワーク(gnns)の性能向上のための新しい枠組みである勾配ゲーティング(g$^2$)を提案する。
我々のフレームワークは,GNN層の出力を,基盤となるグラフのノード間でのメッセージパッシング情報のマルチレートフローのメカニズムでゲーティングすることに基づいている。
ローカル勾配はメッセージパッシング更新をさらに変調するために利用される。
当社のフレームワークでは,マルチレート勾配ゲーティング機構を構築するラッパーとして,任意の基本gnnレイヤを柔軟に使用することが可能です。
我々は、G$^2$が過度に平滑な問題を緩和し、深いGNNの設計を可能にすることを厳密に証明する。
提案するフレームワークは,大規模ヘテロ親和性グラフを含む,さまざまなグラフ学習タスクにおいて,最先端のパフォーマンスを実現する。
関連論文リスト
- Graph Structure Prompt Learning: A Novel Methodology to Improve Performance of Graph Neural Networks [13.655670509818144]
グラフネットワーク(GNN)のトレーニングを強化するための新しいグラフ構造Prompt Learning法(GPL)を提案する。
GPLはタスク非依存のグラフ構造損失を利用して、GNNが下流タスクを同時に解決しながら固有のグラフ特性を学習することを奨励している。
11の実世界のデータセットの実験では、ニューラルネットワークによってトレーニングされた後、GNNはノード分類、グラフ分類、エッジタスクにおいて、元のパフォーマンスを大幅に上回った。
論文 参考訳(メタデータ) (2024-07-16T03:59:18Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Simple yet Effective Gradient-Free Graph Convolutional Networks [20.448409424929604]
近年,グラフ表現学習において線形化グラフニューラルネットワーク (GNN) が注目されている。
本稿では,過度な平滑化と消失する勾配現象を関連づけ,勾配のないトレーニングフレームワークを構築する。
提案手法は, ノード分類タスクにおいて, 深度や訓練時間を大幅に短縮して, より優れた, より安定した性能を実現する。
論文 参考訳(メタデータ) (2023-02-01T11:00:24Z) - EEGNN: Edge Enhanced Graph Neural Networks [1.0246596695310175]
そこで本研究では,このような劣化した性能現象の新たな説明法を提案する。
このような単純化は、グラフの構造情報を取得するためにメッセージパッシング層の可能性を減らすことができることを示す。
EEGNNは、提案したディリクレ混合ポアソングラフモデルから抽出した構造情報を用いて、様々なディープメッセージパスGNNの性能を向上させる。
論文 参考訳(メタデータ) (2022-08-12T15:24:55Z) - Deep Manifold Learning with Graph Mining [80.84145791017968]
グラフマイニングのための非段階的決定層を持つ新しいグラフ深層モデルを提案する。
提案モデルでは,現行モデルと比較して最先端性能を実現している。
論文 参考訳(メタデータ) (2022-07-18T04:34:08Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Graph Neural Networks for Graph Drawing [17.983238300054527]
グラフニューラルネットワーク(GND)の開発のための新しいフレームワークを提案する。
GNDは、効率的で複雑な地図を構築するために、ニューラルネットワークに依存している。
このメカニズムは、フィードフォワードニューラルネットワークによって計算された損失関数によって導出可能であることを実証する。
論文 参考訳(メタデータ) (2021-09-21T09:58:02Z) - Implicit Graph Neural Networks [46.0589136729616]
Indicit Graph Neural Networks (IGNN) と呼ばれるグラフ学習フレームワークを提案する。
IGNNは一貫して長距離依存を捉え、最先端のGNNモデルより優れている。
論文 参考訳(メタデータ) (2020-09-14T06:04:55Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。