論文の概要: Interpreting and Unifying Graph Neural Networks with An Optimization
Framework
- arxiv url: http://arxiv.org/abs/2101.11859v1
- Date: Thu, 28 Jan 2021 08:06:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 11:57:13.631334
- Title: Interpreting and Unifying Graph Neural Networks with An Optimization
Framework
- Title(参考訳): 最適化フレームワークによるグラフニューラルネットワークの解釈と統一
- Authors: Meiqi Zhu, Xiao Wang, Chuan Shi, Houye Ji, Peng Cui
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データ学習に大きな注目を集めている。
本稿では,異なる伝搬機構と統一最適化問題との驚くほどの関連性を確立する。
提案する統一最適化フレームワークは,いくつかの代表的GNN間の共通性を要約し,柔軟に新しいGNNを設計する新たな機会を開く。
- 参考スコア(独自算出の注目度): 47.44773358082203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have received considerable attention on
graph-structured data learning for a wide variety of tasks. The well-designed
propagation mechanism which has been demonstrated effective is the most
fundamental part of GNNs. Although most of GNNs basically follow a message
passing manner, litter effort has been made to discover and analyze their
essential relations. In this paper, we establish a surprising connection
between different propagation mechanisms with a unified optimization problem,
showing that despite the proliferation of various GNNs, in fact, their proposed
propagation mechanisms are the optimal solution optimizing a feature fitting
function over a wide class of graph kernels with a graph regularization term.
Our proposed unified optimization framework, summarizing the commonalities
between several of the most representative GNNs, not only provides a
macroscopic view on surveying the relations between different GNNs, but also
further opens up new opportunities for flexibly designing new GNNs. With the
proposed framework, we discover that existing works usually utilize naive graph
convolutional kernels for feature fitting function, and we further develop two
novel objective functions considering adjustable graph kernels showing low-pass
or high-pass filtering capabilities respectively. Moreover, we provide the
convergence proofs and expressive power comparisons for the proposed models.
Extensive experiments on benchmark datasets clearly show that the proposed GNNs
not only outperform the state-of-the-art methods but also have good ability to
alleviate over-smoothing, and further verify the feasibility for designing GNNs
with our unified optimization framework.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、さまざまなタスクでグラフ構造化データ学習に多大な注目を集めている。
十分に設計された伝播機構はGNNの最も基本的な部分である。
ほとんどのGNNは基本的にメッセージパッシングのやり方に従っているが、彼らの本質的な関係を発見し、分析する努力が続けられている。
本稿では,様々なgnnの増殖にもかかわらず,それらの伝播機構がグラフ正規化項を持つ多種多様なグラフカーネル上で特徴適合関数を最適化する最適解であることを示す,統一最適化問題と異なる伝播機構の驚くべき関係を確立する。
提案する統一最適化フレームワークは,複数の代表的GNN間の共通性を要約し,異なるGNN間の関係を調査するマクロビューを提供するだけでなく,新しいGNNを柔軟に設計する新たな機会を開く。
提案手法により,提案手法では,通常,有理グラフ畳み込みカーネルを特徴フィッティング関数として利用し,低域および高域フィルタ機能を有する調整可能なグラフカーネルをそれぞれ考慮した2つの新たな目的関数を新たに開発する。
さらに,提案したモデルに対して収束証明と表現力比較を行う。
ベンチマークデータセットの大規模な実験は、提案したGNNが最先端の手法を上回るだけでなく、過度なスムース化を緩和し、GNNを統一最適化フレームワークで設計する可能性も検証できることを示している。
関連論文リスト
- Self-supervision meets kernel graph neural models: From architecture to
augmentations [36.388069423383286]
カーネルグラフニューラルネットワーク(KGNN)の設計と学習の改善
我々はLGA(Latent graph augmentation)と呼ばれる新しい構造保存グラフデータ拡張法を開発した。
提案モデルは,最先端のグラフ表現学習フレームワークに匹敵する,あるいは時として優れる性能を実現する。
論文 参考訳(メタデータ) (2023-10-17T14:04:22Z) - Neural Tangent Kernels Motivate Graph Neural Networks with
Cross-Covariance Graphs [94.44374472696272]
グラフニューラルネットワーク(GNN)の文脈におけるNTKとアライメントについて検討する。
その結果、2層GNNのアライメントの最適性に関する理論的保証が確立された。
これらの保証は、入力と出力データの相互共分散の関数であるグラフシフト演算子によって特徴づけられる。
論文 参考訳(メタデータ) (2023-10-16T19:54:21Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Towards Better Generalization with Flexible Representation of
Multi-Module Graph Neural Networks [0.27195102129094995]
ランダムグラフ生成器を用いて,グラフサイズと構造特性がGNNの予測性能に与える影響について検討する。
本稿では,GNNが未知のグラフに一般化できるかどうかを決定する上で,平均ノード次数が重要な特徴であることを示す。
集約された入力に対して単一の正準非線形変換を一般化することにより、ネットワークが新しいグラフに柔軟に対応可能なマルチモジュールGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-14T12:13:59Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Ensemble Multi-Relational Graph Neural Networks [18.96097003317416]
アンサンブルマルチリレーショナル(EMR)最適化の目的を設計し,新しいアンサンブルマルチリレーショナルGNNを提案する。
このEMR最適化の目的は反復的な更新ルールを導出することができ、マルチリレーションを持つアンサンブルメッセージパッシング層として形式化することができる。
4つのベンチマークデータセットで実施された大規模な実験は、提案モデルの有効性をよく示している。
論文 参考訳(メタデータ) (2022-05-24T13:52:41Z) - GPN: A Joint Structural Learning Framework for Graph Neural Networks [36.38529113603987]
グラフ構造と下流タスクを同時に学習するGNNベースの共同学習フレームワークを提案する。
本手法は,この課題を解決するためのGNNベースの二段階最適化フレームワークである。
論文 参考訳(メタデータ) (2022-05-12T09:06:04Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。