論文の概要: Systematic Reasoning About Relational Domains With Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2407.17396v1
- Date: Wed, 24 Jul 2024 16:17:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-25 13:15:22.803196
- Title: Systematic Reasoning About Relational Domains With Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークによる関係領域の体系的推論
- Authors: Irtaza Khalid, Steven Schockaert,
- Abstract要約: グラフニューラルネットワーク(GNN)の使用が自然な選択のように思えるリレーショナルドメインの推論に焦点を当てる。
GNNによる推論に関する以前の研究は、トレーニング中に見られるものよりも長い推論チェーンを必要とするテスト例を提示すると、そのようなモデルは失敗する傾向があることを示している。
これは、GNNには、トレーニング例を体系的な方法で一般化する能力がないことを示唆している。
- 参考スコア(独自算出の注目度): 17.49288661342947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Developing models that can learn to reason is a notoriously challenging problem. We focus on reasoning in relational domains, where the use of Graph Neural Networks (GNNs) seems like a natural choice. However, previous work on reasoning with GNNs has shown that such models tend to fail when presented with test examples that require longer inference chains than those seen during training. This suggests that GNNs lack the ability to generalize from training examples in a systematic way, which would fundamentally limit their reasoning abilities. A common solution is to instead rely on neuro-symbolic methods, which are capable of reasoning in a systematic way by design. Unfortunately, the scalability of such methods is often limited and they tend to rely on overly strong assumptions, e.g.\ that queries can be answered by inspecting a single relational path. In this paper, we revisit the idea of reasoning with GNNs, showing that systematic generalization is possible as long as the right inductive bias is provided. In particular, we argue that node embeddings should be treated as epistemic states and that GNN should be parameterised accordingly. We propose a simple GNN architecture which is based on this view and show that it is capable of achieving state-of-the-art results. We furthermore introduce a benchmark which requires models to aggregate evidence from multiple relational paths. We show that existing neuro-symbolic approaches fail on this benchmark, whereas our considered GNN model learns to reason accurately.
- Abstract(参考訳): 推論を学べるモデルを開発することは、非常に難しい問題です。
グラフニューラルネットワーク(GNN)の使用が自然な選択のように思えるリレーショナルドメインの推論に焦点を当てる。
しかしながら、GNNによる推論に関する以前の研究は、トレーニング中に見られるものよりも長い推論チェーンを必要とするテスト例が提示されると、そのようなモデルは失敗する傾向にあることを示した。
これは、GNNが訓練例から体系的な方法で一般化する能力に欠けていることを示唆している。
一般的な解決策は、設計によって体系的な推論が可能なニューロシンボリックな方法に頼ることである。
残念ながら、そのようなメソッドのスケーラビリティはしばしば制限されており、単一のリレーショナルパスを検査することでクエリが答えられるという、過度に強い仮定に依存する傾向がある。
本稿では, GNNによる推論の考え方を再考し, 適切な帰納バイアスが提供される限り, 体系的一般化が可能であることを示す。
特に,ノード埋め込みはてんかん状態として扱うべきであり,それに応じてGNNをパラメータ化すべきである。
本稿では,この視点に基づくシンプルなGNNアーキテクチャを提案する。
さらに、複数のリレーショナルパスからエビデンスを集約するモデルを必要とするベンチマークも導入する。
既存のニューロシンボリックアプローチはこのベンチマークでは失敗するが、GNNモデルは正確な推論を学習する。
関連論文リスト
- Generalization of Graph Neural Networks is Robust to Model Mismatch [84.01980526069075]
グラフニューラルネットワーク(GNN)は、その一般化能力によってサポートされている様々なタスクにおいて、その効果を実証している。
本稿では,多様体モデルから生成される幾何グラフで動作するGNNについて検討する。
本稿では,そのようなモデルミスマッチの存在下でのGNN一般化の堅牢性を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T16:00:44Z) - GNNInterpreter: A Probabilistic Generative Model-Level Explanation for
Graph Neural Networks [25.94529851210956]
本稿では,異なるグラフニューラルネットワーク(GNN)に対して,メッセージパッシング方式であるGNNInterpreterに従うモデルに依存しないモデルレベルの説明手法を提案する。
GNNInterpreterは、GNNが検出しようとする最も識別性の高いグラフパターンを生成する確率的生成グラフ分布を学習する。
既存の研究と比較すると、GNNInterpreterはノードとエッジの異なるタイプの説明グラフを生成する際に、より柔軟で計算的に効率的である。
論文 参考訳(メタデータ) (2022-09-15T07:45:35Z) - ProtGNN: Towards Self-Explaining Graph Neural Networks [12.789013658551454]
本稿では,プロトタイプ学習とGNNを組み合わせたプロトタイプグラフニューラルネットワーク(ProtGNN)を提案する。
ProtGNNとProtGNN+は、非解釈不能のものと同等の精度を保ちながら、本質的に解釈可能である。
論文 参考訳(メタデータ) (2021-12-02T01:16:29Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - EDITS: Modeling and Mitigating Data Bias for Graph Neural Networks [29.974829042502375]
本研究では,属性ネットワークのバイアスを軽減するためのフレームワーク EDITS を開発した。
EDITSはモデルに依存しない方法で動作し、ダウンストリームタスクに適用される特定のGNNとは独立している。
論文 参考訳(メタデータ) (2021-08-11T14:07:01Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z) - Efficient Probabilistic Logic Reasoning with Graph Neural Networks [63.099999467118245]
マルコフ論理ネットワーク(MLN)は、多くの知識グラフ問題に対処するために用いられる。
MLNの推論は計算集約的であり、MLNの産業規模での応用は非常に困難である。
本稿では,表現力とモデルの単純さとのバランスのよいグラフニューラルネット(GNN)モデルであるExpressGNNを提案する。
論文 参考訳(メタデータ) (2020-01-29T23:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。