論文の概要: Systematic Relational Reasoning With Epistemic Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2407.17396v2
- Date: Thu, 27 Feb 2025 22:50:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 16:38:44.919574
- Title: Systematic Relational Reasoning With Epistemic Graph Neural Networks
- Title(参考訳): てんかん性グラフニューラルネットを用いた体系的関係推論
- Authors: Irtaza Khalid, Steven Schockaert,
- Abstract要約: 本稿では,新しいパラメータ効率でスケーラブルなGNNアーキテクチャであるEpiGNN(EpiGNN)を提案する。
本研究では,系統的推論を必要とするリンク予測タスクにおいて,EpiGNNが最先端の結果を得ることを示す。
帰納的な知識グラフの完成のために、EpiGNNは最先端の専門的なアプローチのパフォーマンスに匹敵する。
- 参考スコア(独自算出の注目度): 17.49288661342947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Developing models that can learn to reason is a notoriously challenging problem. We focus on reasoning in relational domains, where the use of Graph Neural Networks (GNNs) seems like a natural choice. However, previous work has shown that regular GNNs lack the ability to systematically generalize from training examples on test graphs requiring longer inference chains, which fundamentally limits their reasoning abilities. A common solution relies on neuro-symbolic methods that systematically reason by learning rules, but their scalability is often limited and they tend to make unrealistically strong assumptions, e.g.\ that the answer can always be inferred from a single relational path. We propose the Epistemic GNN (EpiGNN), a novel parameter-efficient and scalable GNN architecture with an epistemic inductive bias for systematic reasoning. Node embeddings in EpiGNNs are treated as epistemic states, and message passing is implemented accordingly. We show that EpiGNNs achieve state-of-the-art results on link prediction tasks that require systematic reasoning. Furthermore, for inductive knowledge graph completion, EpiGNNs rival the performance of state-of-the-art specialized approaches. Finally, we introduce two new benchmarks that go beyond standard relational reasoning by requiring the aggregation of information from multiple paths. Here, existing neuro-symbolic approaches fail, yet EpiGNNs learn to reason accurately. Code and datasets are available at https://github.com/erg0dic/gnn-sg.
- Abstract(参考訳): 推論を学べるモデルを開発することは、非常に難しい問題です。
グラフニューラルネットワーク(GNN)の使用が自然な選択のように思えるリレーショナルドメインの推論に焦点を当てる。
しかし、以前の研究では、通常のGNNは、推論チェーンを長く必要とするテストグラフのトレーニング例から体系的に一般化する能力に欠けており、その推論能力は基本的に制限されていることが示されている。
一般的な解法は、規則を学習することによって体系的に推論する神経象徴的手法に依存するが、そのスケーラビリティは制限され、しばしば非現実的に強い仮定をしがちである。
本稿では,新しいパラメータ効率でスケーラブルなGNNアーキテクチャであるEpiGNNを提案する。
EpiGNNのノード埋め込みは、エピステマティックステートとして扱われ、それに従ってメッセージパッシングが実装される。
本研究では,系統的推論を必要とするリンク予測タスクにおいて,EpiGNNが最先端の結果を得ることを示す。
さらに、インダクティブな知識グラフ補完のために、EpiGNNは最先端の専門的なアプローチのパフォーマンスに匹敵する。
最後に、複数のパスからの情報収集を要求することで、標準的なリレーショナル推論を超える2つの新しいベンチマークを紹介します。
ここでは、既存のニューロシンボリックアプローチは失敗するが、EpiGNNは正確に推論することを学ぶ。
コードとデータセットはhttps://github.com/erg0dic/gnn-sgで入手できる。
関連論文リスト
- Extracting Interpretable Logic Rules from Graph Neural Networks [7.262955921646326]
グラフニューラルネットワーク(GNN)は入力特徴空間とグラフ構造の両方で動作する。
本稿では,GNN から解釈可能な論理規則を抽出するための新しいフレームワーク LOGI CXGNN を提案する。
LOGI CXGNNはモデルに依存しず、効率的で、データ駆動であり、事前定義された概念は不要である。
論文 参考訳(メタデータ) (2025-03-25T09:09:46Z) - Generalization of Graph Neural Networks is Robust to Model Mismatch [84.01980526069075]
グラフニューラルネットワーク(GNN)は、その一般化能力によってサポートされている様々なタスクにおいて、その効果を実証している。
本稿では,多様体モデルから生成される幾何グラフで動作するGNNについて検討する。
本稿では,そのようなモデルミスマッチの存在下でのGNN一般化の堅牢性を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T16:00:44Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Temporal Spiking Neural Networks with Synaptic Delay for Graph Reasoning [91.29876772547348]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたニューラルネットワークモデルとして研究されている。
本稿では,SNNがシナプス遅延と時間符号化とを併用すると,グラフ推論の実行(知識)に長けていることを明らかにする。
論文 参考訳(メタデータ) (2024-05-27T05:53:30Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Neural-Symbolic Recommendation with Graph-Enhanced Information [7.841447116972524]
我々は,大域的暗黙的推論能力と局所的明示的論理推論能力の両方を備えたニューロシンボリックレコメンデーションモデルを構築した。
ユーザの振る舞いを命題論理表現に変換し,認知的推論の観点からレコメンデーションを実現する。
論文 参考訳(メタデータ) (2023-07-11T06:29:31Z) - CI-GNN: A Granger Causality-Inspired Graph Neural Network for
Interpretable Brain Network-Based Psychiatric Diagnosis [40.26902764049346]
本稿では,脳ネットワークに基づく精神医学的診断を説明するためのグラフニューラルネットワーク(CI-GNN)を提案する。
CI-GNNは、それぞれ元のグラフの因果的側面と非因果的側面を符号化する、アンタングル化サブグラフレベル表現のアルファとベータを学習する。
3つのベースラインGNNと4つの最先端GNNの合成データと3つの大規模脳疾患データセットに対するCI-GNNの性能を実証的に評価した。
論文 参考訳(メタデータ) (2023-01-04T14:36:44Z) - GNNInterpreter: A Probabilistic Generative Model-Level Explanation for
Graph Neural Networks [25.94529851210956]
本稿では,異なるグラフニューラルネットワーク(GNN)に対して,メッセージパッシング方式であるGNNInterpreterに従うモデルに依存しないモデルレベルの説明手法を提案する。
GNNInterpreterは、GNNが検出しようとする最も識別性の高いグラフパターンを生成する確率的生成グラフ分布を学習する。
既存の研究と比較すると、GNNInterpreterはノードとエッジの異なるタイプの説明グラフを生成する際に、より柔軟で計算的に効率的である。
論文 参考訳(メタデータ) (2022-09-15T07:45:35Z) - ProtGNN: Towards Self-Explaining Graph Neural Networks [12.789013658551454]
本稿では,プロトタイプ学習とGNNを組み合わせたプロトタイプグラフニューラルネットワーク(ProtGNN)を提案する。
ProtGNNとProtGNN+は、非解釈不能のものと同等の精度を保ちながら、本質的に解釈可能である。
論文 参考訳(メタデータ) (2021-12-02T01:16:29Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - EDITS: Modeling and Mitigating Data Bias for Graph Neural Networks [29.974829042502375]
本研究では,属性ネットワークのバイアスを軽減するためのフレームワーク EDITS を開発した。
EDITSはモデルに依存しない方法で動作し、ダウンストリームタスクに適用される特定のGNNとは独立している。
論文 参考訳(メタデータ) (2021-08-11T14:07:01Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Implicit Graph Neural Networks [46.0589136729616]
Indicit Graph Neural Networks (IGNN) と呼ばれるグラフ学習フレームワークを提案する。
IGNNは一貫して長距離依存を捉え、最先端のGNNモデルより優れている。
論文 参考訳(メタデータ) (2020-09-14T06:04:55Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z) - Efficient Probabilistic Logic Reasoning with Graph Neural Networks [63.099999467118245]
マルコフ論理ネットワーク(MLN)は、多くの知識グラフ問題に対処するために用いられる。
MLNの推論は計算集約的であり、MLNの産業規模での応用は非常に困難である。
本稿では,表現力とモデルの単純さとのバランスのよいグラフニューラルネット(GNN)モデルであるExpressGNNを提案する。
論文 参考訳(メタデータ) (2020-01-29T23:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。