論文の概要: Inclusion of Domain-Knowledge into GNNs using Mode-Directed Inverse
Entailment
- arxiv url: http://arxiv.org/abs/2105.10709v1
- Date: Sat, 22 May 2021 12:25:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 15:25:14.095500
- Title: Inclusion of Domain-Knowledge into GNNs using Mode-Directed Inverse
Entailment
- Title(参考訳): モード指向逆エンターメントを用いたドメイン知識のGNNへの取り込み
- Authors: Tirtharaj Dash, Ashwin Srinivasan, A Baskar
- Abstract要約: マルチリレーショナルドメイン知識を用いたグラフニューラルネットワーク(GNN)の構築手法を提案する。
BotGNNは,背景知識のない双方のGNNよりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 2.4935283828237416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a general technique for constructing Graph Neural Networks (GNNs)
capable of using multi-relational domain knowledge. The technique is based on
mode-directed inverse entailment (MDIE) developed in Inductive Logic
Programming (ILP). Given a data instance $e$ and background knowledge $B$, MDIE
identifies a most-specific logical formula $\bot_B(e)$ that contains all the
relational information in $B$ that is related to $e$. We transform $\bot_B(e)$
into a corresponding "bottom-graph" that can be processed for use by standard
GNN implementations. This transformation allows a principled way of
incorporating generic background knowledge into GNNs: we use the term `BotGNN'
for this form of graph neural networks. For several GNN variants, using
real-world datasets with substantial background knowledge, we show that BotGNNs
perform significantly better than both GNNs without background knowledge and a
recently proposed simplified technique for including domain knowledge into
GNNs. We also provide experimental evidence comparing BotGNNs favourably to
multi-layer perceptrons (MLPs) that use features representing a
"propositionalised" form of the background knowledge; and BotGNNs to a standard
ILP based on the use of most-specific clauses. Taken together, these results
point to BotGNNs as capable of combining the computational efficacy of GNNs
with the representational versatility of ILP.
- Abstract(参考訳): 本稿では,マルチリレーショナルドメイン知識を用いたグラフニューラルネットワーク(GNN)の構築手法を提案する。
この手法は、インダクティブ論理プログラミング(ILP)で開発されたモード指向逆エンターメント(MDIE)に基づいている。
データインスタンス$e$とバックグラウンド知識$B$が与えられたとき、MDIEは、$e$に関連するすべてのリレーショナル情報を含む最も特定の論理式$\bot_B(e)$を識別する。
私たちは$\bot_b(e)$を対応する"bottom-graph"に変換します。
この変換によって、一般的なバックグラウンド知識をGNNに組み込む、原則化された方法が可能になる。
背景知識を持つ実世界のデータセットを用いて、いくつかのGNN変種に対して、背景知識を持たない両方のGNNよりもはるかに優れた性能を示し、最近提案されたドメイン知識をGNNに組み込むための簡易な手法を提案する。
また,多層パーセプトロン(MLP)に対して,背景知識の「仮定された」形式を表す特徴を用いたBotGNNと,最も固有な節を用いた標準ILPを用いたBotGNNとを比較した実験的なエビデンスも提供する。
これらの結果は、GNNの計算効率とILPの表現多元性を組み合わせることができることを示唆している。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - LOGIN: A Large Language Model Consulted Graph Neural Network Training Framework [30.54068909225463]
我々は,GNN設計プロセスの合理化とLarge Language Models(LLM)の利点を活用して,下流タスクにおけるGNNの性能向上を目指す。
我々は,LLMs-as-Consultants(LLMs-as-Consultants)という新たなパラダイムを策定し,LLMとGNNを対話的に統合する。
両グラフのノード分類におけるLOGINの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2024-05-22T18:17:20Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - Superiority of GNN over NN in generalizing bandlimited functions [6.3151583550712065]
グラフニューラルネットワーク(GNN)は、さまざまなアプリケーションにまたがってグラフベースの情報を処理するための強力なリソースとして登場した。
本研究では,これらの分類におけるGNNの習熟度について検討する。
以上の結果から,GNNを用いた帯域制限関数を$varepsilon$-errorマージン内で一般化する上で,高い効率性を示した。
論文 参考訳(メタデータ) (2022-06-13T05:15:12Z) - Zero-shot Domain Adaptation of Heterogeneous Graphs via Knowledge
Transfer Networks [72.82524864001691]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、強力な表現学習技術として優れた性能を示している。
異なるノードタイプにルートされたラベルを使って直接学習する方法はありません。
本研究では,HGNN(HGNN-KTN)のための新しいドメイン適応手法である知識伝達ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-03T21:00:23Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - AdaGNN: A multi-modal latent representation meta-learner for GNNs based
on AdaBoosting [0.38073142980733]
グラフニューラルネットワーク(GNN)は、固有のネットワーク機能の抽出に重点を置いている。
GNNのための強化型メタラーナを提案する。
AdaGNNは、リッチで多様なノード近傍情報を持つアプリケーションに対して非常によく機能する。
論文 参考訳(メタデータ) (2021-08-14T03:07:26Z) - Graph Neural Networks with Local Graph Parameters [1.8600631687568656]
ローカルグラフパラメータは、任意のグラフニューラルネットワーク(GNN)アーキテクチャに追加することができる。
我々の結果は、有限モデル理論と有限変数論理の深い結果とGNNを結びつける。
論文 参考訳(メタデータ) (2021-06-12T07:43:51Z) - Identity-aware Graph Neural Networks [63.6952975763946]
グラフニューラルネットワーク(ID-GNN)を1-WLテストよりも表現力の高いメッセージクラスを開発しています。
ID-GNNは、メッセージパッシング中にノードのIDを誘導的に考慮することにより、既存のGNNアーキテクチャを拡張します。
既存のGNNをID-GNNに変換すると、挑戦ノード、エッジ、グラフプロパティ予測タスクの平均40%の精度が向上することを示す。
論文 参考訳(メタデータ) (2021-01-25T18:59:01Z) - Incorporating Symbolic Domain Knowledge into Graph Neural Networks [18.798760815214877]
グラフ構造化データ(グラフベースニューラルネットワーク、GNN)に特化して開発されたディープニューラルネットワーク
我々は,「頂点富化」という操作を用いて,GNNのこの側面を実証的に検討し,対応するGNNを「VEGNN」と表現する。
論文 参考訳(メタデータ) (2020-10-23T16:22:21Z) - A Practical Tutorial on Graph Neural Networks [49.919443059032226]
グラフニューラルネットワーク(GNN)は、人工知能(AI)分野において最近人気が高まっている。
このチュートリアルでは、GNNのパワーとノベルティをAI実践者に公開している。
論文 参考訳(メタデータ) (2020-10-11T12:36:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。