論文の概要: Incorporating Symbolic Domain Knowledge into Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2010.13900v2
- Date: Fri, 19 Feb 2021 15:55:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 21:24:16.315851
- Title: Incorporating Symbolic Domain Knowledge into Graph Neural Networks
- Title(参考訳): 記号的ドメイン知識をグラフニューラルネットワークに組み込む
- Authors: Tirtharaj Dash, Ashwin Srinivasan, Lovekesh Vig
- Abstract要約: グラフ構造化データ(グラフベースニューラルネットワーク、GNN)に特化して開発されたディープニューラルネットワーク
我々は,「頂点富化」という操作を用いて,GNNのこの側面を実証的に検討し,対応するGNNを「VEGNN」と表現する。
- 参考スコア(独自算出の注目度): 18.798760815214877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our interest is in scientific problems with the following characteristics:
(1) Data are naturally represented as graphs; (2) The amount of data available
is typically small; and (3) There is significant domain-knowledge, usually
expressed in some symbolic form. These kinds of problems have been addressed
effectively in the past by Inductive Logic Programming (ILP), by virtue of 2
important characteristics: (a) The use of a representation language that easily
captures the relation encoded in graph-structured data, and (b) The inclusion
of prior information encoded as domain-specific relations, that can alleviate
problems of data scarcity, and construct new relations. Recent advances have
seen the emergence of deep neural networks specifically developed for
graph-structured data (Graph-based Neural Networks, or GNNs). While GNNs have
been shown to be able to handle graph-structured data, less has been done to
investigate the inclusion of domain-knowledge. Here we investigate this aspect
of GNNs empirically by employing an operation we term "vertex-enrichment" and
denote the corresponding GNNs as "VEGNNs". Using over 70 real-world datasets
and substantial amounts of symbolic domain-knowledge, we examine the result of
vertex-enrichment across 5 different variants of GNNs. Our results provide
support for the following: (a) Inclusion of domain-knowledge by
vertex-enrichment can significantly improve the performance of a GNN. That is,
the performance VEGNNs is significantly better than GNNs across all GNN
variants; (b) The inclusion of domain-specific relations constructed using ILP
improves the performance of VEGNNs, across all GNN variants. Taken together,
the results provide evidence that it is possible to incorporate symbolic domain
knowledge into a GNN, and that ILP can play an important role in providing
high-level relationships that are not easily discovered by a GNN.
- Abstract(参考訳): 1) データは自然にグラフとして表現される、(2) 利用可能なデータの量は一般的に小さい、(3) 重要なドメイン知識があり、通常は何らかの象徴的な形で表現される。
この種の問題は2つの重要な特徴により、ILP(Inductive Logic Programming)によって過去に効果的に解決されてきた。
(a)グラフ構造化データにエンコードされた関係を容易にキャプチャする表現言語の使用、及び
b)データ不足の問題を緩和し,新たな関係を構築できる,ドメイン固有の関係として符号化された事前情報を含めること。
近年,グラフ構造データ (graph-based neural network, gnn) 用に開発されたディープニューラルネットワークが出現している。
GNNはグラフ構造化データを処理できることが示されているが、ドメイン知識を含める研究は少ない。
ここでは,GNNのこのような側面を,私たちが "vertex-enrichment" と呼ぶ操作を用いて実証的に検討し,対応するGNNを "VEGNNs" と表現する。
70以上の実世界のデータセットと相当量の記号的ドメイン知識を用いて、GNNの5つの異なる変種にわたる頂点拡大の結果を調べる。
私たちの結果は下記のサポートを提供する。
(a)頂点富化によるドメイン知識の取り込みは,GNNの性能を著しく向上させることができる。
つまり、パフォーマンスのVEGNNは、すべてのGNN亜種でGNNよりもはるかに優れている。
b) ILPを用いたドメイン固有関係の包含は,すべてのGNN変種において,VEGNNの性能を向上させる。
この結果から,シンボル的ドメイン知識をGNNに組み込むことが可能であること,そしてICPがGNNが容易に発見できない高レベルの関係を提供する上で重要な役割を果たすことを示す。
関連論文リスト
- DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Information Flow in Graph Neural Networks: A Clinical Triage Use Case [49.86931948849343]
グラフニューラルネットワーク(GNN)は、マルチモーダルグラフとマルチリレーショナルグラフを処理する能力によって、医療やその他の領域で人気を集めている。
GNNにおける埋め込み情報のフローが知識グラフ(KG)におけるリンクの予測に与える影響について検討する。
以上の結果から,ドメイン知識をGNN接続に組み込むことで,KGと同じ接続を使用する場合や,制約のない埋め込み伝搬を行う場合よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-09-12T09:18:12Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Graph Neural Networks for Graphs with Heterophily: A Survey [98.45621222357397]
異種グラフに対するグラフニューラルネットワーク(GNN)の総合的なレビューを提供する。
具体的には,既存の異好性GNNモデルを本質的に支配する系統分類法を提案する。
グラフヘテロフィリーと様々なグラフ研究領域の相関を議論し、より効果的なGNNの開発を促進することを目的とした。
論文 参考訳(メタデータ) (2022-02-14T23:07:47Z) - Identity-aware Graph Neural Networks [63.6952975763946]
グラフニューラルネットワーク(ID-GNN)を1-WLテストよりも表現力の高いメッセージクラスを開発しています。
ID-GNNは、メッセージパッシング中にノードのIDを誘導的に考慮することにより、既存のGNNアーキテクチャを拡張します。
既存のGNNをID-GNNに変換すると、挑戦ノード、エッジ、グラフプロパティ予測タスクの平均40%の精度が向上することを示す。
論文 参考訳(メタデータ) (2021-01-25T18:59:01Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z) - Generalization and Representational Limits of Graph Neural Networks [46.20253808402385]
ローカル情報に完全に依存するグラフニューラルネットワーク(GNN)では,いくつかの重要なグラフ特性を計算できないことを示す。
メッセージパッシングGNNに対する最初のデータ依存一般化境界を提供する。
私たちのバウンダリは、既存のVC次元ベースのGNN保証よりもはるかに厳格で、リカレントニューラルネットワークのRademacherバウンダリと同等です。
論文 参考訳(メタデータ) (2020-02-14T18:10:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。