論文の概要: Relational Graph Convolutional Networks Do Not Learn Sound Rules
- arxiv url: http://arxiv.org/abs/2408.10261v1
- Date: Wed, 14 Aug 2024 15:46:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 18:28:07.455274
- Title: Relational Graph Convolutional Networks Do Not Learn Sound Rules
- Title(参考訳): リレーショナルグラフ畳み込みネットワークは音律を学習しない
- Authors: Matthew Morris, David J. Tena Cucala, Bernardo Cuenca Grau, Ian Horrocks,
- Abstract要約: グラフニューラルネットワーク(GNN)は、知識グラフ(KG)の欠落した事実を予測するために頻繁に使用される。
最近の研究は、広く使われている論理ベースの形式主義であるDatalogを使って、それらの予測を説明することを目的としている。
我々は、KGs、R-GCNの最も人気のあるGNNアーキテクチャの1つを考察し、その予測を説明するためのルールを抽出する2つの方法を提案する。
- 参考スコア(独自算出の注目度): 13.66949379381985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) are frequently used to predict missing facts in knowledge graphs (KGs). Motivated by the lack of explainability for the outputs of these models, recent work has aimed to explain their predictions using Datalog, a widely used logic-based formalism. However, such work has been restricted to certain subclasses of GNNs. In this paper, we consider one of the most popular GNN architectures for KGs, R-GCN, and we provide two methods to extract rules that explain its predictions and are sound, in the sense that each fact derived by the rules is also predicted by the GNN, for any input dataset. Furthermore, we provide a method that can verify that certain classes of Datalog rules are not sound for the R-GCN. In our experiments, we train R-GCNs on KG completion benchmarks, and we are able to verify that no Datalog rule is sound for these models, even though the models often obtain high to near-perfect accuracy. This raises some concerns about the ability of R-GCN models to generalise and about the explainability of their predictions. We further provide two variations to the training paradigm of R-GCN that encourage it to learn sound rules and find a trade-off between model accuracy and the number of learned sound rules.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、知識グラフ(KG)の欠落した事実を予測するために頻繁に使用される。
これらのモデルのアウトプットの説明可能性の欠如により、最近の研究は、広く使われている論理ベースの形式であるDatalogを用いて、それらの予測を説明することを目的としている。
しかし、そのような研究はGNNの特定のサブクラスに限定されている。
本稿では,KGs,R-GCNにおける最も一般的なGNNアーキテクチャの1つを考察し,その予測を説明するためのルールを抽出する2つの方法を提案する。
さらに、R-GCNに対して、データログ規則の特定のクラスが健全でないことを検証できる手法を提案する。
実験では、KG完了ベンチマーク上でR-GCNを訓練し、モデルが精度が高く、ほぼ完全であるにもかかわらず、これらのモデルに対してデータログ規則が健全でないことを検証できる。
このことは、R-GCNモデルを一般化する能力と、それらの予測の説明可能性について、いくつかの懸念を提起する。
さらに、R-GCNのトレーニングパラダイムに2つのバリエーションを加えて、音響規則を学習し、モデル精度と学習音声規則の数とのトレードオフを見つける。
関連論文リスト
- Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks [12.892400744247565]
我々は,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
多様な説明型を持つ実世界の説明シナリオにおいて,32.71%の精度を達成する。
論文 参考訳(メタデータ) (2024-02-07T09:57:39Z) - Global Minima, Recoverability Thresholds, and Higher-Order Structure in
GNNS [0.0]
ランダムグラフ理論の観点から,グラフニューラルネットワーク(GNN)アーキテクチャの性能を解析する。
合成データにおける特定の高次構造と実データにおける経験的構造の混合が、GNNの性能に劇的な影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2023-10-11T17:16:33Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - R-GCN: The R Could Stand for Random [2.221251076371994]
Random Convolutional Network (RR-GCN) は知識グラフ上のノードへの埋め込みを構築する。
RR-GCNはノード分類とリンク予測設定の両方において完全に訓練されたR-GCNと競合できることを示す。
論文 参考訳(メタデータ) (2022-03-04T16:55:25Z) - Algorithmic Concept-based Explainable Reasoning [0.3149883354098941]
グラフニューラルネットワーク(GNN)モデルに関する最近の研究は、古典的なグラフアルゴリズムと最適化問題にGNNを適用した。
これらのアプローチの主な障害は、GNNは直接解釈できないブラックボックスモデルであるため、説明可能性の欠如である。
本稿では,GNNの読み出し機構を改良したコンセプトブートネックGNNを紹介する。
論文 参考訳(メタデータ) (2021-07-15T17:44:51Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。