論文の概要: KGExplainer: Towards Exploring Connected Subgraph Explanations for Knowledge Graph Completion
- arxiv url: http://arxiv.org/abs/2404.03893v1
- Date: Fri, 5 Apr 2024 05:02:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-08 17:06:15.296993
- Title: KGExplainer: Towards Exploring Connected Subgraph Explanations for Knowledge Graph Completion
- Title(参考訳): KGExplainer:知識グラフ補完のための連結サブグラフ説明の探索
- Authors: Tengfei Ma, Xiang song, Wen Tao, Mufei Li, Jiani Zhang, Xiaoqin Pan, Jianxin Lin, Bosheng Song, xiangxiang Zeng,
- Abstract要約: 我々は,連結部分グラフを同定し,定量的に評価するための評価器を蒸留するモデルに依存しないKGExplainerを提案する。
ベンチマークデータセットの実験は、KGExplainerが有望な改善を達成し、人間の評価において83.3%の最適比率を達成することを示した。
- 参考スコア(独自算出の注目度): 18.497296711526268
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graph completion (KGC) aims to alleviate the inherent incompleteness of knowledge graphs (KGs), which is a critical task for various applications, such as recommendations on the web. Although knowledge graph embedding (KGE) models have demonstrated superior predictive performance on KGC tasks, these models infer missing links in a black-box manner that lacks transparency and accountability, preventing researchers from developing accountable models. Existing KGE-based explanation methods focus on exploring key paths or isolated edges as explanations, which is information-less to reason target prediction. Additionally, the missing ground truth leads to these explanation methods being ineffective in quantitatively evaluating explored explanations. To overcome these limitations, we propose KGExplainer, a model-agnostic method that identifies connected subgraph explanations and distills an evaluator to assess them quantitatively. KGExplainer employs a perturbation-based greedy search algorithm to find key connected subgraphs as explanations within the local structure of target predictions. To evaluate the quality of the explored explanations, KGExplainer distills an evaluator from the target KGE model. By forwarding the explanations to the evaluator, our method can examine the fidelity of them. Extensive experiments on benchmark datasets demonstrate that KGExplainer yields promising improvement and achieves an optimal ratio of 83.3% in human evaluation.
- Abstract(参考訳): 知識グラフ補完(KGC)は、Web上のレコメンデーションなど、様々なアプリケーションにとって重要なタスクである知識グラフ(KG)の固有の不完全性を緩和することを目的としている。
知識グラフ埋め込み(KGE)モデルは、KGCタスクにおいて優れた予測性能を示しているが、これらのモデルは、透明性と説明責任を欠いたブラックボックス方式でリンク不足を推測し、研究者が説明可能なモデルを開発するのを妨げている。
既存のKGEに基づく説明手法は、キーパスや孤立したエッジの探索に重点を置いている。
さらに、真実の欠如は、これらの説明方法が、探索された説明を定量的に評価するのに効果的でないことにつながる。
これらの制約を克服するために,KGExplainerを提案する。KGExplainerは,接続されたサブグラフの説明を識別し,定量的に評価するための評価器を蒸留するモデルに依存しない手法である。
KGExplainerは摂動に基づく欲求探索アルゴリズムを用いて、ターゲット予測の局所構造内の説明として重要な連結部分グラフを見つける。
KGExplainerは対象のKGEモデルから評価器を蒸留する。
評価器に説明を転送することにより,その忠実度を検証できる。
ベンチマークデータセットに関する大規模な実験は、KGExplainerが有望な改善をもたらし、人間の評価において83.3%の最適比率を達成することを示した。
関連論文リスト
- Multi-perspective Improvement of Knowledge Graph Completion with Large
Language Models [95.31941227776711]
我々は,文脈知識の不足を補うMPIKGCを提案し,大規模言語モデル(LLM)をクエリすることでKGCを改善する。
我々は4つの記述に基づくKGCモデルと4つのデータセットに基づくフレームワークの広範囲な評価を行い、リンク予測とトリプルト分類のタスクについて検討した。
論文 参考訳(メタデータ) (2024-03-04T12:16:15Z) - Negative Sampling in Knowledge Graph Representation Learning: A Review [2.6703221234079946]
知識グラフ表現学習(KGRL)は知識構築や情報検索といったAIアプリケーションに不可欠である。
既存の知識グラフから高品質な負のサンプルを生成することは難しい。
本報告では, 各種陰性サンプリング法とそのKGRL成功への貢献について, 系統的に検討する。
論文 参考訳(メタデータ) (2024-02-29T14:26:20Z) - Path-based Explanation for Knowledge Graph Completion [17.541247786437484]
GNNベースの知識グラフ補完モデルの結果に対する適切な説明は、モデルの透明性を高める。
KGCタスクを説明するための既存のプラクティスは、インスタンス/サブグラフベースのアプローチに依存している。
我々は、GNNベースのモデルを探索する最初のパスベースのKGC説明器であるPower-Linkを提案する。
論文 参考訳(メタデータ) (2024-01-04T14:19:37Z) - Anchoring Path for Inductive Relation Prediction in Knowledge Graphs [69.81600732388182]
APSTはAPとCPを統一されたSentence Transformerアーキテクチャの入力として扱う。
我々は3つの公開データセット上でAPSTを評価し、36のトランスダクティブ、インダクティブ、および数ショットの実験的設定のうち30の最先端(SOTA)性能を達成する。
論文 参考訳(メタデータ) (2023-12-21T06:02:25Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - GInX-Eval: Towards In-Distribution Evaluation of Graph Neural Network
Explanations [21.997015999698732]
グラフニューラルネットワーク(GNN)の様々な説明可能性法は、モデル予測に最も寄与するグラフのエッジとノードを強調するために開発されている。
これらの説明の正しさを人間やモデルの観点から評価する方法はまだ明らかになっていない。
本稿では,信頼の落とし穴を克服するグラフ説明の評価手法であるGInX-Evalを提案する。
論文 参考訳(メタデータ) (2023-09-28T07:56:10Z) - Studying How to Efficiently and Effectively Guide Models with Explanations [52.498055901649025]
「モデルガイダンス」とは「正しい理由のために正しい」ことを保証するためにモデルの説明を規則化する考え方である。
PASCAL VOC 2007 および MS COCO 2014 データセット上で, 各種損失関数, 帰属方法, モデル, 誘導深度について詳細な評価を行う。
具体的には、一般的に使用されるセグメンテーションマスクよりもはるかに安価で入手可能なバウンディングボックスアノテーションを用いてモデルをガイドする。
論文 参考訳(メタデータ) (2023-03-21T15:34:50Z) - Explaining Link Predictions in Knowledge Graph Embedding Models with
Influential Examples [8.892798396214065]
本稿では,知識グラフ埋め込み(KGE)モデルにおけるリンク予測の説明問題について検討する。
本稿では,知識グラフにおけるノードとエッジの潜在空間表現を利用して予測を記述した例に基づく手法を提案する。
論文 参考訳(メタデータ) (2022-12-05T23:19:02Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - RelWalk A Latent Variable Model Approach to Knowledge Graph Embedding [50.010601631982425]
本稿では,単語埋め込みのランダムウォークモデル(Arora et al., 2016a)を知識グラフ埋め込み(KGE)に拡張する。
二つの実体 h (head) と t (tail) の間の関係 R の強さを評価するスコア関数を導出する。
理論的解析によって動機付けられた学習目標を提案し,知識グラフからKGEを学習する。
論文 参考訳(メタデータ) (2021-01-25T13:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。