論文の概要: LinkLogic: A New Method and Benchmark for Explainable Knowledge Graph Predictions
- arxiv url: http://arxiv.org/abs/2406.00855v1
- Date: Sun, 2 Jun 2024 20:22:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 03:07:06.143447
- Title: LinkLogic: A New Method and Benchmark for Explainable Knowledge Graph Predictions
- Title(参考訳): LinkLogic: 説明可能な知識グラフ予測のための新しい方法とベンチマーク
- Authors: Niraj Kumar-Singh, Gustavo Polleti, Saee Paliwal, Rachel Hodos-Nkhereanye,
- Abstract要約: 本稿では、LinkLogicと呼ばれる単純なリンク予測説明法について詳細に検討する。
FB13データセットに存在する家族構造に基づいて,最初のリンク予測説明ベンチマークを構築した。
- 参考スコア(独自算出の注目度): 0.5999777817331317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While there are a plethora of methods for link prediction in knowledge graphs, state-of-the-art approaches are often black box, obfuscating model reasoning and thereby limiting the ability of users to make informed decisions about model predictions. Recently, methods have emerged to generate prediction explanations for Knowledge Graph Embedding models, a widely-used class of methods for link prediction. The question then becomes, how well do these explanation systems work? To date this has generally been addressed anecdotally, or through time-consuming user research. In this work, we present an in-depth exploration of a simple link prediction explanation method we call LinkLogic, that surfaces and ranks explanatory information used for the prediction. Importantly, we construct the first-ever link prediction explanation benchmark, based on family structures present in the FB13 dataset. We demonstrate the use of this benchmark as a rich evaluation sandbox, probing LinkLogic quantitatively and qualitatively to assess the fidelity, selectivity and relevance of the generated explanations. We hope our work paves the way for more holistic and empirical assessment of knowledge graph prediction explanation methods in the future.
- Abstract(参考訳): 知識グラフのリンク予測には多くの方法があるが、最先端のアプローチは、しばしばブラックボックスであり、難解なモデル推論であり、それによってユーザーがモデル予測について情報的な決定をする能力を制限する。
近年,リンク予測の手法である知識グラフ埋め込みモデルの予測説明を生成する手法が出現している。
では、これらの説明システムはどの程度機能するのか、という疑問が浮かび上がってくる。
これまでのところ、これは典型的には、あるいは時間のかかるユーザーリサーチによって解決されてきた。
本稿では,LinkLogicと呼ばれる単純なリンク予測説明法について,その予測に使用する説明情報の表面とランク付けについて詳細に検討する。
重要なことは、FB13データセットに存在する家族構造に基づいて、最初のリンク予測説明ベンチマークを構築することである。
本稿では、このベンチマークをリッチな評価サンドボックスとして使用し、LinkLogicを定量的に定性的に探索し、生成した説明の忠実度、選択性および妥当性を評価する。
今後の知識グラフ予測手法の総合的かつ実証的な評価の道を開くことを願っている。
関連論文リスト
- Improving rule mining via embedding-based link prediction [2.422410293747519]
知識グラフのルールマイニングは、説明可能なリンク予測を可能にする。
この2つの家系を組み合わせたいくつかのアプローチが近年提案されている。
2つのアプローチを結合する新しい方法を提案する。
論文 参考訳(メタデータ) (2024-06-14T15:53:30Z) - Evaluating Link Prediction Explanations for Graph Neural Networks [0.0]
リンク予測説明の質を評価するための指標を提供する。
ノード埋め込み間の距離の選択など,リンク予測タスクに特有の前提条件や技術的詳細が,説明の質にどのように影響するかを論じる。
論文 参考訳(メタデータ) (2023-08-03T10:48:37Z) - Towards Few-shot Inductive Link Prediction on Knowledge Graphs: A
Relational Anonymous Walk-guided Neural Process Approach [49.00753238429618]
知識グラフ上のインダクティブリンク予測は,少数ショットリンクを観測した未確認エンティティのリンク不足を予測することを目的としている。
近年の帰納的手法は、目に見えない実体を取り巻く部分グラフを用いて意味情報を取得し、リンクを誘導的に予測する。
本稿では,知識グラフ上の数ショットの帰納的リンク予測をRawNPと表記する,新しいリレーショナル匿名型歩行誘導ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-06-26T12:02:32Z) - UKP-SQuARE v2 Explainability and Adversarial Attacks for Trustworthy QA [47.8796570442486]
質問回答システムは、現実の意思決定をサポートするアプリケーションにますますデプロイされています。
本質的に解釈可能なモデルやポストホックな説明可能性メソッドは、モデルがその予測にどのように到着するかをユーザが理解するのに役立ちます。
SQuAREの新バージョンであるSQuARE v2を導入し、モデルを比較するための説明可能性インフラストラクチャを提供する。
論文 参考訳(メタデータ) (2022-08-19T13:01:01Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - KGRefiner: Knowledge Graph Refinement for Improving Accuracy of
Translational Link Prediction Methods [4.726777092009553]
本稿では,知識グラフの精細化手法を提案する。
これにより知識グラフがより情報的になり、リンク予測操作をより正確に行うことができる。
提案手法は,翻訳リンク予測手法の性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-06-27T13:32:39Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Exploring the Limits of Few-Shot Link Prediction in Knowledge Graphs [49.6661602019124]
数発のリンク予測を行うため,本手法の現況を一般化したモデルスペクトルについて検討する。
単純なゼロショットベースライン – 関係性固有の情報を無視する – が驚くほど高いパフォーマンスを実現しているのが分かります。
慎重に構築された合成データセットの実験では、関係の例がいくつかあるだけで、モデルがきめ細かな構造情報を使用するのを基本的に制限することが示されている。
論文 参考訳(メタデータ) (2021-02-05T21:04:31Z) - xERTE: Explainable Reasoning on Temporal Knowledge Graphs for
Forecasting Future Links [21.848948946837844]
本稿では,時間的KGのクエリ関連部分グラフを理由とするリンク予測フレームワークを提案する。
本稿では,囲い込み部分グラフの抽出を導くための時間的関係性注意機構と新しい逆表現更新方式を提案する。
我々のアプローチは予測を説明する人間の理解可能な証拠を提供する。
論文 参考訳(メタデータ) (2020-12-31T10:41:01Z) - Explainable Artificial Intelligence: How Subsets of the Training Data
Affect a Prediction [2.3204178451683264]
データサブセットの重要性をトレーニングするためにShapley値と呼ぶ新しい方法論を提案します。
提案手法を用いて,モデルの偏りや誤ったトレーニングデータを明らかにする方法を示す。
この説明は、アルゴリズムの内部動作をより認識し、同様の予測を生成するモデルがトレーニングデータの非常に異なる部分に基づいている方法を説明することを可能にすると主張しています。
論文 参考訳(メタデータ) (2020-12-07T12:15:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。