論文の概要: Counterfactual Reasoning with Knowledge Graph Embeddings
- arxiv url: http://arxiv.org/abs/2403.06936v1
- Date: Mon, 11 Mar 2024 17:21:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 17:54:37.122086
- Title: Counterfactual Reasoning with Knowledge Graph Embeddings
- Title(参考訳): 知識グラフ埋め込みによる反実的推論
- Authors: Lena Zellinger, Andreas Stephan, Benjamin Roth
- Abstract要約: 知識グラフ埋め込み (KGEs) は、本来は事実を推測するために開発されたが、未完成の知識リポジトリに欠けている事実を推測するために開発された。
本稿では,知識グラフの補完と,新たなタスクCFKGRによる反実的推論をリンクする。
- 参考スコア(独自算出の注目度): 3.6311338398148534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graph embeddings (KGEs) were originally developed to infer true but
missing facts in incomplete knowledge repositories. In this paper, we link
knowledge graph completion and counterfactual reasoning via our new task CFKGR.
We model the original world state as a knowledge graph, hypothetical scenarios
as edges added to the graph, and plausible changes to the graph as inferences
from logical rules. We create corresponding benchmark datasets, which contain
diverse hypothetical scenarios with plausible changes to the original knowledge
graph and facts that should be retained. We develop COULDD, a general method
for adapting existing knowledge graph embeddings given a hypothetical premise,
and evaluate it on our benchmark. Our results indicate that KGEs learn patterns
in the graph without explicit training. We further observe that KGEs adapted
with COULDD solidly detect plausible counterfactual changes to the graph that
follow these patterns. An evaluation on human-annotated data reveals that KGEs
adapted with COULDD are mostly unable to recognize changes to the graph that do
not follow learned inference rules. In contrast, ChatGPT mostly outperforms
KGEs in detecting plausible changes to the graph but has poor knowledge
retention. In summary, CFKGR connects two previously distinct areas, namely KG
completion and counterfactual reasoning.
- Abstract(参考訳): ナレッジグラフ埋め込み(kges)は、元々は、不完全な知識リポジトリの事実を推測するために開発された。
本稿では,知識グラフの補完と,新たなタスクCFKGRによる反実的推論をリンクする。
我々は、元の世界の状態を知識グラフとしてモデル化し、仮説的なシナリオをグラフに追加したエッジとして、論理ルールからの推論としてグラフに実証可能な変化をモデル化する。
対応するベンチマークデータセットを作成し、元の知識グラフと保持すべき事実に対して、妥当な変更を伴う様々な仮説シナリオを含む。
我々は,仮説的な前提で既存の知識グラフ埋め込みを適応させる汎用手法であるCOULDDを開発し,ベンチマークで評価する。
この結果から,KGEは明示的な学習をすることなく,グラフ内のパターンを学習できることがわかった。
さらに、COULDDに適応したKGEが、これらのパターンに従うグラフに対する妥当な反事実変化を確実に検出する。
人間の注釈付きデータに対する評価では、学習した推論ルールに従わないグラフの変更をほとんど認識できないことが判明した。
対照的に、ChatGPTはグラフのもっともらしい変化を検出するのにKGEよりも優れているが、知識の保持は乏しい。
まとめると、CFKGR は KG の完備化と反実理化という、2つの既約領域を接続する。
関連論文リスト
- Community-Invariant Graph Contrastive Learning [21.72222875193335]
本研究では,グラフ強化におけるグラフコミュニティの役割について検討する。
本稿では,学習可能なグラフ拡張時のグラフコミュニティ構造を維持するための,コミュニティ不変なGCLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-02T14:59:58Z) - Graph Domain Adaptation: Challenges, Progress and Prospects [61.9048172631524]
本稿では,グラフ間の効果的な知識伝達パラダイムとしてグラフ領域適応を提案する。
GDAは、ソースグラフとしてタスク関連のグラフを多数導入し、ソースグラフから学習した知識をターゲットグラフに適応させる。
研究状況と課題について概説し、分類学を提案し、代表作の詳細を紹介し、今後の展望について論じる。
論文 参考訳(メタデータ) (2024-02-01T02:44:32Z) - Graph Relation Aware Continual Learning [3.908470250825618]
連続グラフ学習(CGL)は、無限のグラフデータストリームから学習する問題を研究する。
我々は、縁の裏側にある潜伏関係を探索する関係発見モジュールからなるRAM-CGと呼ばれる関係認識適応モデルを設計する。
RAM-CGはCitationNet、OGBN-arxiv、TWITCHデータセットの最先端結果に対して2.2%、6.9%、および6.6%の精度向上を提供する。
論文 参考訳(メタデータ) (2023-08-16T09:53:20Z) - CausE: Towards Causal Knowledge Graph Embedding [13.016173217017597]
知識グラフ埋め込み(KGE)は、知識グラフ(KG)の連続ベクトル空間への実体と関係を表現することに焦点を当てている。
我々はKGEの新しいパラダイムを因果関係と非絡み込みの文脈で構築する。
本稿では,CausE(Causality Enhanced Knowledge Graph Embedding)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-21T14:25:39Z) - Farspredict: A benchmark dataset for link prediction [6.866104126509981]
本稿ではFarsbaseに基づくペルシアの知識グラフ"Farspredict"を提案する。
また、知識グラフ構造がKGEのリンク予測精度にどのように影響するかを説明する。
論文 参考訳(メタデータ) (2023-03-26T07:41:26Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - RelWalk A Latent Variable Model Approach to Knowledge Graph Embedding [50.010601631982425]
本稿では,単語埋め込みのランダムウォークモデル(Arora et al., 2016a)を知識グラフ埋め込み(KGE)に拡張する。
二つの実体 h (head) と t (tail) の間の関係 R の強さを評価するスコア関数を導出する。
理論的解析によって動機付けられた学習目標を提案し,知識グラフからKGEを学習する。
論文 参考訳(メタデータ) (2021-01-25T13:31:29Z) - Dirichlet Graph Variational Autoencoder [65.94744123832338]
本稿では,グラフクラスタメンバシップを潜在因子とするDGVAE(Dirichlet Graph Variational Autoencoder)を提案する。
バランスグラフカットにおける低パス特性により、入力グラフをクラスタメンバシップにエンコードする、Heattsと呼ばれるGNNの新しい変種を提案する。
論文 参考訳(メタデータ) (2020-10-09T07:35:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。