論文の概要: Faithful Knowledge Graph Explanations for Commonsense Reasoning
- arxiv url: http://arxiv.org/abs/2310.04910v1
- Date: Sat, 7 Oct 2023 20:29:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 14:37:23.764275
- Title: Faithful Knowledge Graph Explanations for Commonsense Reasoning
- Title(参考訳): 常識推論のための忠実な知識グラフ説明
- Authors: Weihe Zhai, Arkaitz Zubiaga, Bingquan Liu
- Abstract要約: 現在のKGに基づく説明手法の大きな弱点の1つは、評価中に生成された説明の忠実さを見落としていることである。
我々は,KGに基づく説明の忠実度を測定するために,グラフの一貫性とグラフの忠実度という2つの定量的指標を提案し,検証する。
本稿では,一貫性のある正規化項を付加して,説明の忠実度を改善する新しいトレーニング手法であるCNN(Consistent GNN)を紹介する。
- 参考スコア(独自算出の注目度): 11.696471300893123
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While fusing language models (LMs) and knowledge graphs (KGs) has become
common in commonsense question answering research, enabling faithful
chain-of-thought explanations in these models remains an open problem. One
major weakness of current KG-based explanation techniques is that they overlook
the faithfulness of generated explanations during evaluation. To address this
gap, we make two main contributions: (1) We propose and validate two
quantitative metrics - graph consistency and graph fidelity - to measure the
faithfulness of KG-based explanations. (2) We introduce Consistent GNN (CGNN),
a novel training method that adds a consistency regularization term to improve
explanation faithfulness. Our analysis shows that predictions from KG often
diverge from original model predictions. The proposed CGNN approach boosts
consistency and fidelity, demonstrating its potential for producing more
faithful explanations. Our work emphasises the importance of explicitly
evaluating suggest a path forward for developing architectures for faithful
graph-based explanations.
- Abstract(参考訳): 言語モデル (LM) と知識グラフ (KGs) は、一般的な質問応答研究において一般的になっているが、これらのモデルにおける忠実な連鎖説明を可能にすることは、未解決の問題である。
現在のKGに基づく説明手法の大きな弱点は、評価中に生成された説明の忠実さを見落としていることである。
このギャップに対処するために,(1) グラフ一貫性とグラフ忠実性という2つの定量的指標を提案し,検証し,kg に基づく説明の忠実性を評価する。
2) 説明の忠実性を改善するために, 一貫性正規化項を付加した新しい学習法であるconsistence gnn (cgnn) を導入する。
我々の分析では、KGからの予測は元のモデル予測から分岐することが多い。
提案されたCGNNアプローチは一貫性と忠実性を高め、より忠実な説明を生み出す可能性を示している。
我々の研究は、忠実なグラフに基づく説明のためのアーキテクチャ開発への道のりを明示的に評価することの重要性を強調している。
関連論文リスト
- Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z) - D4Explainer: In-Distribution GNN Explanations via Discrete Denoising
Diffusion [12.548966346327349]
グラフニューラルネットワーク(GNN)は、モデル監査と信頼できるグラフ学習の確保において重要な役割を果たす。
D4Explainerは、偽物とモデルレベルの説明シナリオの両方に対して、分散GNN説明を提供する新しいアプローチである。
これは、カウンターファクトとモデルレベルの説明を組み合わせた最初の統合フレームワークである。
論文 参考訳(メタデータ) (2023-10-30T07:41:42Z) - Towards Self-Interpretable Graph-Level Anomaly Detection [73.1152604947837]
グラフレベルの異常検出(GLAD)は、コレクションの大多数と比べて顕著な相違を示すグラフを識別することを目的としている。
本稿では,異常なグラフを検出し,同時に情報的説明を生成する自己解釈グラフaNomaly dETectionモデル(SIGNET)を提案する。
論文 参考訳(メタデータ) (2023-10-25T10:10:07Z) - Towards Robust Fidelity for Evaluating Explainability of Graph Neural Networks [32.345435955298825]
グラフニューラルネットワーク(GNN)は、グラフノード間のメッセージパッシングを介してグラフィカルデータの依存性構造を利用するニューラルネットワークである。
GNN説明可能性の研究における主な課題は、これらの説明機能の性能を評価するための忠実度尺度を提供することである。
本稿では,この基礎的課題について考察し,その限界を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-03T06:25:14Z) - Semantic Interpretation and Validation of Graph Attention-based
Explanations for GNN Models [9.260186030255081]
本稿では,グラフニューラルネットワーク(GNN)に基づくモデルの説明可能性を高めるために,意味的注意力を用いた手法を提案する。
本研究は,注意分布のばらつきを意味的にソートした特徴集合と関連づけることで,既存の注意グラフ説明可能性手法を拡張した。
提案手法をライダーポイントクラウド推定モデルに適用し,性能向上に寄与する主要なセマンティッククラスを同定する。
論文 参考訳(メタデータ) (2023-08-08T12:34:32Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Encoding Concepts in Graph Neural Networks [6.129235861306906]
本稿では,グラフネットワークにおける最初の差別化可能な概念発見手法であるConcept Moduleを紹介する。
提案手法は,まずグラフの概念を発見し,それを用いてタスクを解くことにより,グラフネットワークを設計により説明可能にする。
提案手法により,グラフネットワークは等価なバニラバージョンと同等の精度でモデルの精度が得られることを示す。
論文 参考訳(メタデータ) (2022-07-27T15:34:14Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。