論文の概要: Faithful Knowledge Graph Explanations for Commonsense Reasoning
- arxiv url: http://arxiv.org/abs/2310.04910v3
- Date: Sat, 17 Feb 2024 14:35:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 05:34:40.906219
- Title: Faithful Knowledge Graph Explanations for Commonsense Reasoning
- Title(参考訳): 常識推論のための忠実な知識グラフ説明
- Authors: Weihe Zhai, Arkaitz Zubiaga, Bingquan Liu, Chengjie Sun, Yalong Zhao
- Abstract要約: 現在のKGに基づく説明手法の大きな弱点の1つは、評価中の経路復号の忠実さを見渡すことである。
この監視により、元のモデル予測からしばしば分岐するグラフエンコーダの分布が導かれる。
本稿では,グラフエンコーダと対象モデルとを整合させて,その後の説明の忠実度を向上させる新しいアルゴリズムTeGDAを紹介する。
- 参考スコア(独自算出の注目度): 13.064099546001627
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While fusing language models and knowledge graphs has become common in
commonsense question answering research, enabling faithful chain-of-thought
explanations in these models remains an open problem. Our analysis reveals that
one major weakness of current KG-based explanation methodologies lies in
overlooking the faithfulness of path decoding during evaluation. This oversight
leads to the distribution of the graph encoder often diverging from the
original model predictions. To address this gap, we present two main
contributions: (1) We propose and validate Text-GNN Fidelity in this specific
context, to assess the reliability of the graph representation. (2) We
introduce TeGDA (Text-Graph Distribution-aware Alignment), a novel algorithm
that aligns the graph encoder with the target model to improve the faithfulness
of subsequent explanations and that can be easily integrated into existing
approaches. Our experiments and analysis show its potential to produce more
faithful systems. Concretely, our work emphasises the neglected distributional
misalignment problem in LM-KG reasoning models, which has been a latent source
of spurious explanations.
- Abstract(参考訳): 言語モデルと知識グラフの融合は、常識的な質問応答研究で一般的になっているが、これらのモデルにおける忠実な連鎖説明を可能にすることは、未解決の問題である。
解析の結果、現在のKGに基づく説明手法の大きな弱点は、評価中の経路復号の忠実さを見越すことにあることがわかった。
この見落としにより、グラフエンコーダの分布はしばしば元のモデル予測から逸脱する。
このギャップに対処するため,1) グラフ表現の信頼性を評価するために, テキスト-GNN 忠実度をこの特定の文脈で提案し, 検証する。
2)TeGDA(Text-Graph Distribution-aware Alignment)は,グラフエンコーダを対象モデルと整列させて,その後の説明の忠実さを向上し,既存のアプローチに容易に統合できる新しいアルゴリズムである。
我々の実験と分析は、より忠実なシステムを生み出す可能性を示している。
具体的には, LM-KG推論モデルにおける分布の不整合問題に着目した。
関連論文リスト
- Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z) - D4Explainer: In-Distribution GNN Explanations via Discrete Denoising
Diffusion [12.548966346327349]
グラフニューラルネットワーク(GNN)は、モデル監査と信頼できるグラフ学習の確保において重要な役割を果たす。
D4Explainerは、偽物とモデルレベルの説明シナリオの両方に対して、分散GNN説明を提供する新しいアプローチである。
これは、カウンターファクトとモデルレベルの説明を組み合わせた最初の統合フレームワークである。
論文 参考訳(メタデータ) (2023-10-30T07:41:42Z) - Towards Self-Interpretable Graph-Level Anomaly Detection [73.1152604947837]
グラフレベルの異常検出(GLAD)は、コレクションの大多数と比べて顕著な相違を示すグラフを識別することを目的としている。
本稿では,異常なグラフを検出し,同時に情報的説明を生成する自己解釈グラフaNomaly dETectionモデル(SIGNET)を提案する。
論文 参考訳(メタデータ) (2023-10-25T10:10:07Z) - Towards Robust Fidelity for Evaluating Explainability of Graph Neural
Networks [33.738560550044646]
グラフニューラルネットワーク(GNN)は、グラフノード間のメッセージパッシングを介してグラフィカルデータの依存性構造を利用するニューラルネットワークである。
GNN説明可能性の研究における主な課題は、これらの説明機能の性能を評価するための忠実度尺度を提供することである。
本稿では,この基礎的課題について考察し,その限界を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-03T06:25:14Z) - Semantic Interpretation and Validation of Graph Attention-based
Explanations for GNN Models [9.260186030255081]
本稿では,グラフニューラルネットワーク(GNN)に基づくモデルの説明可能性を高めるために,意味的注意力を用いた手法を提案する。
本研究は,注意分布のばらつきを意味的にソートした特徴集合と関連づけることで,既存の注意グラフ説明可能性手法を拡張した。
提案手法をライダーポイントクラウド推定モデルに適用し,性能向上に寄与する主要なセマンティッククラスを同定する。
論文 参考訳(メタデータ) (2023-08-08T12:34:32Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Encoding Concepts in Graph Neural Networks [6.129235861306906]
本稿では,グラフネットワークにおける最初の差別化可能な概念発見手法であるConcept Moduleを紹介する。
提案手法は,まずグラフの概念を発見し,それを用いてタスクを解くことにより,グラフネットワークを設計により説明可能にする。
提案手法により,グラフネットワークは等価なバニラバージョンと同等の精度でモデルの精度が得られることを示す。
論文 参考訳(メタデータ) (2022-07-27T15:34:14Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。