論文の概要: Towards Automated Evaluation of Explanations in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2106.11864v1
- Date: Tue, 22 Jun 2021 15:32:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 15:13:34.972077
- Title: Towards Automated Evaluation of Explanations in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおける説明の自動評価に向けて
- Authors: Vanya BK, Balaji Ganesan, Aniket Saxena, Devbrat Sharma, Arvind
Agarwal
- Abstract要約: 我々は、AIアプリケーションのエンドユーザーに対して、グラフニューラルネットワークの予測を簡単に理解可能な言葉で説明する方法を示す。
近年のアプリケーション動向と実世界の問題における経験をもとに,GNN説明のための自動評価手法を提案する。
- 参考スコア(独自算出の注目度): 1.76743454868885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explaining Graph Neural Networks predictions to end users of AI applications
in easily understandable terms remains an unsolved problem. In particular, we
do not have well developed methods for automatically evaluating explanations,
in ways that are closer to how users consume those explanations. Based on
recent application trends and our own experiences in real world problems, we
propose automatic evaluation approaches for GNN Explanations.
- Abstract(参考訳): 分かりやすい言葉でAIアプリケーションのエンドユーザにグラフニューラルネットワークの予測を説明することは、未解決の問題である。
特に,ユーザが説明を消費する方法に近い方法で,説明を自動的に評価する手法が十分に開発されていない。
近年のアプリケーション動向と実世界の問題における経験をもとに,GNN説明のための自動評価手法を提案する。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - ACGAN-GNNExplainer: Auxiliary Conditional Generative Explainer for Graph
Neural Networks [7.077341403454516]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで有効であることが証明されているが、その基盤となるメカニズムは謎のままである。
この課題に対処し、信頼性の高い意思決定を可能にするため、近年多くのGNN説明者が提案されている。
本稿では、GNN説明分野にAuxiliary Generative Adrative Network (ACGAN)を導入し、emphACGANGNNExplainerと呼ばれる新しいGNN説明器を提案する。
論文 参考訳(メタデータ) (2023-09-29T01:20:28Z) - Evaluating Link Prediction Explanations for Graph Neural Networks [0.0]
リンク予測説明の質を評価するための指標を提供する。
ノード埋め込み間の距離の選択など,リンク予測タスクに特有の前提条件や技術的詳細が,説明の質にどのように影響するかを論じる。
論文 参考訳(メタデータ) (2023-08-03T10:48:37Z) - RegExplainer: Generating Explanations for Graph Neural Networks in Regression Tasks [10.473178462412584]
グラフ回帰モデル(XAIG-R)を解釈する新しい説明法を提案する。
本手法は分散シフト問題と連続順序決定境界問題に対処する。
回帰タスクにおいて連続的に順序付けられたラベルに取り組むための自己教師型学習戦略を提案する。
論文 参考訳(メタデータ) (2023-07-15T16:16:22Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Behave-XAI: Deep Explainable Learning of Behavioral Representational Data [0.0]
行動マイニングのシナリオでは、説明可能なAIや人間の理解可能なAIを使用します。
まず、深層畳み込みニューラルネットワークアーキテクチャにおける行動マイニング問題を定式化する。
モデルが開発されると、ユーザーの前で説明が提示される。
論文 参考訳(メタデータ) (2022-12-30T18:08:48Z) - INGREX: An Interactive Explanation Framework for Graph Neural Networks [0.17842332554022688]
グラフニューラルネットワーク(GNN)は多くの現代的なアプリケーションで広く使われており、その決定には説明が必要である。
本稿では,モデル予測の理解を支援するGNNの対話型説明フレームワークであるINGREXを紹介する。
論文 参考訳(メタデータ) (2022-11-03T01:47:33Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Very Deep Graph Neural Networks Via Noise Regularisation [57.450532911995516]
グラフニューラルネットワーク(GNN)は、入力グラフを介して学習されたメッセージパッシングを実行する。
最大100のメッセージパッシングステップを持つディープGNNをトレーニングし、いくつかの最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-15T08:50:10Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。