論文の概要: Robust Ante-hoc Graph Explainer using Bilevel Optimization
- arxiv url: http://arxiv.org/abs/2305.15745v1
- Date: Thu, 25 May 2023 05:50:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 17:15:07.419476
- Title: Robust Ante-hoc Graph Explainer using Bilevel Optimization
- Title(参考訳): 両レベル最適化を用いたロバストアンテホックグラフ記述器
- Authors: Mert Kosan, Arlei Silva, Ambuj Singh
- Abstract要約: RAGE(Robust Ante-hoc Graph Explainer)は、幅広い種類のグラフニューラルネットワークの説明を見つけるように設計されている。
グラフ分類と回帰に基づく実験により、RAGEの説明は既存のポストホック法やアンテホック法よりも堅牢であることが示された。
- 参考スコア(独自算出の注目度): 6.209266270867095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explaining the decisions made by machine learning models for high-stakes
applications is critical for increasing transparency and guiding improvements
to these decisions. This is particularly true in the case of models for graphs,
where decisions often depend on complex patterns combining rich structural and
attribute data. While recent work has focused on designing so-called post-hoc
explainers, the question of what constitutes a good explanation remains open.
One intuitive property is that explanations should be sufficiently informative
to enable humans to approximately reproduce the predictions given the data.
However, we show that post-hoc explanations do not achieve this goal as their
explanations are highly dependent on fixed model parameters (e.g., learned GNN
weights). To address this challenge, this paper proposes RAGE (Robust Ante-hoc
Graph Explainer), a novel and flexible ante-hoc explainer designed to discover
explanations for a broad class of graph neural networks using bilevel
optimization. RAGE is able to efficiently identify explanations that contain
the full information needed for prediction while still enabling humans to rank
these explanations based on their influence. Our experiments, based on graph
classification and regression, show that RAGE explanations are more robust than
existing post-hoc and ante-hoc approaches and often achieve similar or better
accuracy than state-of-the-art models.
- Abstract(参考訳): 高度なアプリケーションのための機械学習モデルによる決定を説明することは、透明性を高め、これらの決定を導く上で重要である。
これはグラフのモデルにおいて特に当てはまり、決定はしばしばリッチな構造データと属性データを組み合わせた複雑なパターンに依存する。
最近の研究は、いわゆるポストホックな説明器の設計に焦点が当てられているが、何が良い説明になるのかという問題は未解決である。
直感的な特性の1つは、人間がデータに基づいて予測をほぼ再現できるように、説明が十分な情報であるべきであることである。
しかし,モデルパラメータ(学習したGNN重みなど)に大きく依存するため,ポストホックな説明はこの目的を達成することができない。
この課題に対処するために,両レベル最適化を用いたグラフニューラルネットワークの幅広いクラスの説明を見つけるために設計された,新規で柔軟なアンテホック説明器であるRAGE(Robust Ante-hoc Graph Explainer)を提案する。
RAGEは、予測に必要な全情報を含む説明を効率的に識別すると同時に、人間が影響に基づいてこれらの説明をランク付けすることができる。
グラフの分類と回帰に基づく実験では,既存のポストホックやアンテホックなアプローチよりもロバストな説明が得られ,最先端のモデルと同等あるいはそれ以上の精度が得られることが多い。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - ENGAGE: Explanation Guided Data Augmentation for Graph Representation
Learning [34.23920789327245]
本稿では,グラフのキー部分を保存するために,コントラスト的な拡張過程を導出するENGAGEを提案する。
また、構造情報と特徴情報を摂動するグラフ上に2つのデータ拡張スキームを設計する。
論文 参考訳(メタデータ) (2023-07-03T14:33:14Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Toward Multiple Specialty Learners for Explaining GNNs via Online
Knowledge Distillation [0.17842332554022688]
グラフニューラルネットワーク(GNN)は、多くのアプリケーションやシステムにおいてますます普及し、それらの予測を説明する必要がある。
そこで我々はSCALEという新しいGNN説明フレームワークを提案する。
トレーニングにおいて、ブラックボックスGNNモデルは、オンライン知識蒸留パラダイムに基づいて学習者をガイドする。
具体的には、エッジマスキングと再起動手順によるランダムウォークを実行し、グラフレベルとノードレベルの予測の構造的説明を提供する。
論文 参考訳(メタデータ) (2022-10-20T08:44:57Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。