論文の概要: Robust Ante-hoc Graph Explainer using Bilevel Optimization
- arxiv url: http://arxiv.org/abs/2305.15745v1
- Date: Thu, 25 May 2023 05:50:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 17:15:07.419476
- Title: Robust Ante-hoc Graph Explainer using Bilevel Optimization
- Title(参考訳): 両レベル最適化を用いたロバストアンテホックグラフ記述器
- Authors: Mert Kosan, Arlei Silva, Ambuj Singh
- Abstract要約: RAGE(Robust Ante-hoc Graph Explainer)は、幅広い種類のグラフニューラルネットワークの説明を見つけるように設計されている。
グラフ分類と回帰に基づく実験により、RAGEの説明は既存のポストホック法やアンテホック法よりも堅牢であることが示された。
- 参考スコア(独自算出の注目度): 6.209266270867095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explaining the decisions made by machine learning models for high-stakes
applications is critical for increasing transparency and guiding improvements
to these decisions. This is particularly true in the case of models for graphs,
where decisions often depend on complex patterns combining rich structural and
attribute data. While recent work has focused on designing so-called post-hoc
explainers, the question of what constitutes a good explanation remains open.
One intuitive property is that explanations should be sufficiently informative
to enable humans to approximately reproduce the predictions given the data.
However, we show that post-hoc explanations do not achieve this goal as their
explanations are highly dependent on fixed model parameters (e.g., learned GNN
weights). To address this challenge, this paper proposes RAGE (Robust Ante-hoc
Graph Explainer), a novel and flexible ante-hoc explainer designed to discover
explanations for a broad class of graph neural networks using bilevel
optimization. RAGE is able to efficiently identify explanations that contain
the full information needed for prediction while still enabling humans to rank
these explanations based on their influence. Our experiments, based on graph
classification and regression, show that RAGE explanations are more robust than
existing post-hoc and ante-hoc approaches and often achieve similar or better
accuracy than state-of-the-art models.
- Abstract(参考訳): 高度なアプリケーションのための機械学習モデルによる決定を説明することは、透明性を高め、これらの決定を導く上で重要である。
これはグラフのモデルにおいて特に当てはまり、決定はしばしばリッチな構造データと属性データを組み合わせた複雑なパターンに依存する。
最近の研究は、いわゆるポストホックな説明器の設計に焦点が当てられているが、何が良い説明になるのかという問題は未解決である。
直感的な特性の1つは、人間がデータに基づいて予測をほぼ再現できるように、説明が十分な情報であるべきであることである。
しかし,モデルパラメータ(学習したGNN重みなど)に大きく依存するため,ポストホックな説明はこの目的を達成することができない。
この課題に対処するために,両レベル最適化を用いたグラフニューラルネットワークの幅広いクラスの説明を見つけるために設計された,新規で柔軟なアンテホック説明器であるRAGE(Robust Ante-hoc Graph Explainer)を提案する。
RAGEは、予測に必要な全情報を含む説明を効率的に識別すると同時に、人間が影響に基づいてこれらの説明をランク付けすることができる。
グラフの分類と回帰に基づく実験では,既存のポストホックやアンテホックなアプローチよりもロバストな説明が得られ,最先端のモデルと同等あるいはそれ以上の精度が得られることが多い。
関連論文リスト
- From Model Explanation to Data Misinterpretation: Uncovering the Pitfalls of Post Hoc Explainers in Business Research [3.7209396288545338]
ビジネス研究では、データに関する推論にポストホックな説明が使われる傾向が増えている。
この論文の最終的な目標は、機械学習モデルのポストホックな説明を、潜在的に誤った洞察とデータの理解に翻訳しないように、ビジネス研究者に警告することである。
論文 参考訳(メタデータ) (2024-08-30T03:22:35Z) - Global Human-guided Counterfactual Explanations for Molecular Properties via Reinforcement Learning [49.095065258759895]
我々は分子特性予測のための新しいグローバルな説明モデルRLHEXを開発した。
反事実的な説明と人間の定義した原則を一致させ、説明をより解釈しやすくし、専門家が容易に評価できるようにする。
RLHEXによるグローバルな説明は、より多くの4.12%の入力グラフをカバーし、3つの分子データセットの平均0.47%の反実的な説明セットと入力セットの間の距離を削減している。
論文 参考訳(メタデータ) (2024-06-19T22:16:40Z) - Factorized Explainer for Graph Neural Networks [7.382632811417645]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する能力によって、注目を集めている。
GNN予測を理解するために、ポストホックなインスタンスレベルの説明法が提案されている。
理論的性能保証を伴う新しい因子化説明モデルを提案する。
論文 参考訳(メタデータ) (2023-12-09T15:29:45Z) - Toward Multiple Specialty Learners for Explaining GNNs via Online
Knowledge Distillation [0.17842332554022688]
グラフニューラルネットワーク(GNN)は、多くのアプリケーションやシステムにおいてますます普及し、それらの予測を説明する必要がある。
そこで我々はSCALEという新しいGNN説明フレームワークを提案する。
トレーニングにおいて、ブラックボックスGNNモデルは、オンライン知識蒸留パラダイムに基づいて学習者をガイドする。
具体的には、エッジマスキングと再起動手順によるランダムウォークを実行し、グラフレベルとノードレベルの予測の構造的説明を提供する。
論文 参考訳(メタデータ) (2022-10-20T08:44:57Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Towards the Explanation of Graph Neural Networks in Digital Pathology
with Information Flows [67.23405590815602]
グラフニューラルネットワーク(GNN)は、デジタル病理学において広く採用されている。
既存の説明者は、予測に関連する説明的部分グラフを発見する。
説明文は、予測に必要であるだけでなく、最も予測可能な領域を明らかにするのに十分である。
本稿では, IFEXPLAINERを提案する。
論文 参考訳(メタデータ) (2021-12-18T10:19:01Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。