論文の概要: Multi-objective Explanations of GNN Predictions
- arxiv url: http://arxiv.org/abs/2111.14651v1
- Date: Mon, 29 Nov 2021 16:08:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 18:13:50.542011
- Title: Multi-objective Explanations of GNN Predictions
- Title(参考訳): GNN予測の多目的説明
- Authors: Yifei Liu, Chao Chen, Yazheng Liu, Xi Zhang, Sihong Xie
- Abstract要約: グラフニューラルネットワーク(GNN)は,様々な高精度な予測タスクにおいて最先端のパフォーマンスを達成した。
従来の手法では、より単純なサブグラフを使用して、完全なモデルをシミュレートしたり、予測の原因を特定するために偽造物を使ったりしていた。
- 参考スコア(独自算出の注目度): 15.563499097282978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Network (GNN) has achieved state-of-the-art performance in
various high-stake prediction tasks, but multiple layers of aggregations on
graphs with irregular structures make GNN a less interpretable model. Prior
methods use simpler subgraphs to simulate the full model, or counterfactuals to
identify the causes of a prediction. The two families of approaches aim at two
distinct objectives, "simulatability" and "counterfactual relevance", but it is
not clear how the objectives can jointly influence the human understanding of
an explanation. We design a user study to investigate such joint effects and
use the findings to design a multi-objective optimization (MOO) algorithm to
find Pareto optimal explanations that are well-balanced in simulatability and
counterfactual. Since the target model can be of any GNN variants and may not
be accessible due to privacy concerns, we design a search algorithm using
zeroth-order information without accessing the architecture and parameters of
the target model. Quantitative experiments on nine graphs from four
applications demonstrate that the Pareto efficient explanations dominate
single-objective baselines that use first-order continuous optimization or
discrete combinatorial search. The explanations are further evaluated in
robustness and sensitivity to show their capability of revealing convincing
causes while being cautious about the possible confounders. The diverse
dominating counterfactuals can certify the feasibility of algorithmic recourse,
that can potentially promote algorithmic fairness where humans are
participating in the decision-making using GNN.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,様々な高精度な予測タスクにおいて最先端のパフォーマンスを達成したが,不規則な構造を持つグラフ上の複数のアグリゲーション層は,GNNを解釈不可能なモデルにしている。
以前の手法では、完全なモデルをシミュレートするために単純なサブグラフを使うか、予測の原因を特定するために偽物を使う。
アプローチの2つのファミリーは「シミュラビリティ」と「数値的関連性」という2つの異なる目的を目標としているが、その目的が説明の人間の理解にどのように影響するかは明らかではない。
このような共同効果を調べるためにユーザスタディを設計し、この結果を用いて多目的最適化(MOO)アルゴリズムを設計し、シミュラビリティと非現実性においてバランスの取れたパレート最適説明を見つける。
対象モデルは任意のGNN変種であり,プライバシー上の懸念からアクセスできない可能性があるため,対象モデルのアーキテクチャやパラメータにアクセスすることなく,ゼロオーダー情報を用いた探索アルゴリズムを設計する。
4つの応用から得られた9つのグラフの定量的実験により、パレートの効率的な説明が一階連続最適化や離散組合せ探索を用いた単目的ベースラインを支配できることが示されている。
説明は強固さと感度においてさらに評価され、説得力のある原因を明らかにする能力を示しながら、共同設立者の可能性に慎重である。
多様な支配的カウンターファクトは、GNNを使用して意思決定に参加するアルゴリズム的公正性を促進するアルゴリズム的会話の実現可能性を証明することができる。
関連論文リスト
- DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Task-Agnostic Graph Neural Network Evaluation via Adversarial
Collaboration [11.709808788756966]
GraphACは、分子表現学習のためのグラフニューラルネットワーク(GNN)の研究を評価するための、原則付き、タスクに依存し、安定したフレームワークである。
2つのGNNが互いに直接競合することから、共同で自分自身を更新できる、競争力のあるバーロウツインズ(Competitive Barlow Twins)という新しい客観的機能を導入します。
論文 参考訳(メタデータ) (2023-01-27T03:33:11Z) - On the Ability of Graph Neural Networks to Model Interactions Between
Vertices [14.909298522361306]
グラフニューラルネットワーク(GNN)は、グラフの頂点として表されるエンティティ間の複雑な相互作用をモデル化するために広く使われている。
近年のGNNの表現力を理論的に分析する試みにもかかわらず、相互作用をモデル化する能力の形式的特徴は欠如している。
論文 参考訳(メタデータ) (2022-11-29T18:58:07Z) - On Consistency in Graph Neural Network Interpretation [34.25952902469481]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
論文 参考訳(メタデータ) (2022-05-27T02:58:07Z) - Tackling Oversmoothing of GNNs with Contrastive Learning [35.88575306925201]
グラフニューラルネットワーク(GNN)は、グラフデータと表現学習能力の包括的な関係を統合する。
オーバースムーシングはノードの最終的な表現を識別不能にし、ノード分類とリンク予測性能を劣化させる。
本稿では,TGCL(Topology-Guided Graph Contrastive Layer)を提案する。
論文 参考訳(メタデータ) (2021-10-26T15:56:16Z) - A Meta-Learning Approach for Training Explainable Graph Neural Networks [10.11960004698409]
本稿では,GNNの学習時間における説明可能性向上のためのメタラーニングフレームワークを提案する。
我々のフレームワークは、例えばノード分類などの元のタスクを解決するためにモデルを共同で訓練し、下流アルゴリズムで容易に処理可能な出力を提供する。
我々のモデルに依存しないアプローチは、異なるGNNアーキテクチャで生成された説明を改善し、このプロセスを駆動するためにインスタンスベースの説明器を使用することができます。
論文 参考訳(メタデータ) (2021-09-20T11:09:10Z) - From Canonical Correlation Analysis to Self-supervised Graph Neural
Networks [99.44881722969046]
本稿では,グラフデータを用いた自己教師付き表現学習のための概念的単純かつ効果的なモデルを提案する。
古典的カノニカル相関解析にインスパイアされた,革新的な特徴レベルの目的を最適化する。
提案手法は、7つの公開グラフデータセット上で競合的に動作する。
論文 参考訳(メタデータ) (2021-06-23T15:55:47Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。