論文の概要: Game-theoretic Counterfactual Explanation for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2402.06030v1
- Date: Thu, 8 Feb 2024 20:07:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 18:56:10.877559
- Title: Game-theoretic Counterfactual Explanation for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのためのゲーム理論的反事実説明
- Authors: Chirag Chhablani, Sarthak Jain, Akshay Channesh, Ian A. Kash, Sourav
Medya
- Abstract要約: グラフニューラルネットワーク(GNN)は、複雑なネットワークにおけるノード分類タスクのための強力なツールである。
対実的説明(CFE)は、機械学習モデルの解釈可能性を高めることを約束している。
ノード分類タスクのためのCFEを生成するための,半値に基づく非学習手法を提案する。
- 参考スコア(独自算出の注目度): 13.583604117327697
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph Neural Networks (GNNs) have been a powerful tool for node
classification tasks in complex networks. However, their decision-making
processes remain a black-box to users, making it challenging to understand the
reasoning behind their predictions. Counterfactual explanations (CFE) have
shown promise in enhancing the interpretability of machine learning models.
Prior approaches to compute CFE for GNNS often are learning-based approaches
that require training additional graphs. In this paper, we propose a
semivalue-based, non-learning approach to generate CFE for node classification
tasks, eliminating the need for any additional training. Our results reveals
that computing Banzhaf values requires lower sample complexity in identifying
the counterfactual explanations compared to other popular methods such as
computing Shapley values. Our empirical evidence indicates computing Banzhaf
values can achieve up to a fourfold speed up compared to Shapley values. We
also design a thresholding method for computing Banzhaf values and show
theoretical and empirical results on its robustness in noisy environments,
making it superior to Shapley values. Furthermore, the thresholded Banzhaf
values are shown to enhance efficiency without compromising the quality (i.e.,
fidelity) in the explanations in three popular graph datasets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、複雑なネットワークにおけるノード分類タスクのための強力なツールである。
しかし、意思決定プロセスは依然としてユーザにとってブラックボックスであり、予測の背後にある理由を理解するのは難しい。
counterfactual explanations (cfe) は、機械学習モデルの解釈可能性を高めることを約束している。
GNNSのCFE計算に先立つアプローチは、追加グラフのトレーニングを必要とする学習ベースのアプローチであることが多い。
本稿では,ノード分類タスクのためのCFEを生成するための,半値に基づく非学習手法を提案する。
この結果から,バンジャフ値の計算には,シェープ値などの他の一般的な手法と比較して,反実的説明を識別する上で,サンプルの複雑さが低いことが明らかとなった。
我々の実証的な証拠は、計算バンザフ値がシャプリー値と比較して最大4倍の速度を達成できることを示している。
また、Banzhaf値のしきい値計算法を設計し、ノイズの多い環境でのロバスト性に関する理論的および実証的な結果を示し、Shapley値よりも優れている。
さらに、閾値付きバンジャフ値は、3つの一般的なグラフデータセットにおける説明の質(すなわち忠実さ)を損なうことなく効率を高めることが示される。
関連論文リスト
- Interpretable Graph Neural Networks for Heterogeneous Tabular Data [2.8084422332394423]
IGNHは分類的特徴と数値的特徴の両方を扱い、学習プロセスを制約して正確な特徴属性を生成する。
IGNHが提供した特徴属性は,ホック後に計算されたShapley値と一致していることを示す。
論文 参考訳(メタデータ) (2024-08-14T16:49:25Z) - Fast and Simple Explainability for Point Cloud Networks [4.013156524547072]
本稿では,ポイントクラウドデータのための高速で簡単なAI(XAI)手法を提案する。
トレーニングされたネットワークダウンストリームタスクに関して、ポイントワイズの重要性を計算します。
論文 参考訳(メタデータ) (2024-03-12T14:51:23Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Interpretable Graph Neural Networks for Tabular Data [18.30325076881234]
IGNNetは学習アルゴリズムを制約し、解釈可能なモデルを生成する。
IGNNetは最先端の機械学習アルゴリズムに匹敵するパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-08-17T12:35:02Z) - Look beyond labels: Incorporating functional summary information in
Bayesian neural networks [11.874130244353253]
予測確率に関する要約情報を組み込むための簡単な手法を提案する。
利用可能な要約情報は、拡張データとして組み込まれ、ディリクレプロセスでモデル化される。
本稿では,タスクの難易度やクラス不均衡をモデルに示す方法について述べる。
論文 参考訳(メタデータ) (2022-07-04T07:06:45Z) - FlowX: Towards Explainable Graph Neural Networks via Message Flows [59.025023020402365]
グラフニューラルネットワーク(GNN)の動作メカニズム解明へのステップとして,その説明可能性について検討する。
本稿では,重要なメッセージフローを識別してGNNを説明するために,FlowXと呼ばれる新しい手法を提案する。
そこで我々は,多様な説明対象に向けて,フロースコアを学習するための情報制御学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-26T22:48:15Z) - Invertible Neural Networks for Graph Prediction [22.140275054568985]
本研究では,ディープ・インバーチブル・ニューラルネットワークを用いた条件生成について述べる。
私たちの目標は,前処理と後処理の予測と生成を同時に行うことにあるので,エンドツーエンドのトレーニングアプローチを採用しています。
論文 参考訳(メタデータ) (2022-06-02T17:28:33Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。