論文の概要: COMBINEX: A Unified Counterfactual Explainer for Graph Neural Networks via Node Feature and Structural Perturbations
- arxiv url: http://arxiv.org/abs/2502.10111v1
- Date: Fri, 14 Feb 2025 12:17:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 14:45:01.898614
- Title: COMBINEX: A Unified Counterfactual Explainer for Graph Neural Networks via Node Feature and Structural Perturbations
- Title(参考訳): CoMBINEX:ノードの特徴と構造的摂動を通したグラフニューラルネットワークのための統一された対実的説明器
- Authors: Flavio Giorgi, Fabrizio Silvestri, Gabriele Tolomei,
- Abstract要約: 我々は,ノード分類タスクとグラフ分類タスクの両方に対して,対実的な説明を生成する新しいGNN説明器であるCOMBINEXを提案する。
構造的および特徴に基づく変更を独立に扱う従来の方法とは異なり、COMBINEXはエッジとノードの特徴への修正を最適にバランスする。
この統一されたアプローチは、モデルの予測を反転させるために必要な最小限かつ効果的な変更を保証し、現実的で解釈可能な反事実をもたらす。
- 参考スコア(独自算出の注目度): 6.894071825948456
- License:
- Abstract: Counterfactual explanations have emerged as a powerful tool to unveil the opaque decision-making processes of graph neural networks (GNNs). However, existing techniques primarily focus on edge modifications, often overlooking the crucial role of node feature perturbations in shaping model predictions. To address this limitation, we propose COMBINEX, a novel GNN explainer that generates counterfactual explanations for both node and graph classification tasks. Unlike prior methods, which treat structural and feature-based changes independently, COMBINEX optimally balances modifications to edges and node features by jointly optimizing these perturbations. This unified approach ensures minimal yet effective changes required to flip a model's prediction, resulting in realistic and interpretable counterfactuals. Additionally, COMBINEX seamlessly handles both continuous and discrete node features, enhancing its versatility across diverse datasets and GNN architectures. Extensive experiments on real-world datasets and various GNN architectures demonstrate the effectiveness and robustness of our approach over existing baselines.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の不透明な意思決定プロセスを明らかにするための強力なツールとして、ファクトファクト説明が登場した。
しかし、既存の技術は主にエッジ修正に焦点を当てており、しばしばモデルの予測を形作る上でのノードの特徴摂動の重要な役割を見落としている。
この制限に対処するために,ノード分類タスクとグラフ分類タスクの両方に対して,逆実説明を生成する新しい GNN 説明器である COMBINEX を提案する。
構造的および特徴的変化を独立に扱う従来の方法とは異なり、COMBINEXはこれらの摂動を共同で最適化することで、エッジやノードの特徴への修正を最適にバランスさせる。
この統一されたアプローチは、モデルの予測をひっくり返すのに必要な最小限かつ効果的な変更を保証し、現実的で解釈可能な反事実をもたらす。
さらに、COMBINEXは連続ノード機能と離散ノード機能の両方をシームレスに処理し、多様なデータセットとGNNアーキテクチャ間の汎用性を向上させる。
実世界のデータセットと様々なGNNアーキテクチャに関する大規模な実験は、既存のベースラインに対するアプローチの有効性と堅牢性を示している。
関連論文リスト
- RelGNN: Composite Message Passing for Relational Deep Learning [56.48834369525997]
本稿では,リレーショナルデータベースの特徴を捉えた新しいGNNフレームワークであるRelGNNを紹介する。
我々のアプローチの核となるのは、高次三部構造を形成するノードの列である原子経路の導入である。
RelGNNは、最先端の精度を最大25%改善して一貫して達成している。
論文 参考訳(メタデータ) (2025-02-10T18:58:40Z) - Graph as a feature: improving node classification with non-neural graph-aware logistic regression [2.952177779219163]
Graph-aware Logistic Regression (GLR) はノード分類タスク用に設計された非神経モデルである。
GNNにアクセスできる情報のごく一部しか使わない従来のグラフアルゴリズムとは異なり、提案モデルではノードの特徴とエンティティ間の関係を同時に活用する。
論文 参考訳(メタデータ) (2024-11-19T08:32:14Z) - Neural Networks Decoded: Targeted and Robust Analysis of Neural Network Decisions via Causal Explanations and Reasoning [9.947555560412397]
本稿では、因果推論理論に基づく新しい手法TRACERを紹介し、DNN決定の根底にある因果ダイナミクスを推定する。
提案手法は入力特徴に系統的に介入し,特定の変化がネットワークを介してどのように伝播するかを観察し,内部の活性化と最終的な出力に影響を与える。
TRACERはさらに、モデルバイアスの可能性のある反ファクトを生成することで説明可能性を高め、誤分類に対する対照的な説明を提供する。
論文 参考訳(メタデータ) (2024-10-07T20:44:53Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - ASGNN: Graph Neural Networks with Adaptive Structure [41.83813812538167]
本稿では,アダプティブ構造(ASMP)を用いた新しい解釈可能なメッセージパッシング方式を提案する。
ASMPは、異なるレイヤにおけるメッセージパッシングプロセスが動的に調整されたグラフ上で実行可能であるという意味で適応的である。
論文 参考訳(メタデータ) (2022-10-03T15:10:40Z) - Reinforced Neighborhood Selection Guided Multi-Relational Graph Neural
Networks [68.9026534589483]
RioGNNはReinforceed, recursive, flexible neighborhood selection guided multi-relational Graph Neural Network architectureである。
RioGNNは、各関係の個々の重要性の認識により、説明性を高めた差別的なノード埋め込みを学ぶことができる。
論文 参考訳(メタデータ) (2021-04-16T04:30:06Z) - Convolutional Neural Network Interpretability with General Pattern
Theory [0.0]
ディープニューラルネットワーク(DNN)の解釈性の向上には、説明可能な使用量の増加、アルゴリズムのメンテナンスの改善、改善など、実用的なメリットがある。
我々は、Ulf Grenanderによって定式化されたパターン理論を用いることを提案する。
U-Netのような構造はResNetに拡張ブロック(EB)をアタッチすることで形成され、セマンティックセグメンテーションのようなタスクを実行できる。
論文 参考訳(メタデータ) (2021-02-05T07:11:48Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。