論文の概要: COMRECGC: Global Graph Counterfactual Explainer through Common Recourse
- arxiv url: http://arxiv.org/abs/2505.07081v2
- Date: Tue, 13 May 2025 02:51:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 12:30:10.443787
- Title: COMRECGC: Global Graph Counterfactual Explainer through Common Recourse
- Title(参考訳): COMRECGC:コモン・レコメンデーションによるグローバルグラフの非現実的説明
- Authors: Gregoire Fournier, Sourav Medya,
- Abstract要約: グラフニューラルネットワーク(GNN)は、ソーシャルネットワーク、分子生物学、レコメンデーションシステムなどの様々な領域で広く使われている。
GNNの予測の説明は2つのタイプに分類される。
本稿では,コモン・リコースの説明問題を定式化し,COMRECGCという効率的なアルゴリズムを設計して解決する。
- 参考スコア(独自算出の注目度): 3.2752005091619076
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have been widely used in various domains such as social networks, molecular biology, or recommendation systems. Concurrently, different explanations methods of GNNs have arisen to complement its black-box nature. Explanations of the GNNs' predictions can be categorized into two types--factual and counterfactual. Given a GNN trained on binary classification into ''accept'' and ''reject'' classes, a global counterfactual explanation consists in generating a small set of ''accept'' graphs relevant to all of the input ''reject'' graphs. The transformation of a ''reject'' graph into an ''accept'' graph is called a recourse. A common recourse explanation is a small set of recourse, from which every ''reject'' graph can be turned into an ''accept'' graph. Although local counterfactual explanations have been studied extensively, the problem of finding common recourse for global counterfactual explanation remains unexplored, particularly for GNNs. In this paper, we formalize the common recourse explanation problem, and design an effective algorithm, COMRECGC, to solve it. We benchmark our algorithm against strong baselines on four different real-world graphs datasets and demonstrate the superior performance of COMRECGC against the competitors. We also compare the common recourse explanations to the graph counterfactual explanation, showing that common recourse explanations are either comparable or superior, making them worth considering for applications such as drug discovery or computational biology.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ソーシャルネットワーク、分子生物学、レコメンデーションシステムなどの様々な領域で広く使われている。
同時に、GNNの異なる説明法がブラックボックスの性質を補完するために出現した。
GNNの予測の説明は2つのタイプに分類される。
バイナリ分類を'accept'クラスと'reject'クラスに訓練したGNNが与えられたとき、グローバルな反事実的説明は、入力された'accept'グラフのすべての'reject'グラフに関連する小さな'accept'グラフのセットを生成することである。
'reject' グラフを ''accept' グラフに変換することは、recourse と呼ばれる。
一般的なrecourse説明は、小さなrecourseのセットであり、そこからすべての'reject'グラフを'accept'グラフに変換することができる。
局所的な反事実的説明は広く研究されているが、グローバルな反事実的説明の共通論拠を見つけるという問題は、特にGNNでは未解明のままである。
本稿では,コモン・リコメンドの説明問題を定式化し,COMRECGCという効率的なアルゴリズムを設計して解決する。
提案アルゴリズムは,4つの実世界のグラフデータセットの強いベースラインに対してベンチマークを行い,競合相手に対するCOMRECGCの優れた性能を示す。
また, 一般論説説明とグラフ反事実説明を比較し, 共通論説説明が同等か優れているかを示し, 薬物発見や計算生物学などの応用について検討する価値があることを示した。
関連論文リスト
- Global Graph Counterfactual Explanation: A Subgraph Mapping Approach [54.42907350881448]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
対実的説明は、GNN予測を変える入力グラフ上で最小の摂動を見つけることを目的としている。
我々は,グローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
論文 参考訳(メタデータ) (2024-10-25T21:39:05Z) - Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - View-based Explanations for Graph Neural Networks [27.19300566616961]
本稿では,表現のためのグラフビューを生成する新しいパラダイムであるGVEXを提案する。
この戦略は近似比が1/2であることを示す。
第2のアルゴリズムは、インプットノードストリームへの単一パスをバッチで実行し、説明ビューを漸進的に維持する。
論文 参考訳(メタデータ) (2024-01-04T06:20:24Z) - Global Counterfactual Explainer for Graph Neural Networks [8.243944711755617]
グラフニューラルネットワーク(GNN)は、計算生物学、自然言語処理、コンピュータセキュリティなど、さまざまな分野に応用されている。
GNNはブラックボックス機械学習モデルであるため、GNNの予測を説明する必要性が高まっている。
既存のGNNの非現実的説明法は、インスタンス固有の局所的推論に限られる。
論文 参考訳(メタデータ) (2022-10-21T02:46:35Z) - Global Explainability of GNNs via Logic Combination of Learned Concepts [11.724402780594257]
我々はGLGExplainer (Global Logic-based GNN Explainer)を提案する。
GLGExplainerは、正確で人間の解釈可能なグローバルな説明を提供する。
抽出された公式はモデル予測に忠実であり、モデルによって学習された時に誤った規則に関する洞察を提供する点である。
論文 参考訳(メタデータ) (2022-10-13T16:30:03Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。