論文の概要: A Survey on Graph Counterfactual Explanations: Definitions, Methods,
Evaluation
- arxiv url: http://arxiv.org/abs/2210.12089v1
- Date: Fri, 21 Oct 2022 16:29:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 13:50:59.503402
- Title: A Survey on Graph Counterfactual Explanations: Definitions, Methods,
Evaluation
- Title(参考訳): グラフの非現実的説明に関する調査:定義,方法,評価
- Authors: Mario Alfonso Prado-Romero and Bardh Prenkaj and Giovanni Stilo and
Fosca Giannotti
- Abstract要約: Graph Neural Networksは、コミュニティ検出、分子分類、リンク予測といったタスクにおいて、優れたパフォーマンスを報告している。
Counterfactual Explanations (CE) は例を通してこれらの理解を提供する。
定義、データセット、メトリクスの統一的な公式表記に従って、文献の組織を提供する。
- 参考スコア(独自算出の注目度): 5.244689931638706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, Graph Neural Networks have reported outstanding performance
in tasks like community detection, molecule classification and link prediction.
However, the black-box nature of these models prevents their application in
domains like health and finance, where understanding the models' decisions is
essential. Counterfactual Explanations (CE) provide these understandings
through examples. Moreover, the literature on CE is flourishing with novel
explanation methods which are tailored to graph learning.
In this survey, we analyse the existing Graph Counterfactual Explanation
methods, by providing the reader with an organisation of the literature
according to a uniform formal notation for definitions, datasets, and metrics,
thus, simplifying potential comparisons w.r.t to the method advantages and
disadvantages. We discussed seven methods and sixteen synthetic and real
datasets providing details on the possible generation strategies. We highlight
the most common evaluation strategies and formalise nine of the metrics used in
the literature. We first introduce the evaluation framework GRETEL and how it
is possible to extend and use it while providing a further dimension of
comparison encompassing reproducibility aspects. Finally, we provide a
discussion on how counterfactual explanation interplays with privacy and
fairness, before delving into open challenges and future works.
- Abstract(参考訳): 近年、グラフニューラルネットワークは、コミュニティ検出、分子分類、リンク予測などのタスクにおいて、優れたパフォーマンスを報告している。
しかしながら、これらのモデルのブラックボックスの性質は、モデルの決定を理解することが不可欠である健康や金融といった分野への適用を妨げる。
Counterfactual Explanations (CE)は例を通してこれらの理解を提供する。
また,ceに関する文献には,グラフ学習に合わせた新しい説明手法が盛り込まれている。
本調査では,定義,データセット,メトリクスの統一的な表記法に従って,文献の組織を読者に提供することにより,既存のグラフ対実説明法を解析し,手法の利点とデメリットに対する潜在的な比較を簡素化する。
生成戦略の詳細を提供する7つの手法と16の合成および実データについて検討した。
我々は,最も一般的な評価戦略を強調し,文献で使用されている9つの指標を形式化する。
まず,評価フレームワーク gretel について紹介し,再現性に関する側面を包含する比較のさらなる次元を提供しながら,その拡張と利用について述べる。
最後に,オープン課題と今後の課題を掘り下げる前に,反事実的説明とプライバシと公平性との相互作用について論じる。
関連論文リスト
- Deep Graph Anomaly Detection: A Survey and New Perspectives [86.84201183954016]
グラフ異常検出(GAD)は、異常なグラフインスタンス(ノード、エッジ、サブグラフ、グラフ)を特定することを目的とする。
ディープラーニングアプローチ、特にグラフニューラルネットワーク(GNN)は、GADにとって有望なパラダイムとして現れています。
論文 参考訳(メタデータ) (2024-09-16T03:05:11Z) - KGExplainer: Towards Exploring Connected Subgraph Explanations for Knowledge Graph Completion [18.497296711526268]
我々は,連結部分グラフを同定し,定量的に評価するための評価器を蒸留するモデルに依存しないKGExplainerを提案する。
ベンチマークデータセットの実験は、KGExplainerが有望な改善を達成し、人間の評価において83.3%の最適比率を達成することを示した。
論文 参考訳(メタデータ) (2024-04-05T05:02:12Z) - Structure Your Data: Towards Semantic Graph Counterfactuals [1.8817715864806608]
概念に基づく対実的説明(CE)は、モデル予測にどの高レベルな意味的特徴が寄与するかを理解するための代替シナリオを考える説明である。
本研究では,入力データに付随する意味グラフに基づくCEを提案する。
論文 参考訳(メタデータ) (2024-03-11T08:40:37Z) - Overcoming Pitfalls in Graph Contrastive Learning Evaluation: Toward
Comprehensive Benchmarks [60.82579717007963]
本稿では,グラフコントラスト学習(GCL)手法の有効性,一貫性,全体的な能力をより正確に評価するために,拡張された評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-24T01:47:56Z) - On Discprecncies between Perturbation Evaluations of Graph Neural
Network Attributions [49.8110352174327]
我々は、グラフ領域で以前に検討されていない視点から帰属法を評価する:再学習。
中心となる考え方は、属性によって識別される重要な(あるいは重要でない)関係でネットワークを再訓練することである。
我々は4つの最先端GNN属性法と5つの合成および実世界のグラフ分類データセットについて分析を行った。
論文 参考訳(メタデータ) (2024-01-01T02:03:35Z) - GInX-Eval: Towards In-Distribution Evaluation of Graph Neural Network
Explanations [21.997015999698732]
グラフニューラルネットワーク(GNN)の様々な説明可能性法は、モデル予測に最も寄与するグラフのエッジとノードを強調するために開発されている。
これらの説明の正しさを人間やモデルの観点から評価する方法はまだ明らかになっていない。
本稿では,信頼の落とし穴を克服するグラフ説明の評価手法であるGInX-Evalを提案する。
論文 参考訳(メタデータ) (2023-09-28T07:56:10Z) - From Cluster Assumption to Graph Convolution: Graph-based Semi-Supervised Learning Revisited [51.24526202984846]
グラフベースの半教師付き学習(GSSL)は、長い間ホットな研究トピックだった。
グラフ畳み込みネットワーク (GCN) は, 有望な性能を示す主要な技術となっている。
論文 参考訳(メタデータ) (2023-09-24T10:10:21Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - GCExplainer: Human-in-the-Loop Concept-based Explanations for Graph
Neural Networks [0.3441021278275805]
GCExplainerは、グラフニューラルネットワーク(GNN)のためのグローバルな概念に基づく説明のポストホック発見と抽出のための教師なしのアプローチである。
提案手法は5つのノード分類データセットと2つのグラフ分類データセット上で成功し,人間をループに配置することで高品質な概念表現を発見し,抽出できることを実証した。
論文 参考訳(メタデータ) (2021-07-25T20:52:48Z) - Quantifying Challenges in the Application of Graph Representation
Learning [0.0]
私たちは、一般的な埋め込みアプローチのセットに対して、アプリケーション指向の視点を提供します。
実世界のグラフ特性に関する表現力を評価する。
GRLアプローチは現実のシナリオでは定義が困難であることが示唆された。
論文 参考訳(メタデータ) (2020-06-18T03:19:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。