論文の概要: A Survey on Graph Counterfactual Explanations: Definitions, Methods,
Evaluation
- arxiv url: http://arxiv.org/abs/2210.12089v2
- Date: Tue, 24 Oct 2023 21:37:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-28 06:12:11.724490
- Title: A Survey on Graph Counterfactual Explanations: Definitions, Methods,
Evaluation
- Title(参考訳): グラフの非現実的説明に関する調査:定義,方法,評価
- Authors: Mario Alfonso Prado-Romero and Bardh Prenkaj and Giovanni Stilo and
Fosca Giannotti
- Abstract要約: グラフニューラルネットワーク(GNN)は、コミュニティ検出と分子分類においてよく機能する。
Counterfactual Explanations (CE) はブラックボックスモデルの透明性の限界を克服するための反例を提供する。
- 参考スコア(独自算出の注目度): 10.057539140951805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) perform well in community detection and molecule
classification. Counterfactual Explanations (CE) provide counter-examples to
overcome the transparency limitations of black-box models. Due to the growing
attention in graph learning, we focus on the concepts of CE for GNNs. We
analysed the SoA to provide a taxonomy, a uniform notation, and the
benchmarking datasets and evaluation metrics. We discuss fourteen methods,
their evaluation protocols, twenty-two datasets, and nineteen metrics. We
integrated the majority of methods into the GRETEL library to conduct an
empirical evaluation to understand their strengths and pitfalls. We highlight
open challenges and future work.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、コミュニティ検出と分子分類においてよく機能する。
Counterfactual Explanations (CE) はブラックボックスモデルの透明性の限界を克服するための反例を提供する。
グラフ学習の関心が高まっているため、我々はGNNにおけるCEの概念に注目している。
私たちはsoaを分析して分類法、一様表記法、ベンチマークデータセットと評価メトリクスを提供しました。
本稿では,14の手法,評価プロトコル,22のデータセット,19のメトリクスについて論じる。
提案手法の大半をGRETELライブラリに統合し,その強度と落とし穴を理解する実験的な評価を行った。
オープンな課題と今後の作業を強調します。
関連論文リスト
- Deep Graph Anomaly Detection: A Survey and New Perspectives [86.84201183954016]
グラフ異常検出(GAD)は、異常なグラフインスタンス(ノード、エッジ、サブグラフ、グラフ)を特定することを目的とする。
ディープラーニングアプローチ、特にグラフニューラルネットワーク(GNN)は、GADにとって有望なパラダイムとして現れています。
論文 参考訳(メタデータ) (2024-09-16T03:05:11Z) - KGExplainer: Towards Exploring Connected Subgraph Explanations for Knowledge Graph Completion [18.497296711526268]
我々は,連結部分グラフを同定し,定量的に評価するための評価器を蒸留するモデルに依存しないKGExplainerを提案する。
ベンチマークデータセットの実験は、KGExplainerが有望な改善を達成し、人間の評価において83.3%の最適比率を達成することを示した。
論文 参考訳(メタデータ) (2024-04-05T05:02:12Z) - Structure Your Data: Towards Semantic Graph Counterfactuals [1.8817715864806608]
概念に基づく対実的説明(CE)は、モデル予測にどの高レベルな意味的特徴が寄与するかを理解するための代替シナリオを考える説明である。
本研究では,入力データに付随する意味グラフに基づくCEを提案する。
論文 参考訳(メタデータ) (2024-03-11T08:40:37Z) - Overcoming Pitfalls in Graph Contrastive Learning Evaluation: Toward
Comprehensive Benchmarks [60.82579717007963]
本稿では,グラフコントラスト学習(GCL)手法の有効性,一貫性,全体的な能力をより正確に評価するために,拡張された評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-24T01:47:56Z) - On Discprecncies between Perturbation Evaluations of Graph Neural
Network Attributions [49.8110352174327]
我々は、グラフ領域で以前に検討されていない視点から帰属法を評価する:再学習。
中心となる考え方は、属性によって識別される重要な(あるいは重要でない)関係でネットワークを再訓練することである。
我々は4つの最先端GNN属性法と5つの合成および実世界のグラフ分類データセットについて分析を行った。
論文 参考訳(メタデータ) (2024-01-01T02:03:35Z) - GInX-Eval: Towards In-Distribution Evaluation of Graph Neural Network
Explanations [21.997015999698732]
グラフニューラルネットワーク(GNN)の様々な説明可能性法は、モデル予測に最も寄与するグラフのエッジとノードを強調するために開発されている。
これらの説明の正しさを人間やモデルの観点から評価する方法はまだ明らかになっていない。
本稿では,信頼の落とし穴を克服するグラフ説明の評価手法であるGInX-Evalを提案する。
論文 参考訳(メタデータ) (2023-09-28T07:56:10Z) - From Cluster Assumption to Graph Convolution: Graph-based Semi-Supervised Learning Revisited [51.24526202984846]
グラフベースの半教師付き学習(GSSL)は、長い間ホットな研究トピックだった。
グラフ畳み込みネットワーク (GCN) は, 有望な性能を示す主要な技術となっている。
論文 参考訳(メタデータ) (2023-09-24T10:10:21Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - GCExplainer: Human-in-the-Loop Concept-based Explanations for Graph
Neural Networks [0.3441021278275805]
GCExplainerは、グラフニューラルネットワーク(GNN)のためのグローバルな概念に基づく説明のポストホック発見と抽出のための教師なしのアプローチである。
提案手法は5つのノード分類データセットと2つのグラフ分類データセット上で成功し,人間をループに配置することで高品質な概念表現を発見し,抽出できることを実証した。
論文 参考訳(メタデータ) (2021-07-25T20:52:48Z) - Quantifying Challenges in the Application of Graph Representation
Learning [0.0]
私たちは、一般的な埋め込みアプローチのセットに対して、アプリケーション指向の視点を提供します。
実世界のグラフ特性に関する表現力を評価する。
GRLアプローチは現実のシナリオでは定義が困難であることが示唆された。
論文 参考訳(メタデータ) (2020-06-18T03:19:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。