論文の概要: CLEAR: Generative Counterfactual Explanations on Graphs
- arxiv url: http://arxiv.org/abs/2210.08443v1
- Date: Sun, 16 Oct 2022 04:35:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 20:21:49.529607
- Title: CLEAR: Generative Counterfactual Explanations on Graphs
- Title(参考訳): CLEAR: グラフに関する生成的対実的説明
- Authors: Jing Ma, Ruocheng Guo, Saumitra Mishra, Aidong Zhang, Jundong Li
- Abstract要約: グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
- 参考スコア(独自算出の注目度): 60.30009215290265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactual explanations promote explainability in machine learning models
by answering the question "how should an input instance be perturbed to obtain
a desired predicted label?". The comparison of this instance before and after
perturbation can enhance human interpretation. Most existing studies on
counterfactual explanations are limited in tabular data or image data. In this
work, we study the problem of counterfactual explanation generation on graphs.
A few studies have explored counterfactual explanations on graphs, but many
challenges of this problem are still not well-addressed: 1) optimizing in the
discrete and disorganized space of graphs; 2) generalizing on unseen graphs;
and 3) maintaining the causality in the generated counterfactuals without prior
knowledge of the causal model. To tackle these challenges, we propose a novel
framework CLEAR which aims to generate counterfactual explanations on graphs
for graph-level prediction models. Specifically, CLEAR leverages a graph
variational autoencoder based mechanism to facilitate its optimization and
generalization, and promotes causality by leveraging an auxiliary variable to
better identify the underlying causal model. Extensive experiments on both
synthetic and real-world graphs validate the superiority of CLEAR over the
state-of-the-art methods in different aspects.
- Abstract(参考訳): カウンターファクトな説明は、機械学習モデルにおける説明可能性を促進するために、「入力インスタンスはどのように摂動して望ましいラベルを得るべきか?」という疑問に答える。
摂動前後におけるこの例の比較は、人間の解釈を高めることができる。
反事実的説明に関する既存の研究のほとんどは、表データや画像データに制限されている。
本研究では,グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
1) グラフの離散的かつ無秩序な空間における最適化
2)未発見グラフの一般化,及び
3) 因果モデルに関する事前の知識がなく, 発生した反事実の因果性を維持すること。
これらの課題に対処するために,グラフレベルの予測モデルに対するグラフの反実的説明を生成する新しいフレームワーク CLEAR を提案する。
具体的には、clearはグラフ変分オートエンコーダベースのメカニズムを利用して最適化と一般化を促進し、補助変数を活用して因果モデルをよりよく識別することで因果性を促進する。
合成グラフと実世界のグラフの広範な実験は、異なる側面における最先端の手法よりもCLEARの優位性を検証する。
関連論文リスト
- Motif-Consistent Counterfactuals with Adversarial Refinement for Graph-Level Anomaly Detection [30.618065157205507]
本稿では,グラフレベルの異常検出のための新しい手法Motif-consistent Counterfactuals with Adversarial Refinement (MotifCAR)を提案する。
このモデルは、あるグラフのモチーフと、識別(カテゴリ)情報を含むコアサブグラフと、別のグラフのコンテキストサブグラフを組み合わせて、生の反事実グラフを生成する。
MotifCARは高品質な反ファクトグラフを生成することができる。
論文 参考訳(メタデータ) (2024-07-18T08:04:57Z) - Self-Explainable Temporal Graph Networks based on Graph Information Bottleneck [21.591458816091126]
テンポラルグラフネットワーク(TGNN)は、時間とともにグラフ内の相互作用のトポロジと動的依存関係をキャプチャする能力を持つ。
過去の出来事が予測にどのように影響するかを特定するのが困難であるため、TGNNモデルの予測を説明する必要性が高まっている。
これは、時間グラフの予測と説明をエンドツーエンドで同時に行う最初の作品である。
論文 参考訳(メタデータ) (2024-06-19T04:55:34Z) - Towards Self-Interpretable Graph-Level Anomaly Detection [73.1152604947837]
グラフレベルの異常検出(GLAD)は、コレクションの大多数と比べて顕著な相違を示すグラフを識別することを目的としている。
本稿では,異常なグラフを検出し,同時に情報的説明を生成する自己解釈グラフaNomaly dETectionモデル(SIGNET)を提案する。
論文 参考訳(メタデータ) (2023-10-25T10:10:07Z) - Robust Ante-hoc Graph Explainer using Bilevel Optimization [0.7999703756441758]
グラフニューラルネットワークのための新鮮でフレキシブルなアンテホック説明器 RAGE を提案する。
RAGEは、予測に必要な完全な情報を含む分子サブ構造を効果的に識別することができる。
種々の分子分類タスクに関する実験により、RAGEの説明は既存のポストホック法やアンテホック法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-25T05:50:38Z) - Beyond spectral gap: The role of the topology in decentralized learning [58.48291921602417]
機械学習モデルのデータ並列最適化では、労働者はモデルの推定値を改善するために協力する。
本稿では、労働者が同じデータ分散を共有するとき、疎結合な分散最適化の正確な図面を描くことを目的とする。
我々の理論は深層学習における経験的観察と一致し、異なるグラフトポロジーの相対的メリットを正確に記述する。
論文 参考訳(メタデータ) (2022-06-07T08:19:06Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Explanation Graph Generation via Pre-trained Language Models: An
Empirical Study with Contrastive Learning [84.35102534158621]
エンドツーエンドで説明グラフを生成する事前学習言語モデルについて検討する。
本稿では,ノードとエッジの編集操作によるグラフ摂動の簡易かつ効果的な方法を提案する。
提案手法は,説明グラフの構造的精度と意味的精度を両立させる。
論文 参考訳(メタデータ) (2022-04-11T00:58:27Z) - OrphicX: A Causality-Inspired Latent Variable Model for Interpreting
Graph Neural Networks [42.539085765796976]
本稿では、グラフニューラルネットワーク(GNN)の因果説明を生成するための新しいeXplanationフレームワークOrphicXを提案する。
本研究では, 個別な生成モデルを構築し, 因果的, コンパクト, 忠実な説明を生成モデルに推奨する目的関数を設計する。
OrphicXは因果的説明を生成するための因果的意味論を効果的に識別できることを示す。
論文 参考訳(メタデータ) (2022-03-29T03:08:33Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。