論文の概要: Graph Diffusion Counterfactual Explanation
- arxiv url: http://arxiv.org/abs/2511.16287v1
- Date: Thu, 20 Nov 2025 12:06:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.604603
- Title: Graph Diffusion Counterfactual Explanation
- Title(参考訳): グラフ拡散対実説明法
- Authors: David Bechtoldt, Sidney Bender,
- Abstract要約: 本稿では,グラフデータに対する反実的説明を生成する新しいフレームワークであるグラフ拡散対実的説明法を紹介する。
実験により,本手法が離散分類対象と連続特性の両方に対して,分布内および最小構造的に異なる反事実を確実に生成できることが実証された。
- 参考スコア(独自算出の注目度): 0.8594140167290097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models that operate on graph-structured data, such as molecular graphs or social networks, often make accurate predictions but offer little insight into why certain predictions are made. Counterfactual explanations address this challenge by seeking the closest alternative scenario where the model's prediction would change. Although counterfactual explanations are extensively studied in tabular data and computer vision, the graph domain remains comparatively underexplored. Constructing graph counterfactuals is intrinsically difficult because graphs are discrete and non-euclidean objects. We introduce Graph Diffusion Counterfactual Explanation, a novel framework for generating counterfactual explanations on graph data, combining discrete diffusion models and classifier-free guidance. We empirically demonstrate that our method reliably generates in-distribution as well as minimally structurally different counterfactuals for both discrete classification targets and continuous properties.
- Abstract(参考訳): 分子グラフやソーシャルネットワークなどのグラフ構造化データを操作する機械学習モデルは、正確な予測を行うことが多いが、なぜ特定の予測を行うのかについての洞察はほとんど得られない。
カウンターファクチュアルな説明は、モデルの予測が変わる最も近いシナリオを求めることでこの問題に対処する。
カウンターファクトな説明は表データやコンピュータビジョンで広く研究されているが、グラフ領域は比較的過小評価されている。
グラフが離散で非ユークリッド対象であるため、グラフの反事実を構成することは本質的に困難である。
グラフ拡散モデルと分類器フリーガイダンスを組み合わせたグラフデータに対する反実的説明を生成する新しいフレームワークであるグラフ拡散対実説明法を紹介する。
実験により,本手法は離散的分類対象と連続特性の両方に対して,分布内および最小構造的に異なる反事実を確実に生成することを示した。
関連論文リスト
- Graph Counterfactual Explainable AI via Latent Space Traversal [4.337339380445765]
反実的な説明は、分配の代替入力の「アレスト」を見つけることによって予測を説明することを目的としている。
本稿では, 識別可能なブラックボックスグラフ分類器に対して, 反実的説明を生成する手法を提案する。
我々は3つのグラフデータセットに対するアプローチを実証的に検証し、我々のモデルはベースラインよりも一貫してハイパフォーマンスで堅牢であることを示した。
論文 参考訳(メタデータ) (2025-01-15T15:04:10Z) - PAC Learnability under Explanation-Preserving Graph Perturbations [15.83659369727204]
グラフニューラルネットワーク(GNN)はグラフ上で動作し、グラフ構造化データの複雑な関係と依存関係を活用する。
グラフ説明は、その分類ラベルに関して入力グラフの「ほぼ」統計量である部分グラフである。
本研究は、GNNの設計と訓練において、そのような摂動不変性を利用する2つの方法を検討する。
論文 参考訳(メタデータ) (2024-02-07T17:23:15Z) - Graph Generation with Diffusion Mixture [57.78958552860948]
グラフの生成は、非ユークリッド構造の複雑な性質を理解する必要がある実世界のタスクにとって大きな課題である。
本稿では,拡散過程の最終グラフ構造を明示的に学習することにより,グラフのトポロジーをモデル化する生成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-07T17:07:46Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - GraphOpt: Learning Optimization Models of Graph Formation [72.75384705298303]
本稿では,グラフ構造形成の暗黙的モデルを学ぶエンドツーエンドフレームワークを提案し,その基盤となる最適化機構を明らかにする。
学習した目的は、観測されたグラフプロパティの説明として機能し、ドメイン内の異なるグラフを渡すために自分自身を貸すことができる。
GraphOptは、グラフ内のリンク生成をシーケンシャルな意思決定プロセスとして、最大エントロピー逆強化学習アルゴリズムを用いて解決する。
論文 参考訳(メタデータ) (2020-07-07T16:51:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。