論文の概要: QGShap: Quantum Acceleration for Faithful GNN Explanations
- arxiv url: http://arxiv.org/abs/2512.03099v1
- Date: Mon, 01 Dec 2025 16:19:15 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:13:59.162382
- Title: QGShap: Quantum Acceleration for Faithful GNN Explanations
- Title(参考訳): QGShap: 忠実なGNN説明のための量子加速
- Authors: Haribandhu Jena, Jyotirmaya Shivottam, Subhankar Mishra,
- Abstract要約: 連立評価における2次高速化を実現するために振幅増幅を利用する量子コンピューティング手法であるQGShapを導入する。
古典的なサンプリング法やサロゲート法とは異なり、本手法は、トラクタブルグラフサイズに対する近似トレードオフのない完全忠実な説明を提供する。
- 参考スコア(独自算出の注目度): 0.48998185508205744
- License:
- Abstract: Graph Neural Networks (GNNs) have become indispensable in critical domains such as drug discovery, social network analysis, and recommendation systems, yet their black-box nature hinders deployment in scenarios requiring transparency and accountability. While Shapley value-based methods offer mathematically principled explanations by quantifying each component's contribution to predictions, computing exact values requires evaluating $2^n$ coalitions (or aggregating over $n!$ permutations), which is intractable for real-world graphs. Existing approximation strategies sacrifice either fidelity or efficiency, limiting their practical utility. We introduce QGShap, a quantum computing approach that leverages amplitude amplification to achieve quadratic speedups in coalition evaluation while maintaining exact Shapley computation. Unlike classical sampling or surrogate methods, our approach provides fully faithful explanations without approximation trade-offs for tractable graph sizes. We conduct empirical evaluations on synthetic graph datasets, demonstrating that QGShap achieves consistently high fidelity and explanation accuracy, matching or exceeding the performance of classical methods across all evaluation metrics. These results collectively demonstrate that QGShap not only preserves exact Shapley faithfulness but also delivers interpretable, stable, and structurally consistent explanations that align with the underlying graph reasoning of GNNs. The implementation of QGShap is available at https://github.com/smlab-niser/qgshap.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、薬物発見、ソーシャルネットワーク分析、レコメンデーションシステムといった重要な領域では不可欠だが、そのブラックボックスの性質は透明性と説明責任を必要とするシナリオへの展開を妨げる。
シェープリーの値に基づく手法は、各コンポーネントの予測への貢献を定量化することで数学的に原理化された説明を提供するが、計算の正確な値は、2^n$の連立(または$n!$の置換)を評価する必要がある。
既存の近似戦略は忠実さまたは効率性を犠牲にし、実用性を制限している。
我々は,振幅増幅を利用した量子コンピューティング手法QGShapを導入し,連立評価における2次高速化を実現し,Shapley計算の精度を維持した。
古典的なサンプリング法やサロゲート法とは異なり、本手法は、トラクタブルグラフサイズに対する近似トレードオフのない完全忠実な説明を提供する。
合成グラフデータセット上で実験的な評価を行い、QGShapは全ての評価指標で古典的手法の性能を一致または超えることなく、一貫した高い忠実度と説明精度を達成できることを示した。
これらの結果は、QGShapがシャープリーの忠実さを正確に保存するだけでなく、GNNの基盤となるグラフ推論と一致する解釈可能で安定で構造的に一貫した説明を提供することを示した。
QGShapの実装はhttps://github.com/smlab-niser/qgshapで公開されている。
関連論文リスト
- QGraphLIME - Explaining Quantum Graph Neural Networks [0.48998185508205744]
量子グラフニューラルネットワークは、グラフ構造化データを学ぶための強力なパラダイムを提供する。
QuantumGraphLIMEは、モデル説明を、グラフの構造保存摂動に適合する局所代理上の分布として扱う。
論文 参考訳(メタデータ) (2025-10-07T08:39:13Z) - Shapley-Value-Based Graph Sparsification for GNN Inference [1.5998912722142724]
グラフスペーシフィケーション(Graph Sparsification)は、グラフニューラルネットワークの推論効率を改善する技術である。
共有値に基づく手法は、ノード予測に対する正と負の両方の寄与を割り当てる。
提案手法は,Shapley値に基づくグラフスペーシフィケーションが,グラフの複雑性を著しく低減しつつ予測性能を維持することを示す。
論文 参考訳(メタデータ) (2025-07-28T01:30:09Z) - Exact Computation of Any-Order Shapley Interactions for Graph Neural Networks [53.10674067060148]
共有インタラクション(SI)は、複数のノード間のノードのコントリビューションとインタラクションを定量化する。
GNNアーキテクチャを利用して、ノード埋め込みにおける相互作用の構造がグラフ予測のために保存されていることを示す。
任意の順序SIを正確に計算するための効率的なアプローチであるGraphSHAP-IQを導入する。
論文 参考訳(メタデータ) (2025-01-28T13:37:44Z) - Game-theoretic Counterfactual Explanation for Graph Neural Networks [13.583604117327697]
グラフニューラルネットワーク(GNN)は、複雑なネットワークにおけるノード分類タスクのための強力なツールである。
対実的説明(CFE)は、機械学習モデルの解釈可能性を高めることを約束している。
ノード分類タスクのためのCFEを生成するための,半値に基づく非学習手法を提案する。
論文 参考訳(メタデータ) (2024-02-08T20:07:43Z) - Towards Robust Fidelity for Evaluating Explainability of Graph Neural Networks [32.345435955298825]
グラフニューラルネットワーク(GNN)は、グラフノード間のメッセージパッシングを介してグラフィカルデータの依存性構造を利用するニューラルネットワークである。
GNN説明可能性の研究における主な課題は、これらの説明機能の性能を評価するための忠実度尺度を提供することである。
本稿では,この基礎的課題について考察し,その限界を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-03T06:25:14Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - FlowX: Towards Explainable Graph Neural Networks via Message Flows [59.025023020402365]
グラフニューラルネットワーク(GNN)の動作メカニズム解明へのステップとして,その説明可能性について検討する。
本稿では,重要なメッセージフローを識別してGNNを説明するために,FlowXと呼ばれる新しい手法を提案する。
そこで我々は,多様な説明対象に向けて,フロースコアを学習するための情報制御学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-26T22:48:15Z) - Collaborative likelihood-ratio estimation over graphs [55.98760097296213]
グラフに基づく相対的制約のない最小二乗重要度フィッティング(GRULSIF)
我々はこの考え方を、グラフベースの相対的非制約最小二乗重要度フィッティング(GRULSIF)と呼ばれる具体的な非パラメトリック手法で開発する。
我々は、ノード当たりの観測回数、グラフのサイズ、およびグラフ構造がタスク間の類似性をどの程度正確にエンコードしているかといった変数が果たす役割を強調する、協調的なアプローチの収束率を導出する。
論文 参考訳(メタデータ) (2022-05-28T15:37:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。