論文の概要: Provably Robust Explainable Graph Neural Networks against Graph Perturbation Attacks
- arxiv url: http://arxiv.org/abs/2502.04224v1
- Date: Thu, 06 Feb 2025 17:07:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:29:16.574708
- Title: Provably Robust Explainable Graph Neural Networks against Graph Perturbation Attacks
- Title(参考訳): グラフ摂動攻撃に対する確率的ロバストな説明可能なグラフニューラルネットワーク
- Authors: Jiate Li, Meng Pang, Yun Dong, Jinyuan Jia, Binghui Wang,
- Abstract要約: グラフニューラルネットワーク(XGNN)は,GNNの信頼性を高めるために注目を集めている。
既存のXGNNでは、説明性能の改善に重点を置いている。
我々はXGNNCertを提案し、これはグラフ摂動攻撃に対する最初の確固たるXGNNである。
- 参考スコア(独自算出の注目度): 39.9987140075811
- License:
- Abstract: Explaining Graph Neural Network (XGNN) has gained growing attention to facilitate the trust of using GNNs, which is the mainstream method to learn graph data. Despite their growing attention, Existing XGNNs focus on improving the explanation performance, and its robustness under attacks is largely unexplored. We noticed that an adversary can slightly perturb the graph structure such that the explanation result of XGNNs is largely changed. Such vulnerability of XGNNs could cause serious issues particularly in safety/security-critical applications. In this paper, we take the first step to study the robustness of XGNN against graph perturbation attacks, and propose XGNNCert, the first provably robust XGNN. Particularly, our XGNNCert can provably ensure the explanation result for a graph under the worst-case graph perturbation attack is close to that without the attack, while not affecting the GNN prediction, when the number of perturbed edges is bounded. Evaluation results on multiple graph datasets and GNN explainers show the effectiveness of XGNNCert.
- Abstract(参考訳): グラフデータ学習の主流手法であるGNNの信頼性を高めるために,グラフニューラルネットワーク(XGNN)の説明が注目を集めている。
注目されているにもかかわらず、既存のXGNNは説明性能の改善に重点を置いており、攻撃下での堅牢性はほとんど調査されていない。
我々は,XGNNの説明結果が大きく変化するように,相手がグラフ構造をわずかに乱すことができることに気付いた。
このようなXGNNの脆弱性は、特に安全性/セキュリティクリティカルなアプリケーションで深刻な問題を引き起こす可能性がある。
本稿では,XGNNのグラフ摂動攻撃に対する頑健性を検討するための第一歩として,XGNNCertを提案する。
特に,我々のXGNNCertは,最悪のグラフ摂動攻撃によるグラフの説明結果を,GNN予測に影響を及ぼさずに,攻撃を伴わないグラフと確実に一致させることができる。
複数のグラフデータセットとGNN説明器による評価結果は,XGNNCertの有効性を示す。
関連論文リスト
- Graph Neural Network Explanations are Fragile [39.9987140075811]
我々は、敵の攻撃下でGNNの説明者を研究するための第一歩を踏み出した。
逆の摂動グラフ構造は、GNNモデルが正しい予測を行うのを確実にするが、GNN説明器は摂動グラフに大きく異なる説明を与える。
論文 参考訳(メタデータ) (2024-06-05T12:23:02Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Transferability Properties of Graph Neural Networks [125.71771240180654]
グラフニューラルネットワーク(GNN)は、中規模グラフでサポートされているデータから表現を学ぶのに成功している。
適度な大きさのグラフ上でGNNを訓練し、それらを大規模グラフに転送する問題について検討する。
その結果, (i) グラフサイズに応じて転送誤差が減少し, (ii) グラフフィルタは非線型性の散乱挙動によってGNNにおいて緩和されるような転送可能性-識別可能性トレードオフを有することがわかった。
論文 参考訳(メタデータ) (2021-12-09T00:08:09Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。