論文の概要: Robustness questions the interpretability of graph neural networks: what to do?
- arxiv url: http://arxiv.org/abs/2505.02566v1
- Date: Mon, 05 May 2025 11:14:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.656746
- Title: Robustness questions the interpretability of graph neural networks: what to do?
- Title(参考訳): ロバストネスはグラフニューラルネットワークの解釈可能性に疑問を投げかけている。
- Authors: Kirill Lukyanov, Georgii Sazonov, Serafim Boyarsky, Ilya Makarov,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフベースのデータ分析の基盤となっている。
本稿では,GNNの解釈可能性に対する各種要因の影響を系統的に解析するベンチマークを提案する。
我々は,GCN,SAGE,GIN,GATの6つのGNNアーキテクチャを,2つの異なるドメインの5つのデータセットで評価した。
- 参考スコア(独自算出の注目度): 0.10713888959520207
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph Neural Networks (GNNs) have become a cornerstone in graph-based data analysis, with applications in diverse domains such as bioinformatics, social networks, and recommendation systems. However, the interplay between model interpretability and robustness remains poorly understood, especially under adversarial scenarios like poisoning and evasion attacks. This paper presents a comprehensive benchmark to systematically analyze the impact of various factors on the interpretability of GNNs, including the influence of robustness-enhancing defense mechanisms. We evaluate six GNN architectures based on GCN, SAGE, GIN, and GAT across five datasets from two distinct domains, employing four interpretability metrics: Fidelity, Stability, Consistency, and Sparsity. Our study examines how defenses against poisoning and evasion attacks, applied before and during model training, affect interpretability and highlights critical trade-offs between robustness and interpretability. The framework will be published as open source. The results reveal significant variations in interpretability depending on the chosen defense methods and model architecture characteristics. By establishing a standardized benchmark, this work provides a foundation for developing GNNs that are both robust to adversarial threats and interpretable, facilitating trust in their deployment in sensitive applications.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、バイオインフォマティクス、ソーシャルネットワーク、レコメンデーションシステムなど、さまざまな分野において、グラフベースのデータ分析の基盤となっている。
しかしながら、モデル解釈可能性と堅牢性の間の相互作用は、特に毒殺や回避攻撃のような敵のシナリオにおいて、よく理解されていない。
本稿では,GNNの解釈可能性に及ぼす各種要因の影響を総合的に分析する。
我々は,GCN,SAGE,GIN,GATの5つの異なる領域のデータセットにまたがって,GCN,SAGE,GIN,GATに基づくGNNアーキテクチャを6つ評価した。
本研究は, モデルトレーニング前後の防犯効果が解釈可能性にどのように影響するかを考察し, 堅牢性と解釈可能性の間に重要なトレードオフを浮き彫りにする。
フレームワークはオープンソースとして公開される予定だ。
その結果,選択した防御手法とモデルアーキテクチャ特性により,解釈可能性に大きな変化が認められた。
標準化されたベンチマークを確立することで、この研究は、敵の脅威に対して堅牢かつ解釈可能なGNNの開発基盤を提供し、センシティブなアプリケーションへのデプロイメントへの信頼を促進する。
関連論文リスト
- Uncertainty-Aware Graph Neural Networks: A Multi-Hop Evidence Fusion Approach [55.43914153271912]
グラフニューラルネットワーク(GNN)は、グラフ構造とノード機能を統合することにより、グラフ表現学習に優れる。
既存のGNNでは、モデルの深さによって異なるクラス確率の不確実性を考慮することができず、現実のシナリオでは信頼できない、リスクの高い予測が生じる。
本稿では,信頼に値する予測を達成し,ノード分類精度を高め,誤予測のリスクを明らかにするために,新しいEvidence Fusing Graph Neural Network (EFGNN)を提案する。
論文 参考訳(メタデータ) (2025-06-16T03:59:38Z) - On the Stability of Graph Convolutional Neural Networks: A Probabilistic Perspective [24.98112303106984]
グラフトポロジにおける摂動がGCNN出力に与える影響について検討し,モデル安定性解析のための新しい定式化を提案する。
最悪の場合の摂動のみに焦点を当てた従来の研究とは異なり、分布認識の定式化は幅広い入力データにまたがる出力摂動を特徴付ける。
論文 参考訳(メタデータ) (2025-06-01T23:17:19Z) - Hierarchical Uncertainty-Aware Graph Neural Network [3.4498722449655066]
この研究は、階層的不確実性認識グラフニューラルネットワーク(HU-GNN)という新しいアーキテクチャを導入している。
マルチスケールな表現学習、原則的不確実性推定、および単一エンドツーエンドフレームワークにおける自己監督型埋め込み多様性を統一する。
具体的には、HU-GNNはノードクラスタを適応的に形成し、個々のノードからより高いレベルまでの複数の構造スケールで不確実性を推定する。
論文 参考訳(メタデータ) (2025-04-28T14:22:18Z) - On the Relationship Between Robustness and Expressivity of Graph Neural Networks [7.161966906570077]
グラフニューラルネットワーク(GNN)はビットフリップ攻撃(BFA)に対して脆弱である
建築的特徴, グラフ特性, 相互作用の影響を研究するための分析フレームワークを提案する。
我々は、データセット上でGNN表現性を劣化させるために必要なビットフリップ数に関する理論的境界を導出する。
論文 参考訳(メタデータ) (2025-04-18T16:38:33Z) - Neural Networks Decoded: Targeted and Robust Analysis of Neural Network Decisions via Causal Explanations and Reasoning [9.947555560412397]
本稿では、因果推論理論に基づく新しい手法TRACERを紹介し、DNN決定の根底にある因果ダイナミクスを推定する。
提案手法は入力特徴に系統的に介入し,特定の変化がネットワークを介してどのように伝播するかを観察し,内部の活性化と最終的な出力に影響を与える。
TRACERはさらに、モデルバイアスの可能性のある反ファクトを生成することで説明可能性を高め、誤分類に対する対照的な説明を提供する。
論文 参考訳(メタデータ) (2024-10-07T20:44:53Z) - Understanding the Robustness of Graph Neural Networks against Adversarial Attacks [14.89001880258583]
近年の研究では、グラフニューラルネットワーク(GNN)が敵の攻撃に弱いことが示されている。
この脆弱性により、堅牢なGNNの設計に注目が集まっている。
本研究は,GNNの対角的ロバスト性に関する大規模な研究である。
論文 参考訳(メタデータ) (2024-06-20T01:24:18Z) - Uncertainty in Graph Neural Networks: A Survey [47.785948021510535]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。