論文の概要: Robustness questions the interpretability of graph neural networks: what to do?
- arxiv url: http://arxiv.org/abs/2505.02566v1
- Date: Mon, 05 May 2025 11:14:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.656746
- Title: Robustness questions the interpretability of graph neural networks: what to do?
- Title(参考訳): ロバストネスはグラフニューラルネットワークの解釈可能性に疑問を投げかけている。
- Authors: Kirill Lukyanov, Georgii Sazonov, Serafim Boyarsky, Ilya Makarov,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフベースのデータ分析の基盤となっている。
本稿では,GNNの解釈可能性に対する各種要因の影響を系統的に解析するベンチマークを提案する。
我々は,GCN,SAGE,GIN,GATの6つのGNNアーキテクチャを,2つの異なるドメインの5つのデータセットで評価した。
- 参考スコア(独自算出の注目度): 0.10713888959520207
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph Neural Networks (GNNs) have become a cornerstone in graph-based data analysis, with applications in diverse domains such as bioinformatics, social networks, and recommendation systems. However, the interplay between model interpretability and robustness remains poorly understood, especially under adversarial scenarios like poisoning and evasion attacks. This paper presents a comprehensive benchmark to systematically analyze the impact of various factors on the interpretability of GNNs, including the influence of robustness-enhancing defense mechanisms. We evaluate six GNN architectures based on GCN, SAGE, GIN, and GAT across five datasets from two distinct domains, employing four interpretability metrics: Fidelity, Stability, Consistency, and Sparsity. Our study examines how defenses against poisoning and evasion attacks, applied before and during model training, affect interpretability and highlights critical trade-offs between robustness and interpretability. The framework will be published as open source. The results reveal significant variations in interpretability depending on the chosen defense methods and model architecture characteristics. By establishing a standardized benchmark, this work provides a foundation for developing GNNs that are both robust to adversarial threats and interpretable, facilitating trust in their deployment in sensitive applications.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、バイオインフォマティクス、ソーシャルネットワーク、レコメンデーションシステムなど、さまざまな分野において、グラフベースのデータ分析の基盤となっている。
しかしながら、モデル解釈可能性と堅牢性の間の相互作用は、特に毒殺や回避攻撃のような敵のシナリオにおいて、よく理解されていない。
本稿では,GNNの解釈可能性に及ぼす各種要因の影響を総合的に分析する。
我々は,GCN,SAGE,GIN,GATの5つの異なる領域のデータセットにまたがって,GCN,SAGE,GIN,GATに基づくGNNアーキテクチャを6つ評価した。
本研究は, モデルトレーニング前後の防犯効果が解釈可能性にどのように影響するかを考察し, 堅牢性と解釈可能性の間に重要なトレードオフを浮き彫りにする。
フレームワークはオープンソースとして公開される予定だ。
その結果,選択した防御手法とモデルアーキテクチャ特性により,解釈可能性に大きな変化が認められた。
標準化されたベンチマークを確立することで、この研究は、敵の脅威に対して堅牢かつ解釈可能なGNNの開発基盤を提供し、センシティブなアプリケーションへのデプロイメントへの信頼を促進する。
関連論文リスト
- Hierarchical Uncertainty-Aware Graph Neural Network [3.4498722449655066]
この研究は、階層的不確実性認識グラフニューラルネットワーク(HU-GNN)という新しいアーキテクチャを導入している。
マルチスケールな表現学習、原則的不確実性推定、および単一エンドツーエンドフレームワークにおける自己監督型埋め込み多様性を統一する。
具体的には、HU-GNNはノードクラスタを適応的に形成し、個々のノードからより高いレベルまでの複数の構造スケールで不確実性を推定する。
論文 参考訳(メタデータ) (2025-04-28T14:22:18Z) - On the Relationship Between Robustness and Expressivity of Graph Neural Networks [7.161966906570077]
グラフニューラルネットワーク(GNN)はビットフリップ攻撃(BFA)に対して脆弱である
建築的特徴, グラフ特性, 相互作用の影響を研究するための分析フレームワークを提案する。
我々は、データセット上でGNN表現性を劣化させるために必要なビットフリップ数に関する理論的境界を導出する。
論文 参考訳(メタデータ) (2025-04-18T16:38:33Z) - Neural Networks Decoded: Targeted and Robust Analysis of Neural Network Decisions via Causal Explanations and Reasoning [9.947555560412397]
本稿では、因果推論理論に基づく新しい手法TRACERを紹介し、DNN決定の根底にある因果ダイナミクスを推定する。
提案手法は入力特徴に系統的に介入し,特定の変化がネットワークを介してどのように伝播するかを観察し,内部の活性化と最終的な出力に影響を与える。
TRACERはさらに、モデルバイアスの可能性のある反ファクトを生成することで説明可能性を高め、誤分類に対する対照的な説明を提供する。
論文 参考訳(メタデータ) (2024-10-07T20:44:53Z) - Uncertainty in Graph Neural Networks: A Survey [47.785948021510535]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。