論文の概要: Deterministic Certification of Graph Neural Networks against Graph Poisoning Attacks with Arbitrary Perturbations
- arxiv url: http://arxiv.org/abs/2503.18503v1
- Date: Mon, 24 Mar 2025 09:59:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:31:08.196959
- Title: Deterministic Certification of Graph Neural Networks against Graph Poisoning Attacks with Arbitrary Perturbations
- Title(参考訳): 任意摂動によるグラフ中毒に対するグラフニューラルネットワークの確定的認証
- Authors: Jiate Li, Meng Pang, Yun Dong, Binghui Wang,
- Abstract要約: グラフニューラルネットワーク(GNN)は,グラフデータから学習するデファクト手法になりつつある。
GNNは訓練時の中毒攻撃に弱い。
PGNNCert は GNN の毒殺攻撃に対する最初の認証された防御法である。
- 参考スコア(独自算出の注目度): 16.087737575194225
- License:
- Abstract: Graph neural networks (GNNs) are becoming the de facto method to learn on the graph data and have achieved the state-of-the-art on node and graph classification tasks. However, recent works show GNNs are vulnerable to training-time poisoning attacks -- marginally perturbing edges, nodes, or/and node features of training graph(s) can largely degrade GNNs' testing performance. Most previous defenses against graph poisoning attacks are empirical and are soon broken by adaptive / stronger ones. A few provable defenses provide robustness guarantees, but have large gaps when applied in practice: 1) restrict the attacker on only one type of perturbation; 2) design for a particular GNN architecture or task; and 3) robustness guarantees are not 100\% accurate. In this work, we bridge all these gaps by developing PGNNCert, the first certified defense of GNNs against poisoning attacks under arbitrary (edge, node, and node feature) perturbations with deterministic robustness guarantees. Extensive evaluations on multiple node and graph classification datasets and GNNs demonstrate the effectiveness of PGNNCert to provably defend against arbitrary poisoning perturbations. PGNNCert is also shown to significantly outperform the state-of-the-art certified defenses against edge perturbation or node perturbation during GNN training.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,グラフデータから学習するデファクトメソッドになりつつある。
しかし、最近の研究は、GNNがトレーニング時中毒攻撃に弱いことを示している。エッジ、ノード、および/およびトレーニンググラフのノード機能は、GNNのテストパフォーマンスを大きく低下させる可能性がある。
グラフ中毒に対するこれまでの防御は経験的であり、適応的/強い攻撃によってすぐに破壊される。
いくつかの証明可能な防御策は堅牢性を保証するが、実際には大きなギャップがある。
1) 1種類の摂動のみを攻撃者に制限すること。
2)特定のGNNアーキテクチャ又はタスクの設計
3)堅牢性保証は100%正確ではない。
PGNNCertは、任意の(エッジ、ノード、ノードの特徴)摂動下でのGNNの攻撃に対する最初の認証された防御であり、決定論的堅牢性を保証する。
複数のノード分類データセットとグラフ分類データセットおよびGNNの広範囲な評価は、PGNNCertが任意の中毒性摂動に対して確実に防御できることを示す。
PGNNCertは、GNNトレーニング中にエッジの摂動やノードの摂動に対する最先端の認証された防御を著しく上回っている。
関連論文リスト
- AGNNCert: Defending Graph Neural Networks against Arbitrary Perturbations with Deterministic Certification [14.288781140044465]
グラフニューラルネットワーク(GNN)は敵の摂動に弱い。
AGNNCertは、任意の(エッジ、ノード、ノードの特徴)摂動に対するGNNの最初の認証された防御である。
論文 参考訳(メタデータ) (2025-02-02T11:56:42Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - GNNGuard: Defending Graph Neural Networks against Adversarial Attacks [16.941548115261433]
我々はGNNGuardを開発した。GNNGuardは、離散グラフ構造を乱す様々な訓練時間攻撃に対して防御するアルゴリズムである。
GNNGuardは、関連のないノード間のエッジを切断しながら、類似ノードを接続するエッジにより高い重みを割り当てる方法を学ぶ。
実験の結果、GNNGuardは既存の防衛アプローチを平均15.3%上回る結果となった。
論文 参考訳(メタデータ) (2020-06-15T06:07:46Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。