論文の概要: AGNNCert: Defending Graph Neural Networks against Arbitrary Perturbations with Deterministic Certification
- arxiv url: http://arxiv.org/abs/2502.00765v1
- Date: Sun, 02 Feb 2025 11:56:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:52:02.708323
- Title: AGNNCert: Defending Graph Neural Networks against Arbitrary Perturbations with Deterministic Certification
- Title(参考訳): AGNNCert:決定論的認証による任意摂動に対するグラフニューラルネットワークの防御
- Authors: Jiate Li, Binghui Wang,
- Abstract要約: グラフニューラルネットワーク(GNN)は敵の摂動に弱い。
AGNNCertは、任意の(エッジ、ノード、ノードの特徴)摂動に対するGNNの最初の認証された防御である。
- 参考スコア(独自算出の注目度): 14.288781140044465
- License:
- Abstract: Graph neural networks (GNNs) achieve the state-of-the-art on graph-relevant tasks such as node and graph classification. However, recent works show GNNs are vulnerable to adversarial perturbations include the perturbation on edges, nodes, and node features, the three components forming a graph. Empirical defenses against such attacks are soon broken by adaptive ones. While certified defenses offer robustness guarantees, they face several limitations: 1) almost all restrict the adversary's capability to only one type of perturbation, which is impractical; 2) all are designed for a particular GNN task, which limits their applicability; and 3) the robustness guarantees of all methods except one are not 100% accurate. We address all these limitations by developing AGNNCert, the first certified defense for GNNs against arbitrary (edge, node, and node feature) perturbations with deterministic robustness guarantees, and applicable to the two most common node and graph classification tasks. AGNNCert also encompass existing certified defenses as special cases. Extensive evaluations on multiple benchmark node/graph classification datasets and two real-world graph datasets, and multiple GNNs validate the effectiveness of AGNNCert to provably defend against arbitrary perturbations. AGNNCert also shows its superiority over the state-of-the-art certified defenses against the individual edge perturbation and node perturbation.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ノードやグラフ分類といったグラフ関連タスクの最先端を実現する。
しかし、最近の研究によると、GNNはエッジ、ノード、ノードの特徴の摂動、グラフを形成する3つのコンポーネントなど、敵の摂動に対して脆弱である。
このような攻撃に対する実証的な防御は、すぐに適応的な攻撃によって破られる。
認証された防衛は堅牢性を保証するが、いくつかの制限に直面している。
1) ほとんどすべての者は,敵の能力を1種類の摂動のみに制限するが,これは現実的ではない。
2) すべては特定のGNNタスクのために設計されており、適用性が制限されている。
3) 1 つを除くすべてのメソッドの堅牢性保証は100%正確ではない。
我々は、決定論的ロバスト性保証を伴う任意の(エッジ、ノード、ノード特徴)摂動に対するGNNの最初の認証された防御であるAGNNCertを開発し、最も一般的なノードとグラフの分類タスクに適用することによって、これらの制限に対処する。
AGNNCertは、特別なケースとして、既存の認証された防衛も含んでいる。
複数のベンチマークノード/グラフ分類データセットと2つの実世界のグラフデータセット、および複数のGNNによる広範囲な評価は、任意の摂動に対して確実に防御するAGNNCertの有効性を検証する。
AGNNCertはまた、個々のエッジの摂動とノードの摂動に対する最先端の認証された防御よりも優れていることを示している。
関連論文リスト
- GRID: Protecting Training Graph from Link Stealing Attacks on GNN Models [32.513071094162726]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上の様々な分類タスクにおいて優れた性能を示した。
リンク盗難攻撃は、GNNモデルで使用されるトレーニンググラフに深刻なセキュリティとプライバシの脅威をもたらす。
本稿では,リンク盗難攻撃を防止すべく,GRID(Graph Link Disguise)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-19T08:39:22Z) - Exact Certification of (Graph) Neural Networks Against Label Poisoning [50.87615167799367]
機械学習モデルはラベルのフリップ(ラベルのフリップ)に弱い。
サンプルと集合証明書の両方を抽出し,正確な認証手法を提案する。
私たちの研究は、ニューラルネットワークによって引き起こされた毒殺攻撃に対する最初の正確な証明書を提示しました。
論文 参考訳(メタデータ) (2024-11-30T17:05:12Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - GNNGuard: Defending Graph Neural Networks against Adversarial Attacks [16.941548115261433]
我々はGNNGuardを開発した。GNNGuardは、離散グラフ構造を乱す様々な訓練時間攻撃に対して防御するアルゴリズムである。
GNNGuardは、関連のないノード間のエッジを切断しながら、類似ノードを接続するエッジにより高い重みを割り当てる方法を学ぶ。
実験の結果、GNNGuardは既存の防衛アプローチを平均15.3%上回る結果となった。
論文 参考訳(メタデータ) (2020-06-15T06:07:46Z) - AN-GCN: An Anonymous Graph Convolutional Network Defense Against
Edge-Perturbing Attack [53.06334363586119]
近年の研究では、エッジ摂動攻撃に対するグラフ畳み込みネットワーク(GCN)の脆弱性が明らかにされている。
まず、エッジ摂動攻撃の定式化を一般化し、ノード分類タスクにおけるこのような攻撃に対するGCNの脆弱性を厳密に証明する。
これに続いて、匿名グラフ畳み込みネットワークAN-GCNがエッジ摂動攻撃に対抗するために提案されている。
論文 参考訳(メタデータ) (2020-05-06T08:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。