論文の概要: Grimm: A Plug-and-Play Perturbation Rectifier for Graph Neural Networks Defending against Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2412.08555v2
- Date: Thu, 19 Dec 2024 10:12:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 20:07:42.717655
- Title: Grimm: A Plug-and-Play Perturbation Rectifier for Graph Neural Networks Defending against Poisoning Attacks
- Title(参考訳): Grimm: 攻撃防止のためのグラフニューラルネットワーク用プラグアンドプレイ摂動整流器
- Authors: Ao Liu, Wenshan Li, Beibei Li, Wengang Ma, Tao Li, Pan Zhou,
- Abstract要約: 近年の研究では、ノード分類タスクに対する敵対的中毒攻撃に対するグラフニューラルネットワーク(GNN)の脆弱性が明らかにされている。
ここでは、最初のプラグアンドプレイディフェンスモデルであるGrimmを紹介します。
- 参考スコア(独自算出の注目度): 53.972077392749185
- License:
- Abstract: Recent studies have revealed the vulnerability of graph neural networks (GNNs) to adversarial poisoning attacks on node classification tasks. Current defensive methods require substituting the original GNNs with defense models, regardless of the original's type. This approach, while targeting adversarial robustness, compromises the enhancements developed in prior research to boost GNNs' practical performance. Here we introduce Grimm, the first plug-and-play defense model. With just a minimal interface requirement for extracting features from any layer of the protected GNNs, Grimm is thus enabled to seamlessly rectify perturbations. Specifically, we utilize the feature trajectories (FTs) generated by GNNs, as they evolve through epochs, to reflect the training status of the networks. We then theoretically prove that the FTs of victim nodes will inevitably exhibit discriminable anomalies. Consequently, inspired by the natural parallelism between the biological nervous and immune systems, we construct Grimm, a comprehensive artificial immune system for GNNs. Grimm not only detects abnormal FTs and rectifies adversarial edges during training but also operates efficiently in parallel, thereby mirroring the concurrent functionalities of its biological counterparts. We experimentally confirm that Grimm offers four empirically validated advantages: 1) Harmlessness, as it does not actively interfere with GNN training; 2) Parallelism, ensuring monitoring, detection, and rectification functions operate independently of the GNN training process; 3) Generalizability, demonstrating compatibility with mainstream GNNs such as GCN, GAT, and GraphSAGE; and 4) Transferability, as the detectors for abnormal FTs can be efficiently transferred across different systems for one-step rectification.
- Abstract(参考訳): 近年の研究では、ノード分類タスクに対する敵対的中毒攻撃に対するグラフニューラルネットワーク(GNN)の脆弱性が明らかにされている。
現在の防衛方式では、元のGNNを防御モデルに置き換える必要がある。
このアプローチは、敵の堅牢性を目標としている一方で、GNNの実践的性能を高めるために、先行研究で開発された拡張を損なう。
ここでは、最初のプラグアンドプレイディフェンスモデルであるGrimmを紹介します。
保護されたGNNの任意のレイヤから機能を抽出するための最小限のインターフェース要件によって、Grimmは摂動をシームレスに修正できる。
具体的には,GNNが生み出す特徴トラジェクトリ(FT)を利用して,ネットワークのトレーニング状況を反映する。
そして、理論的には、被害者ノードのFTが必然的に識別可能な異常を示すことを証明します。
その結果, 生物学的神経系と免疫系の自然な並列性に着想を得て, GNNの総合的な人工免疫システムであるGrimmを構築した。
グリムは異常なFTを検知し、トレーニング中に敵のエッジを補正するだけでなく、効率的に並列に動作し、生物学的な機能の同時性を反映する。
Grimmが実証的に検証された利点を4つ提供していることを実験的に確認する。
1)GNNトレーニングに積極的に介入しないため,無害
2 並列性、監視、検出及び整合性の確保は、GNN訓練プロセスとは独立して行う。
3) 一般化可能性,GCN,GAT,GraphSAGEなどの主流GNNとの互換性を示す。
4) 異常FTの検出装置は1段階の修正のために, 異なるシステム間で効率よく移動可能である。
関連論文リスト
- Are Your Models Still Fair? Fairness Attacks on Graph Neural Networks via Node Injections [28.86365261170078]
グラフニューラルネットワーク(GNN)では、悪意のある敵対的攻撃に直面した際の公正な脆弱性が明らかにされている。
我々は、より現実的な環境でGNNフェアネスの脆弱性を探求するノードインジェクションベースのフェアネスアタック(NIFA)を紹介する。
NIFAは、ノードの1%だけを注入することで、フェアネスを意識したGNNを含むメインストリームのGNNの公平性を著しく損なう可能性がある。
論文 参考訳(メタデータ) (2024-06-05T08:26:53Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - Adversarial Inter-Group Link Injection Degrades the Fairness of Graph
Neural Networks [15.116231694800787]
本稿では,公正性を低下させることを目的としたグラフニューラルネットワーク(GNN)に対する敵攻撃の存在と有効性を示す。
これらの攻撃は、GNNベースのノード分類において特定のノードのサブグループを不利にする可能性がある。
敵リンク注入がGNN予測の公平性を損なうのかを定性的および実験的に分析する。
論文 参考訳(メタデータ) (2022-09-13T12:46:57Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Snowflake: Scaling GNNs to High-Dimensional Continuous Control via
Parameter Freezing [55.42968877840648]
近年の研究では、グラフニューラルネットワーク(GNN)が、典型的な多層パーセプトロン(MLP)と同じくらい効果的である移動制御のポリシーを学習できることが示されている。
これまでのところ、GNNの性能はセンサーやアクチュエータの数が増加するにつれて急速に低下しているため、小さなエージェントのトレーニングに限られている。
オーバーフィッティングに苦しむネットワーク部分のパラメータを凍結する高次元連続制御のためのGNNトレーニング方法であるSnowflakeを紹介します。
論文 参考訳(メタデータ) (2021-03-01T13:56:10Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - GNNGuard: Defending Graph Neural Networks against Adversarial Attacks [16.941548115261433]
我々はGNNGuardを開発した。GNNGuardは、離散グラフ構造を乱す様々な訓練時間攻撃に対して防御するアルゴリズムである。
GNNGuardは、関連のないノード間のエッジを切断しながら、類似ノードを接続するエッジにより高い重みを割り当てる方法を学ぶ。
実験の結果、GNNGuardは既存の防衛アプローチを平均15.3%上回る結果となった。
論文 参考訳(メタデータ) (2020-06-15T06:07:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。