論文の概要: ADAGE: Active Defenses Against GNN Extraction
- arxiv url: http://arxiv.org/abs/2503.00065v1
- Date: Thu, 27 Feb 2025 10:56:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:19:48.155727
- Title: ADAGE: Active Defenses Against GNN Extraction
- Title(参考訳): ADAGE: GNN抽出に対するアクティブディフェンス
- Authors: Jing Xu, Franziska Boenisch, Adam Dziedzic,
- Abstract要約: グラフニューラルネットワーク(GNN)は、薬物発見、トラフィック状態予測、レコメンデーションシステムなど、さまざまな現実世界のアプリケーションで高いパフォーマンスを達成する。
GNNに対する攻撃を盗む脅威ベクトルは、大きく多様である。
我々は、GNN抽出(ADAGE)に対する第1次、第1次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第
- 参考スコア(独自算出の注目度): 9.707239870468735
- License:
- Abstract: Graph Neural Networks (GNNs) achieve high performance in various real-world applications, such as drug discovery, traffic states prediction, and recommendation systems. The fact that building powerful GNNs requires a large amount of training data, powerful computing resources, and human expertise turns the models into lucrative targets for model stealing attacks. Prior work has revealed that the threat vector of stealing attacks against GNNs is large and diverse, as an attacker can leverage various heterogeneous signals ranging from node labels to high-dimensional node embeddings to create a local copy of the target GNN at a fraction of the original training costs. This diversity in the threat vector renders the design of effective and general defenses challenging and existing defenses usually focus on one particular stealing setup. Additionally, they solely provide means to identify stolen model copies rather than preventing the attack. To close this gap, we propose the first and general Active Defense Against GNN Extraction (ADAGE). By analyzing the queries to the GNN, tracking their diversity in terms of proximity to different communities identified in the underlying graph, and increasing the defense strength with the growing fraction of communities that have been queried, ADAGE can prevent stealing in all common attack setups. Our extensive experimental evaluation using six benchmark datasets, four GNN models, and three types of adaptive attackers shows that ADAGE penalizes attackers to the degree of rendering stealing impossible, whilst not harming predictive performance for legitimate users. ADAGE, thereby, contributes towards securely sharing valuable GNNs in the future.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、薬物発見、トラフィック状態予測、レコメンデーションシステムなど、さまざまな現実世界のアプリケーションで高いパフォーマンスを達成する。
強力なGNNを構築するには、大量のトレーニングデータ、強力なコンピューティングリソース、そして人間の専門知識が必要であるという事実は、モデルをモデル盗難攻撃の収益的なターゲットに変える。
攻撃者はノードラベルから高次元ノード埋め込みまで多様な異種信号を利用でき、元のトレーニングコストのごく一部でターゲットGNNのローカルコピーを作成することができる。
この脅威ベクトルの多様性は、効果的な防御と一般的な防御の設計を困難にし、既存の防御は、通常、特定の盗難装置に焦点を当てる。
さらに、攻撃を防ぐのではなく、盗んだモデルのコピーを識別する手段のみを提供する。
このギャップを埋めるために、我々は、GNN抽出(ADAGE)に対する第1次、第1次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第2次、第2
GNNへの問い合わせを分析し、基礎となるグラフで特定された異なるコミュニティに近づき、クエリされたコミュニティのごく一部で防御力を高めることで、ADAGEはすべての一般的な攻撃設定の盗難を防ぐことができる。
6つのベンチマークデータセットと4つのGNNモデル、および3種類のアダプティブアタッカーを用いた広範囲な実験的評価により、ADAGEは攻撃者を正当性のあるユーザに対する予測性能を損なうことなく、スタイリングが不可能な程度に罰することを示した。
したがって、ADAGEは将来、価値あるGNNを安全に共有するために貢献する。
関連論文リスト
- Backdoor Attack on Vertical Federated Graph Neural Network Learning [6.540725813096829]
フェデレーショングラフニューラルネットワーク(FedGNN)は、分散グラフデータに対するプライバシ保護トレーニングを可能にするために、フェデレーション学習とグラフニューラルネットワーク(GNN)を統合する。
Vertical Federated Graph Neural Network (VFGNN)は、データ機能とラベルが参加者間で分散されるシナリオを扱う。
VFGNNの堅牢なプライバシー保護設計にもかかわらず、バックドア攻撃のリスクに直面していることが判明した。
本稿では,マルチホップトリガとバックドア保持を利用した新たなバックドア攻撃手法であるBVGを提案する。
論文 参考訳(メタデータ) (2024-10-15T05:26:20Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Transferable Graph Backdoor Attack [13.110473828583725]
グラフニューラルネットワーク(GNN)は多くのグラフマイニングタスクで大きな成功を収めています。
GNNは、グラフ構造とノードの特徴の両方において、目立たない摂動に対して脆弱である。
本稿では,TRAP攻撃,Transferable GRAPhバックドア攻撃について述べる。
論文 参考訳(メタデータ) (2022-06-21T06:25:37Z) - GUARD: Graph Universal Adversarial Defense [54.81496179947696]
GUARD(Graph Universal Adversarial Defense)という,シンプルで効果的な手法を提案する。
GUARDは、各ノードを共通の防御パッチで攻撃から保護する。
GUARDは、複数の敵攻撃に対する複数の確立されたGCNの堅牢性を大幅に改善し、最先端の防御手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-04-20T22:18:12Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - GNNGuard: Defending Graph Neural Networks against Adversarial Attacks [16.941548115261433]
我々はGNNGuardを開発した。GNNGuardは、離散グラフ構造を乱す様々な訓練時間攻撃に対して防御するアルゴリズムである。
GNNGuardは、関連のないノード間のエッジを切断しながら、類似ノードを接続するエッジにより高い重みを割り当てる方法を学ぶ。
実験の結果、GNNGuardは既存の防衛アプローチを平均15.3%上回る結果となった。
論文 参考訳(メタデータ) (2020-06-15T06:07:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。