論文の概要: Efficient Model-Stealing Attacks Against Inductive Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2405.12295v1
- Date: Mon, 20 May 2024 18:01:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 15:07:24.286818
- Title: Efficient Model-Stealing Attacks Against Inductive Graph Neural Networks
- Title(参考訳): 誘導型グラフニューラルネットワークに対する効率的なモデルステアリング攻撃
- Authors: Marcin Podhajski, Jan Dubiński, Franziska Boenisch, Adam Dziedzic, Agnieszka Pregowska, Tomasz Michalak,
- Abstract要約: 本稿では,誘導型GNNに対する教師なしモデルステアリング攻撃の新しい手法を提案する。
対象モデルから効率的に情報を抽出するために,グラフのコントラスト学習とスペクトルグラフ拡張に基づいている。
その結果,既存の盗難攻撃と比較して高い効率性を示した。
- 参考スコア(独自算出の注目度): 4.775113207763946
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) are recognized as potent tools for processing real-world data organized in graph structures. Especially inductive GNNs, which enable the processing of graph-structured data without relying on predefined graph structures, are gaining importance in an increasingly wide variety of applications. As these networks demonstrate proficiency across a range of tasks, they become lucrative targets for model-stealing attacks where an adversary seeks to replicate the functionality of the targeted network. A large effort has been made to develop model-stealing attacks that focus on models trained with images and texts. However, little attention has been paid to GNNs trained on graph data. This paper introduces a novel method for unsupervised model-stealing attacks against inductive GNNs, based on graph contrasting learning and spectral graph augmentations to efficiently extract information from the target model. The proposed attack is thoroughly evaluated on six datasets. The results show that this approach demonstrates a higher level of efficiency compared to existing stealing attacks. More concretely, our attack outperforms the baseline on all benchmarks achieving higher fidelity and downstream accuracy of the stolen model while requiring fewer queries sent to the target model.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造で組織された実世界のデータを処理するための強力なツールとして認識されている。
特に、事前に定義されたグラフ構造に依存しないグラフ構造化データの処理を可能にするインダクティブGNNは、ますます多様なアプリケーションにおいて重要になっている。
これらのネットワークは、様々なタスクにわたる習熟度を示すため、敵が標的ネットワークの機能の複製を試みているモデルステーリング攻撃の利益源となる。
画像やテキストで訓練されたモデルに焦点を当てたモデルステアリング攻撃の開発には、多大な努力が払われている。
しかし、グラフデータで訓練されたGNNには、ほとんど注意が払われていない。
本稿では,グラフコントラスト学習とスペクトルグラフ拡張に基づく誘導型GNNに対する教師なしモデルステーリング攻撃手法を提案する。
提案した攻撃は6つのデータセットで徹底的に評価される。
その結果,既存の盗難攻撃と比較して高い効率性を示した。
より具体的には、我々の攻撃は、ターゲットモデルに送信されるクエリを少なくしながら、盗難モデルの忠実度と下流精度を達成するため、全てのベンチマークでベースラインを上回ります。
関連論文リスト
- RIDA: A Robust Attack Framework on Incomplete Graphs [19.257308956424207]
我々は,ロバスト不完全なディープアタックフレームワーク(RIDA)を紹介する。
RIDAは、不完全グラフに対する堅牢なグレーボックス中毒攻撃のための最初のアルゴリズムである。
3つの実世界のデータセット上の9つのSOTAベースラインに対する大規模なテストは、不完全性と不完全グラフ上の高い攻撃性能を扱うRIDAの優位性を示している。
論文 参考訳(メタデータ) (2024-07-25T16:33:35Z) - Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - Exploiting Global Graph Homophily for Generalized Defense in Graph Neural Networks [2.4866716181615467]
グラフニューラルネットワーク(GNN)モデルは、敵攻撃の影響を受けやすい。
そこで我々は,グラフの局所的ホモフィリーを防御としてではなく,グローバル性を高める,Talosという新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-06-06T08:08:01Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Model Stealing Attacks Against Inductive Graph Neural Networks [15.334336995523302]
グラフニューラルネットワーク(GNN)は、グラフデータを完全に活用して強力なアプリケーションを構築するために提案されている。
これまでの研究によると、機械学習モデルは盗難攻撃をモデル化する傾向がある。
本稿では,誘導型GNNに対する攻撃を盗む最初のモデルを提案する。
論文 参考訳(メタデータ) (2021-12-15T18:29:22Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Adversarial Attack on Hierarchical Graph Pooling Neural Networks [14.72310134429243]
グラフ分類タスクにおけるグラフニューラルネットワーク(GNN)の堅牢性について検討する。
本稿では,グラフ分類タスクに対する逆攻撃フレームワークを提案する。
我々の知る限りでは、これは階層的なGNNベースのグラフ分類モデルに対する敵攻撃に関する最初の研究である。
論文 参考訳(メタデータ) (2020-05-23T16:19:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。