論文の概要: Model Stealing Attacks Against Inductive Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2112.08331v1
- Date: Wed, 15 Dec 2021 18:29:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 17:57:53.264389
- Title: Model Stealing Attacks Against Inductive Graph Neural Networks
- Title(参考訳): 誘導型グラフニューラルネットワークに対するモデル盗み攻撃
- Authors: Yun Shen, Xinlei He, Yufei Han, Yang Zhang
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフデータを完全に活用して強力なアプリケーションを構築するために提案されている。
これまでの研究によると、機械学習モデルは盗難攻撃をモデル化する傾向がある。
本稿では,誘導型GNNに対する攻撃を盗む最初のモデルを提案する。
- 参考スコア(独自算出の注目度): 15.334336995523302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many real-world data come in the form of graphs. Graph neural networks
(GNNs), a new family of machine learning (ML) models, have been proposed to
fully leverage graph data to build powerful applications. In particular, the
inductive GNNs, which can generalize to unseen data, become mainstream in this
direction. Machine learning models have shown great potential in various tasks
and have been deployed in many real-world scenarios. To train a good model, a
large amount of data as well as computational resources are needed, leading to
valuable intellectual property. Previous research has shown that ML models are
prone to model stealing attacks, which aim to steal the functionality of the
target models. However, most of them focus on the models trained with images
and texts. On the other hand, little attention has been paid to models trained
with graph data, i.e., GNNs. In this paper, we fill the gap by proposing the
first model stealing attacks against inductive GNNs. We systematically define
the threat model and propose six attacks based on the adversary's background
knowledge and the responses of the target models. Our evaluation on six
benchmark datasets shows that the proposed model stealing attacks against GNNs
achieve promising performance.
- Abstract(参考訳): 現実世界のデータの多くはグラフの形で収集される。
新しい機械学習(ML)モデルのファミリーであるグラフニューラルネットワーク(GNN)は、グラフデータを完全に活用して強力なアプリケーションを構築するために提案されている。
特に、目に見えないデータに一般化できるインダクティブGNNは、この方向に主流になる。
機械学習モデルは様々なタスクで大きな可能性を示しており、多くの現実世界のシナリオでデプロイされている。
優れたモデルをトレーニングするには、大量のデータと計算資源が必要であるため、貴重な知的財産権が得られる。
これまでの研究によると、MLモデルはターゲットモデルの機能を盗むために盗む攻撃をモデル化する傾向がある。
しかし、その多くは画像やテキストで訓練されたモデルに焦点を当てている。
一方、グラフデータ、すなわちGNNで訓練されたモデルには、ほとんど注意が払われていない。
本稿では,誘導型GNNに対する最初の盗難攻撃を提案し,そのギャップを埋める。
我々は,脅威モデルを体系的に定義し,敵の背景知識とターゲットモデルの応答に基づいて6つの攻撃を提案する。
6つのベンチマークデータセットに対する評価から,提案モデルがGNNに対する攻撃を盗むことにより,有望な性能が得られることが示された。
関連論文リスト
- Stealing Training Graphs from Graph Neural Networks [54.52392250297907]
グラフニューラルネットワーク(GNN)は、様々なタスクにおけるグラフのモデリングにおいて有望な結果を示している。
ニューラルネットワークがトレーニングサンプルを記憶できるため、GNNのモデルパラメータはプライベートトレーニングデータをリークするリスクが高い。
訓練されたGNNからグラフを盗むという新しい問題について検討する。
論文 参考訳(メタデータ) (2024-11-17T23:15:36Z) - Can Graph Neural Networks Expose Training Data Properties? An Efficient Risk Assessment Approach [37.84933964582224]
本研究では,共有モデルから機密性情報漏洩のリスクを特定するため,グラフ特性推定攻撃について検討する。
本手法では,攻撃に対して十分な数の近似影モデルを生成すると同時に,グラフ上の少数のモデルセットを訓練することしか必要としない。
論文 参考訳(メタデータ) (2024-11-06T04:44:51Z) - Efficient Model-Stealing Attacks Against Inductive Graph Neural Networks [4.552065156611815]
グラフニューラルネットワーク(GNN)は、グラフ構造で組織された実世界のデータを処理するための強力なツールとして認識されている。
事前に定義されたグラフ構造に依存しないグラフ構造化データの処理を可能にするインダクティブGNNは、広範囲のアプリケーションにおいてますます重要になりつつある。
本稿では,誘導型GNNに対して教師なしモデルステアリング攻撃を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-20T18:01:15Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Data-Free Adversarial Knowledge Distillation for Graph Neural Networks [62.71646916191515]
グラフ構造化データ(DFAD-GNN)を用いたデータフリー逆知識蒸留のための第1のエンドツーエンドフレームワークを提案する。
具体的には、DFAD-GNNは、教師モデルと学生モデルとを2つの識別器とみなし、教師モデルから学生モデルに知識を抽出するために学習グラフを導出するジェネレータという、主に3つの成分からなる生成的対向ネットワークを採用している。
我々のDFAD-GNNは、グラフ分類タスクにおける最先端のデータフリーベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2022-05-08T08:19:40Z) - Membership Inference Attack on Graph Neural Networks [1.6457778420360536]
我々は、トレーニングされたGNNモデルが、トレーニングされたEmphmemberノードに関する情報を漏洩させる方法について焦点を当てる。
訓練されたモデルの後部を利用した最も単純な攻撃モデルを選択する。
意外で心配な事実は、ターゲットモデルがうまく一般化しても攻撃が成功することである。
論文 参考訳(メタデータ) (2021-01-17T02:12:35Z) - Model Extraction Attacks on Graph Neural Networks: Taxonomy and
Realization [40.37373934201329]
GNNモデルに対するモデル抽出攻撃について検討・開発する。
まず、GNNモデル抽出の文脈で脅威モデリングを定式化する。
次に、攻撃を実装するために、各脅威においてアクセス可能な知識を利用する詳細な方法を示す。
論文 参考訳(メタデータ) (2020-10-24T03:09:37Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Adversarial Attack on Hierarchical Graph Pooling Neural Networks [14.72310134429243]
グラフ分類タスクにおけるグラフニューラルネットワーク(GNN)の堅牢性について検討する。
本稿では,グラフ分類タスクに対する逆攻撃フレームワークを提案する。
我々の知る限りでは、これは階層的なGNNベースのグラフ分類モデルに対する敵攻撃に関する最初の研究である。
論文 参考訳(メタデータ) (2020-05-23T16:19:47Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。