論文の概要: Model Stealing Attacks Against Inductive Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2112.08331v1
- Date: Wed, 15 Dec 2021 18:29:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 17:57:53.264389
- Title: Model Stealing Attacks Against Inductive Graph Neural Networks
- Title(参考訳): 誘導型グラフニューラルネットワークに対するモデル盗み攻撃
- Authors: Yun Shen, Xinlei He, Yufei Han, Yang Zhang
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフデータを完全に活用して強力なアプリケーションを構築するために提案されている。
これまでの研究によると、機械学習モデルは盗難攻撃をモデル化する傾向がある。
本稿では,誘導型GNNに対する攻撃を盗む最初のモデルを提案する。
- 参考スコア(独自算出の注目度): 15.334336995523302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many real-world data come in the form of graphs. Graph neural networks
(GNNs), a new family of machine learning (ML) models, have been proposed to
fully leverage graph data to build powerful applications. In particular, the
inductive GNNs, which can generalize to unseen data, become mainstream in this
direction. Machine learning models have shown great potential in various tasks
and have been deployed in many real-world scenarios. To train a good model, a
large amount of data as well as computational resources are needed, leading to
valuable intellectual property. Previous research has shown that ML models are
prone to model stealing attacks, which aim to steal the functionality of the
target models. However, most of them focus on the models trained with images
and texts. On the other hand, little attention has been paid to models trained
with graph data, i.e., GNNs. In this paper, we fill the gap by proposing the
first model stealing attacks against inductive GNNs. We systematically define
the threat model and propose six attacks based on the adversary's background
knowledge and the responses of the target models. Our evaluation on six
benchmark datasets shows that the proposed model stealing attacks against GNNs
achieve promising performance.
- Abstract(参考訳): 現実世界のデータの多くはグラフの形で収集される。
新しい機械学習(ML)モデルのファミリーであるグラフニューラルネットワーク(GNN)は、グラフデータを完全に活用して強力なアプリケーションを構築するために提案されている。
特に、目に見えないデータに一般化できるインダクティブGNNは、この方向に主流になる。
機械学習モデルは様々なタスクで大きな可能性を示しており、多くの現実世界のシナリオでデプロイされている。
優れたモデルをトレーニングするには、大量のデータと計算資源が必要であるため、貴重な知的財産権が得られる。
これまでの研究によると、MLモデルはターゲットモデルの機能を盗むために盗む攻撃をモデル化する傾向がある。
しかし、その多くは画像やテキストで訓練されたモデルに焦点を当てている。
一方、グラフデータ、すなわちGNNで訓練されたモデルには、ほとんど注意が払われていない。
本稿では,誘導型GNNに対する最初の盗難攻撃を提案し,そのギャップを埋める。
我々は,脅威モデルを体系的に定義し,敵の背景知識とターゲットモデルの応答に基づいて6つの攻撃を提案する。
6つのベンチマークデータセットに対する評価から,提案モデルがGNNに対する攻撃を盗むことにより,有望な性能が得られることが示された。
関連論文リスト
- SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Property inference attack; Graph neural networks; Privacy attacks and
defense; Trustworthy machine learning [5.598383724295497]
機械学習モデルは、トレーニングデータに関する情報を漏洩するプライバシー攻撃に弱い。
本研究では,プロパティ推論攻撃(PIA)と呼ばれる,特定の種類のプライバシ攻撃に焦点を当てる。
我々は、グラフニューラルネットワーク(GNN)を対象モデルとし、トレーニンググラフ内の特定のノードとリンクの分布を目標特性とみなす。
論文 参考訳(メタデータ) (2022-09-02T14:59:37Z) - Data-Free Adversarial Knowledge Distillation for Graph Neural Networks [62.71646916191515]
グラフ構造化データ(DFAD-GNN)を用いたデータフリー逆知識蒸留のための第1のエンドツーエンドフレームワークを提案する。
具体的には、DFAD-GNNは、教師モデルと学生モデルとを2つの識別器とみなし、教師モデルから学生モデルに知識を抽出するために学習グラフを導出するジェネレータという、主に3つの成分からなる生成的対向ネットワークを採用している。
我々のDFAD-GNNは、グラフ分類タスクにおける最先端のデータフリーベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2022-05-08T08:19:40Z) - Membership Inference Attack on Graph Neural Networks [1.6457778420360536]
我々は、トレーニングされたGNNモデルが、トレーニングされたEmphmemberノードに関する情報を漏洩させる方法について焦点を当てる。
訓練されたモデルの後部を利用した最も単純な攻撃モデルを選択する。
意外で心配な事実は、ターゲットモデルがうまく一般化しても攻撃が成功することである。
論文 参考訳(メタデータ) (2021-01-17T02:12:35Z) - Model Extraction Attacks on Graph Neural Networks: Taxonomy and
Realization [40.37373934201329]
GNNモデルに対するモデル抽出攻撃について検討・開発する。
まず、GNNモデル抽出の文脈で脅威モデリングを定式化する。
次に、攻撃を実装するために、各脅威においてアクセス可能な知識を利用する詳細な方法を示す。
論文 参考訳(メタデータ) (2020-10-24T03:09:37Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Adversarial Attack on Hierarchical Graph Pooling Neural Networks [14.72310134429243]
グラフ分類タスクにおけるグラフニューラルネットワーク(GNN)の堅牢性について検討する。
本稿では,グラフ分類タスクに対する逆攻撃フレームワークを提案する。
我々の知る限りでは、これは階層的なGNNベースのグラフ分類モデルに対する敵攻撃に関する最初の研究である。
論文 参考訳(メタデータ) (2020-05-23T16:19:47Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。