論文の概要: Model Extraction Attacks on Graph Neural Networks: Taxonomy and
Realization
- arxiv url: http://arxiv.org/abs/2010.12751v2
- Date: Tue, 30 Nov 2021 20:08:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 13:38:54.124844
- Title: Model Extraction Attacks on Graph Neural Networks: Taxonomy and
Realization
- Title(参考訳): グラフニューラルネットワークにおけるモデル抽出攻撃:分類と実現
- Authors: Bang Wu, Xiangwen Yang, Shirui Pan, Xingliang Yuan
- Abstract要約: GNNモデルに対するモデル抽出攻撃について検討・開発する。
まず、GNNモデル抽出の文脈で脅威モデリングを定式化する。
次に、攻撃を実装するために、各脅威においてアクセス可能な知識を利用する詳細な方法を示す。
- 参考スコア(独自算出の注目度): 40.37373934201329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models are shown to face a severe threat from Model
Extraction Attacks, where a well-trained private model owned by a service
provider can be stolen by an attacker pretending as a client. Unfortunately,
prior works focus on the models trained over the Euclidean space, e.g., images
and texts, while how to extract a GNN model that contains a graph structure and
node features is yet to be explored. In this paper, for the first time, we
comprehensively investigate and develop model extraction attacks against GNN
models. We first systematically formalise the threat modelling in the context
of GNN model extraction and classify the adversarial threats into seven
categories by considering different background knowledge of the attacker, e.g.,
attributes and/or neighbour connections of the nodes obtained by the attacker.
Then we present detailed methods which utilise the accessible knowledge in each
threat to implement the attacks. By evaluating over three real-world datasets,
our attacks are shown to extract duplicated models effectively, i.e., 84% - 89%
of the inputs in the target domain have the same output predictions as the
victim model.
- Abstract(参考訳): マシンラーニングモデルは、クライアントのふりをした攻撃者によって、サービスプロバイダが所有する十分に訓練されたプライベートモデルが盗まれる、モデル抽出攻撃による深刻な脅威に直面している。
残念ながら、以前の研究はユークリッド空間上で訓練されたモデル、例えば画像やテキストに焦点を当て、グラフ構造とノード機能を含むGNNモデルを抽出する方法はまだ検討されていない。
本稿では,まず,GNNモデルに対するモデル抽出攻撃を包括的に研究・開発する。
まず,gnnモデル抽出の文脈において脅威モデリングを体系的に定式化し,攻撃者の背景知識,例えば攻撃者が獲得したノードの属性および/又は隣接接続を考慮して,敵の脅威を7つのカテゴリに分類する。
次に,各脅威に対してアクセス可能な知識を活用し,攻撃を実装するための詳細な手法を提案する。
実世界の3つのデータセットを評価することで、我々の攻撃は複製されたモデルを効果的に抽出することを示し、すなわち、ターゲット領域の入力の84%から89%が被害者モデルと同じ出力予測を持つ。
関連論文リスト
- Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - OMG-ATTACK: Self-Supervised On-Manifold Generation of Transferable
Evasion Attacks [17.584752814352502]
Evasion Attacks (EA) は、入力データを歪ませることで、トレーニングされたニューラルネットワークの堅牢性をテストするために使用される。
本稿では, 自己教師型, 計算的経済的な手法を用いて, 対逆例を生成する手法を提案する。
我々の実験は、この手法が様々なモデル、目に見えないデータカテゴリ、さらには防御されたモデルで有効であることを一貫して実証している。
論文 参考訳(メタデータ) (2023-10-05T17:34:47Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Property inference attack; Graph neural networks; Privacy attacks and
defense; Trustworthy machine learning [5.598383724295497]
機械学習モデルは、トレーニングデータに関する情報を漏洩するプライバシー攻撃に弱い。
本研究では,プロパティ推論攻撃(PIA)と呼ばれる,特定の種類のプライバシ攻撃に焦点を当てる。
我々は、グラフニューラルネットワーク(GNN)を対象モデルとし、トレーニンググラフ内の特定のノードとリンクの分布を目標特性とみなす。
論文 参考訳(メタデータ) (2022-09-02T14:59:37Z) - Careful What You Wish For: on the Extraction of Adversarially Trained
Models [2.707154152696381]
最近の機械学習(ML)モデルに対する攻撃は、いくつかのセキュリティとプライバシの脅威を引き起こす。
本稿では,敵の学習したモデルに対する抽出攻撃を評価する枠組みを提案する。
本研究では, 自然学習環境下で得られたモデルよりも, 敵の訓練を受けたモデルの方が抽出攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2022-07-21T16:04:37Z) - Model Stealing Attacks Against Inductive Graph Neural Networks [15.334336995523302]
グラフニューラルネットワーク(GNN)は、グラフデータを完全に活用して強力なアプリケーションを構築するために提案されている。
これまでの研究によると、機械学習モデルは盗難攻撃をモデル化する傾向がある。
本稿では,誘導型GNNに対する攻撃を盗む最初のモデルを提案する。
論文 参考訳(メタデータ) (2021-12-15T18:29:22Z) - Model Extraction and Defenses on Generative Adversarial Networks [0.9442139459221782]
生成敵ネットワーク(GAN)に対するモデル抽出攻撃の実現可能性について検討する。
本稿では,GANモデルの実用性とセキュリティのトレードオフを考慮した効果的な防衛手法を提案する。
論文 参考訳(メタデータ) (2021-01-06T14:36:21Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。