論文の概要: Membership Inference Attack on Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2101.06570v2
- Date: Mon, 22 Mar 2021 21:12:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 02:55:58.858350
- Title: Membership Inference Attack on Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるメンバシップ推論攻撃
- Authors: Iyiola E. Olatunji, Wolfgang Nejdl and Megha Khosla
- Abstract要約: 我々は、トレーニングされたGNNモデルが、トレーニングされたEmphmemberノードに関する情報を漏洩させる方法について焦点を当てる。
訓練されたモデルの後部を利用した最も単純な攻撃モデルを選択する。
意外で心配な事実は、ターゲットモデルがうまく一般化しても攻撃が成功することである。
- 参考スコア(独自算出の注目度): 1.6457778420360536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs), which generalize traditional deep neural
networks or graph data, have achieved state-of-the-art performance on several
graph analytical tasks like node classification, link prediction, or graph
classification. We focus on how trained GNN models could leak information about
the \emph{member} nodes that they were trained on. We introduce two realistic
inductive settings for carrying out a membership inference (MI) attack on GNNs.
While choosing the simplest possible attack model that utilizes the posteriors
of the trained model, we thoroughly analyze the properties of GNNs which
dictate the differences in their robustness towards MI attack. The surprising
and worrying fact is that the attack is successful even if the target model
generalizes well. While in traditional machine learning models, overfitting is
considered the main cause of such leakage, we show that in GNNs the additional
structural information is the major contributing factor. We support our
findings by extensive experiments on four representative GNN models. On a
positive note, we identify properties of certain models which make them less
vulnerable to MI attacks than others.
- Abstract(参考訳): 従来のディープニューラルネットワークやグラフデータを一般化するグラフニューラルネットワーク(GNN)は、ノード分類、リンク予測、グラフ分類など、いくつかのグラフ分析タスクで最先端のパフォーマンスを達成した。
我々は、トレーニングされたGNNモデルがトレーニングされた\emph{member}ノードに関する情報を漏洩させる方法について焦点を当てた。
GNNに対してMI攻撃を行うための2つの現実的な帰納的設定を導入する。
トレーニングモデルの後部モデルを用いた最も単純な攻撃モデルを選択する一方で、MI攻撃に対するロバスト性の違いを規定するGNNの特性を徹底的に分析する。
意外で心配な事実は、ターゲットモデルがうまく一般化しても攻撃が成功することである。
従来の機械学習モデルでは、オーバーフィッティングが漏洩の主な原因と考えられているが、gnnでは構造情報の追加が大きな要因であることを示している。
4つの代表的GNNモデルに対する広範な実験により,本研究の成果を裏付ける。
ポジティブな点として、MI攻撃に対して他のモデルよりも脆弱なモデルの特徴を特定する。
関連論文リスト
- Stealing Training Graphs from Graph Neural Networks [54.52392250297907]
グラフニューラルネットワーク(GNN)は、様々なタスクにおけるグラフのモデリングにおいて有望な結果を示している。
ニューラルネットワークがトレーニングサンプルを記憶できるため、GNNのモデルパラメータはプライベートトレーニングデータをリークするリスクが高い。
訓練されたGNNからグラフを盗むという新しい問題について検討する。
論文 参考訳(メタデータ) (2024-11-17T23:15:36Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Model Stealing Attacks Against Inductive Graph Neural Networks [15.334336995523302]
グラフニューラルネットワーク(GNN)は、グラフデータを完全に活用して強力なアプリケーションを構築するために提案されている。
これまでの研究によると、機械学習モデルは盗難攻撃をモデル化する傾向がある。
本稿では,誘導型GNNに対する攻撃を盗む最初のモデルを提案する。
論文 参考訳(メタデータ) (2021-12-15T18:29:22Z) - Adapting Membership Inference Attacks to GNN for Graph Classification:
Approaches and Implications [32.631077336656936]
グラフニューラルネットワーク(GNN)に対するメンバーシップ推論攻撃(MIA)は、深刻なプライバシー上の懸念を引き起こす。
グラフレベル分類のためのGNNに対するMIAの第一歩を踏み出します。
我々は、異なる敵の能力から、トレーニングベースの攻撃としきい値ベースの攻撃という2つのタイプの攻撃を提示し、実装する。
論文 参考訳(メタデータ) (2021-10-17T08:41:21Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Node-Level Membership Inference Attacks Against Graph Neural Networks [29.442045622210532]
新しい機械学習(ML)モデル、すなわちグラフニューラルネットワーク(GNN)が導入された。
これまでの研究では、機械学習モデルはプライバシー攻撃に弱いことが示されている。
本稿では,GNNに対するノードレベルメンバシップ推論攻撃の包括的解析を行う。
論文 参考訳(メタデータ) (2021-02-10T13:51:54Z) - Adversarial Attack on Hierarchical Graph Pooling Neural Networks [14.72310134429243]
グラフ分類タスクにおけるグラフニューラルネットワーク(GNN)の堅牢性について検討する。
本稿では,グラフ分類タスクに対する逆攻撃フレームワークを提案する。
我々の知る限りでは、これは階層的なGNNベースのグラフ分類モデルに対する敵攻撃に関する最初の研究である。
論文 参考訳(メタデータ) (2020-05-23T16:19:47Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。