論文の概要: Adapting Membership Inference Attacks to GNN for Graph Classification:
Approaches and Implications
- arxiv url: http://arxiv.org/abs/2110.08760v1
- Date: Sun, 17 Oct 2021 08:41:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 21:02:04.758053
- Title: Adapting Membership Inference Attacks to GNN for Graph Classification:
Approaches and Implications
- Title(参考訳): グラフ分類のためのGNNへのメンバーシップ推論攻撃の適応:アプローチと意味
- Authors: Bang Wu and Xiangwen Yang and Shirui Pan and Xingliang Yuan
- Abstract要約: グラフニューラルネットワーク(GNN)に対するメンバーシップ推論攻撃(MIA)は、深刻なプライバシー上の懸念を引き起こす。
グラフレベル分類のためのGNNに対するMIAの第一歩を踏み出します。
我々は、異なる敵の能力から、トレーニングベースの攻撃としきい値ベースの攻撃という2つのタイプの攻撃を提示し、実装する。
- 参考スコア(独自算出の注目度): 32.631077336656936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) are widely adopted to analyse non-Euclidean
data, such as chemical networks, brain networks, and social networks, modelling
complex relationships and interdependency between objects. Recently, Membership
Inference Attack (MIA) against GNNs raises severe privacy concerns, where
training data can be leaked from trained GNN models. However, prior studies
focus on inferring the membership of only the components in a graph, e.g., an
individual node or edge. How to infer the membership of an entire graph record
is yet to be explored.
In this paper, we take the first step in MIA against GNNs for graph-level
classification. Our objective is to infer whether a graph sample has been used
for training a GNN model. We present and implement two types of attacks, i.e.,
training-based attacks and threshold-based attacks from different adversarial
capabilities. We perform comprehensive experiments to evaluate our attacks in
seven real-world datasets using five representative GNN models. Both our
attacks are shown effective and can achieve high performance, i.e., reaching
over 0.7 attack F1 scores in most cases. Furthermore, we analyse the
implications behind the MIA against GNNs. Our findings confirm that GNNs can be
even more vulnerable to MIA than the models with non-graph structures. And
unlike the node-level classifier, MIAs on graph-level classification tasks are
more co-related with the overfitting level of GNNs rather than the statistic
property of their training graphs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、化学ネットワーク、脳ネットワーク、ソーシャルネットワークなどの非ユークリッドデータを分析し、複雑な関係とオブジェクト間の相互依存をモデル化するために広く採用されている。
近年、GNNに対するメンバーシップ推論攻撃(MIA)は、トレーニングデータをトレーニングされたGNNモデルから漏洩させるという深刻なプライバシー上の懸念を提起している。
しかし、以前の研究はグラフ内のコンポーネント、例えば個々のノードやエッジのみのメンバシップを推測することに焦点を当てている。
グラフレコード全体のメンバシップを推測する方法はまだ検討されていない。
本稿では、グラフレベル分類のためのGNNに対するMIAの最初のステップについて述べる。
本研究の目的は,グラフサンプルがGNNモデルのトレーニングに使用されたかどうかを推定することである。
我々は,訓練に基づく攻撃と,異なる敵能力によるしきい値に基づく攻撃の2種類の攻撃を提示・実装する。
我々は,5つの代表的GNNモデルを用いて,実世界の7つのデータセットにおける攻撃を評価する包括的実験を行った。
どちらの攻撃も効果的であり、多くの場合、0.7アタックf1スコアを超える高いパフォーマンスを達成できる。
さらに,MIAのGNNに対する影響を分析した。
その結果,GNNは非グラフ構造を持つモデルよりもMIAに対して脆弱であることが確認された。
ノードレベルの分類器とは異なり、グラフレベルの分類タスクのMIAは、トレーニンググラフの統計的性質よりも、GNNのオーバーフィッティングレベルとより密接に関連している。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Label-Only Membership Inference Attack against Node-Level Graph Neural
Networks [30.137860266059004]
グラフニューラルネットワーク(GNN)は、メンバーシップ推論攻撃(MIA)に対して脆弱である
本稿では,GNNのフレキシブル予測機構を利用して,ノード分類のためのラベルのみのMIAを提案する。
攻撃手法は,ほとんどのデータセットやGNNモデルに対して,AUC(Area Under the Curve)の精度,精度,面積の約60%を達成している。
論文 参考訳(メタデータ) (2022-07-27T19:46:26Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Membership Inference Attack on Graph Neural Networks [1.6457778420360536]
我々は、トレーニングされたGNNモデルが、トレーニングされたEmphmemberノードに関する情報を漏洩させる方法について焦点を当てる。
訓練されたモデルの後部を利用した最も単純な攻撃モデルを選択する。
意外で心配な事実は、ターゲットモデルがうまく一般化しても攻撃が成功することである。
論文 参考訳(メタデータ) (2021-01-17T02:12:35Z) - Efficient, Direct, and Restricted Black-Box Graph Evasion Attacks to
Any-Layer Graph Neural Networks via Influence Function [62.89388227354517]
グラフデータから学習する主流手法であるグラフニューラルネットワーク(GNN)は、グラフ回避攻撃に対して脆弱である。
既存の作業には、1)2層GNNを直接攻撃すること、2)非効率であること、3)GNNモデルパラメータの完全あるいは一部を知る必要があること、の2つの欠点の少なくとも1つがある。
本報告では,エフェクトベースの非効率,直接的,制限されたブラックボックス回避攻撃を,幻影層GNNに対して提案する。
論文 参考訳(メタデータ) (2020-09-01T03:24:51Z) - Adversarial Attack on Hierarchical Graph Pooling Neural Networks [14.72310134429243]
グラフ分類タスクにおけるグラフニューラルネットワーク(GNN)の堅牢性について検討する。
本稿では,グラフ分類タスクに対する逆攻撃フレームワークを提案する。
我々の知る限りでは、これは階層的なGNNベースのグラフ分類モデルに対する敵攻撃に関する最初の研究である。
論文 参考訳(メタデータ) (2020-05-23T16:19:47Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。