論文の概要: Model Inversion Attacks against Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2209.07807v2
- Date: Mon, 19 Sep 2022 00:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 12:52:11.276125
- Title: Model Inversion Attacks against Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークに対するモデル反転攻撃
- Authors: Zaixi Zhang, Qi Liu, Zhenya Huang, Hao Wang, Chee-Kong Lee, Enhong
Chen
- Abstract要約: グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
- 参考スコア(独自算出の注目度): 65.35955643325038
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Many data mining tasks rely on graphs to model relational structures among
individuals (nodes). Since relational data are often sensitive, there is an
urgent need to evaluate the privacy risks in graph data. One famous privacy
attack against data analysis models is the model inversion attack, which aims
to infer sensitive data in the training dataset and leads to great privacy
concerns. Despite its success in grid-like domains, directly applying model
inversion attacks on non-grid domains such as graph leads to poor attack
performance. This is mainly due to the failure to consider the unique
properties of graphs. To bridge this gap, we conduct a systematic study on
model inversion attacks against Graph Neural Networks (GNNs), one of the
state-of-the-art graph analysis tools in this paper. Firstly, in the white-box
setting where the attacker has full access to the target GNN model, we present
GraphMI to infer the private training graph data. Specifically, in GraphMI, a
projected gradient module is proposed to tackle the discreteness of graph edges
and preserve the sparsity and smoothness of graph features; a graph
auto-encoder module is used to efficiently exploit graph topology, node
attributes, and target model parameters for edge inference; a random sampling
module can finally sample discrete edges. Furthermore, in the hard-label
black-box setting where the attacker can only query the GNN API and receive the
classification results, we propose two methods based on gradient estimation and
reinforcement learning (RL-GraphMI). Our experimental results show that such
defenses are not sufficiently effective and call for more advanced defenses
against privacy attacks.
- Abstract(参考訳): 多くのデータマイニングタスクは、個人(ノード)間の関係構造をモデル化するためにグラフに依存する。
関係データはセンシティブであることが多いため、グラフデータのプライバシリスクを緊急に評価する必要がある。
データ分析モデルに対する有名なプライバシ攻撃のひとつに、トレーニングデータセットに機密データを推論することを目的としたモデル反転攻撃がある。
グリッドライクなドメインでの成功にもかかわらず、グラフのような非グリッドドメインに直接モデル反転攻撃を適用すると、攻撃性能は低下する。
これは主にグラフのユニークな性質を考慮できなかったためである。
このギャップを埋めるために,本稿では,最先端のグラフ解析ツールであるグラフニューラルネットワーク(gnns)に対するモデル反転攻撃を体系的に研究する。
まず、攻撃者がターゲットGNNモデルにフルアクセス可能なホワイトボックス設定において、プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
グラフの自動エンコーダモジュールは、グラフトポロジー、ノード属性、およびエッジ推論のターゲットモデルパラメータを効率的に活用するために使用され、ランダムサンプリングモジュールは最終的に離散エッジをサンプリングすることができる。
さらに,攻撃者がGNN APIに問い合わせて分類結果を受信できるハードラベルブラックボックス設定では,勾配推定と強化学習(RL-GraphMI)に基づく2つの手法を提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
関連論文リスト
- Efficient Model-Stealing Attacks Against Inductive Graph Neural Networks [4.552065156611815]
グラフニューラルネットワーク(GNN)は、グラフ構造で組織された実世界のデータを処理するための強力なツールとして認識されている。
事前に定義されたグラフ構造に依存しないグラフ構造化データの処理を可能にするインダクティブGNNは、広範囲のアプリケーションにおいてますます重要になりつつある。
本稿では,誘導型GNNに対して教師なしモデルステアリング攻撃を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-20T18:01:15Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - EDoG: Adversarial Edge Detection For Graph Neural Networks [17.969573886307906]
グラフニューラルネットワーク(GNN)は、バイオインフォマティクス、薬物設計、ソーシャルネットワークといった様々なタスクに広く応用されている。
近年の研究では、GNNは、微妙な摂動を加えることでノードやサブグラフの分類予測を誤認することを目的とした敵攻撃に弱いことが示されている。
本稿では,グラフ生成に基づく攻撃戦略の知識を必要とせず,汎用対向エッジ検出パイプラインEDoGを提案する。
論文 参考訳(メタデータ) (2022-12-27T20:42:36Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Adversarial Attack on Hierarchical Graph Pooling Neural Networks [14.72310134429243]
グラフ分類タスクにおけるグラフニューラルネットワーク(GNN)の堅牢性について検討する。
本稿では,グラフ分類タスクに対する逆攻撃フレームワークを提案する。
我々の知る限りでは、これは階層的なGNNベースのグラフ分類モデルに対する敵攻撃に関する最初の研究である。
論文 参考訳(メタデータ) (2020-05-23T16:19:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。