論文の概要: Inference Attacks Against Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2110.02631v1
- Date: Wed, 6 Oct 2021 10:08:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:33:06.630892
- Title: Inference Attacks Against Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークに対する推論攻撃
- Authors: Zhikun Zhang and Min Chen and Michael Backes and Yun Shen and Yang
Zhang
- Abstract要約: グラフの埋め込みは、グラフ分析問題を解決する強力なツールである。
グラフ埋め込みの共有は興味深いが、関連するプライバシーリスクは未調査だ。
3つの推論攻撃を組み込むことで,グラフ埋め込みの情報漏洩を系統的に調査する。
- 参考スコア(独自算出の注目度): 33.19531086886817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph is an important data representation ubiquitously existing in the real
world. However, analyzing the graph data is computationally difficult due to
its non-Euclidean nature. Graph embedding is a powerful tool to solve the graph
analytics problem by transforming the graph data into low-dimensional vectors.
These vectors could also be shared with third parties to gain additional
insights of what is behind the data. While sharing graph embedding is
intriguing, the associated privacy risks are unexplored. In this paper, we
systematically investigate the information leakage of the graph embedding by
mounting three inference attacks. First, we can successfully infer basic graph
properties, such as the number of nodes, the number of edges, and graph
density, of the target graph with up to 0.89 accuracy. Second, given a subgraph
of interest and the graph embedding, we can determine with high confidence that
whether the subgraph is contained in the target graph. For instance, we achieve
0.98 attack AUC on the DD dataset. Third, we propose a novel graph
reconstruction attack that can reconstruct a graph that has similar graph
structural statistics to the target graph. We further propose an effective
defense mechanism based on graph embedding perturbation to mitigate the
inference attacks without noticeable performance degradation for graph
classification tasks. Our code is available at
https://github.com/Zhangzhk0819/GNN-Embedding-Leaks.
- Abstract(参考訳): グラフは、現実世界に存在する重要なデータ表現である。
しかし,グラフデータの解析は非ユークリッド的な性質から計算が困難である。
グラフ埋め込みはグラフデータを低次元ベクトルに変換することによってグラフ解析問題を解決する強力なツールである。
これらのベクトルはサードパーティと共有して、データの背後にあるものに関するさらなる洞察を得ることもできる。
グラフ埋め込みの共有は興味深いが、関連するプライバシーリスクは未調査だ。
本稿では,3つの推論攻撃を組み込むことで,グラフ埋め込みの情報漏洩を体系的に検討する。
まず,対象グラフのノード数,エッジ数,グラフ密度などの基本的なグラフ特性を最大 0.89 の精度で推定することに成功した。
第二に、興味グラフとグラフの埋め込みが与えられた場合、そのグラフが対象グラフに含まれるかどうかを高い信頼で決定できる。
例えば、DDデータセット上で0.98の攻撃AUCを達成する。
第3に,ターゲットグラフと類似のグラフ構造統計量を持つグラフを再構成できる新しいグラフ再構成攻撃を提案する。
さらに,グラフ分類タスクの性能劣化を伴わない推論攻撃を軽減するために,グラフ埋め込み摂動に基づく効果的な防御機構を提案する。
私たちのコードはhttps://github.com/Zhangzhk0819/GNN-Embedding-Leaksで公開されています。
関連論文リスト
- Unlearnable Graph: Protecting Graphs from Unauthorized Exploitation [68.59161853439339]
学習不可能なグラフの例を生成するための新しい手法を提案する。
Error-Minimizing Structure Poisoning (EMinS) モジュールを使ってグラフに妄想的だが知覚不可能なノイズを注入することにより、グラフを説明不能にすることができる。
論文 参考訳(メタデータ) (2023-03-05T03:30:22Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Finding MNEMON: Reviving Memories of Node Embeddings [39.206574462957136]
元のグラフのノード埋め込み行列にのみアクセスすることで、敵が適切な精度でエッジを復元できることが示される。
広範囲な実験を通してグラフ回復攻撃の有効性と適用性を示す。
論文 参考訳(メタデータ) (2022-04-14T13:44:26Z) - Joint 3D Human Shape Recovery from A Single Imag with Bilayer-Graph [35.375489948345404]
画像から3次元の人物形状とポーズを推定するための2次元グラフ手法を提案する。
密なグラフから得られた粗いグラフを用いて、人間の3次元のポーズを推定し、密なグラフを使って3次元の形状を推定する。
エンド・ツー・エンドのモデルをトレーニングし、いくつかの評価データセットに対して最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-16T05:04:02Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Graphfool: Targeted Label Adversarial Attack on Graph Embedding [11.866894644607894]
Graphfoolは、グラフ埋め込みに対する新しいターゲットラベルの敵対的攻撃である。
境界情報と勾配情報を分類することで、逆グラフを生成してグラフ埋め込みを攻撃できる。
実世界のグラフネットワークの実験は、Graphfoolが最先端技術よりも優れたパフォーマンスを得られることを示した。
論文 参考訳(メタデータ) (2021-02-24T13:45:38Z) - Graph Coarsening with Neural Networks [8.407217618651536]
本稿では、粗いアルゴリズムの品質を測定するためのフレームワークを提案し、目標に応じて、粗いグラフ上のLaplace演算子を慎重に選択する必要があることを示す。
粗いグラフに対する現在のエッジウェイト選択が準最適である可能性が示唆され、グラフニューラルネットワークを用いて重み付けマップをパラメータ化し、教師なし方法で粗い品質を改善するよう訓練する。
論文 参考訳(メタデータ) (2021-02-02T06:50:07Z) - Graph Information Bottleneck for Subgraph Recognition [103.37499715761784]
本稿では,深層グラフ学習における部分グラフ認識問題に対するグラフ情報ブートネック(GIB)の枠組みを提案する。
この枠組みの下では、最大情報でありながら圧縮的な部分グラフ(IB-subgraph)を認識できる。
IB-サブグラフの特性を3つのアプリケーションシナリオで評価する。
論文 参考訳(メタデータ) (2020-10-12T09:32:20Z) - Multilevel Graph Matching Networks for Deep Graph Similarity Learning [79.3213351477689]
グラフ構造オブジェクト間のグラフ類似性を計算するためのマルチレベルグラフマッチングネットワーク(MGMN)フレームワークを提案する。
標準ベンチマークデータセットの欠如を補うため、グラフグラフ分類とグラフグラフ回帰タスクの両方のためのデータセットセットを作成し、収集した。
総合的な実験により、MGMNはグラフグラフ分類とグラフグラフ回帰タスクの両方において、最先端のベースラインモデルより一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-07-08T19:48:19Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。