論文の概要: GraphMI: Extracting Private Graph Data from Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2106.02820v1
- Date: Sat, 5 Jun 2021 07:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 18:40:34.308383
- Title: GraphMI: Extracting Private Graph Data from Graph Neural Networks
- Title(参考訳): GraphMI: グラフニューラルネットワークからプライベートグラフデータを抽出する
- Authors: Zaixi Zhang, Qi Liu, Zhenya Huang, Hao Wang, Chengqiang Lu, Chuanren
Liu, Enhong Chen
- Abstract要約: GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
- 参考スコア(独自算出の注目度): 59.05178231559796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning becomes more widely used for critical applications, the
need to study its implications in privacy turns to be urgent. Given access to
the target model and auxiliary information, the model inversion attack aims to
infer sensitive features of the training dataset, which leads to great privacy
concerns. Despite its success in grid-like domains, directly applying model
inversion techniques on non-grid domains such as graph achieves poor attack
performance due to the difficulty to fully exploit the intrinsic properties of
graphs and attributes of nodes used in Graph Neural Networks (GNN). To bridge
this gap, we present \textbf{Graph} \textbf{M}odel \textbf{I}nversion attack
(GraphMI), which aims to extract private graph data of the training graph by
inverting GNN, one of the state-of-the-art graph analysis tools. Specifically,
we firstly propose a projected gradient module to tackle the discreteness of
graph edges while preserving the sparsity and smoothness of graph features.
Then we design a graph auto-encoder module to efficiently exploit graph
topology, node attributes, and target model parameters for edge inference. With
the proposed methods, we study the connection between model inversion risk and
edge influence and show that edges with greater influence are more likely to be
recovered. Extensive experiments over several public datasets demonstrate the
effectiveness of our method. We also show that differential privacy in its
canonical form can hardly defend our attack while preserving decent utility.
- Abstract(参考訳): 重要なアプリケーションで機械学習がより広く使われるようになるにつれて、プライバシにおけるその影響を研究する必要性が急務になる。
ターゲットモデルと補助情報へのアクセスを考えると、モデル反転攻撃はトレーニングデータセットの繊細な特徴を推測することを目的としている。
グリッドライクなドメインでの成功にもかかわらず、グラフのような非グリッドドメインに直接モデル反転技術を適用すると、グラフの固有特性やグラフニューラルネットワーク(gnn)で使用されるノードの属性を完全に活用できないため、攻撃性能が低下する。
このギャップを埋めるために,最先端のグラフ解析ツールであるgnnを反転させることで,トレーニンググラフのプライベートグラフデータを抽出することを目的とした,graphmi( \textbf{graph} \textbf{m}odel \textbf{i}nversion attack)を提案する。
具体的には,まず,グラフ特徴のスパース性と滑らかさを維持しつつ,グラフエッジの離散性に取り組むための投影勾配モジュールを提案する。
次に,エッジ推論にグラフトポロジー,ノード属性,ターゲットモデルパラメータを効率的に利用するグラフ自動エンコーダモジュールを設計する。
提案手法では,モデルインバージョンリスクとエッジ影響の関係を調査し,より影響の大きいエッジが回収される可能性がより高いことを示す。
複数の公開データセットに対する大規模な実験により,本手法の有効性が示された。
また、その正準形式のディファレンシャルプライバシは、正当なユーティリティを維持しながら、攻撃を防御できないことも示しています。
関連論文リスト
- GALA: Graph Diffusion-based Alignment with Jigsaw for Source-free Domain Adaptation [13.317620250521124]
ソースコードのないドメイン適応は、現実世界で多くのアプリケーションを含むため、重要な機械学習トピックである。
最近のグラフニューラルネットワーク(GNN)アプローチは、ドメインシフトとラベルの不足により、パフォーマンスが著しく低下する可能性がある。
本稿では, ソースフリーなグラフドメイン適応に適した Jigsaw (GALA) を用いたグラフ拡散に基づくアライメント法を提案する。
論文 参考訳(メタデータ) (2024-10-22T01:32:46Z) - OpenGraph: Towards Open Graph Foundation Models [20.401374302429627]
グラフニューラルネットワーク(GNN)は、構造情報を符号化するための有望な技術として登場した。
主な課題は、異なる性質を持つグラフデータを一般化することの難しさである。
この課題に対処するために,OpenGraphと呼ばれる新しいグラフ基盤モデルを提案する。
論文 参考訳(メタデータ) (2024-03-02T08:05:03Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - SoftEdge: Regularizing Graph Classification with Random Soft Edges [18.165965620873745]
グラフデータ拡張はグラフニューラルネットワーク(GNN)の正規化において重要な役割を果たす
単純なエッジとノード操作は、同じ構造を持つグラフや、GNNをメッセージパッシングするための区別できない構造を生成することができる。
我々は,任意のグラフのエッジの一部にランダムな重みを割り当てて,そのグラフ上の動的近傍を構築するSoftEdgeを提案する。
論文 参考訳(メタデータ) (2022-04-21T20:12:36Z) - Finding MNEMON: Reviving Memories of Node Embeddings [39.206574462957136]
元のグラフのノード埋め込み行列にのみアクセスすることで、敵が適切な精度でエッジを復元できることが示される。
広範囲な実験を通してグラフ回復攻撃の有効性と適用性を示す。
論文 参考訳(メタデータ) (2022-04-14T13:44:26Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。