論文の概要: Edge Private Graph Neural Networks with Singular Value Perturbation
- arxiv url: http://arxiv.org/abs/2403.10995v1
- Date: Sat, 16 Mar 2024 18:44:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 20:36:44.482928
- Title: Edge Private Graph Neural Networks with Singular Value Perturbation
- Title(参考訳): 特異値摂動を持つエッジプライベートグラフニューラルネットワーク
- Authors: Tingting Tang, Yue Niu, Salman Avestimehr, Murali Annavaram,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データから表現を学ぶ上で重要な役割を果たしている。
本稿では,訓練されたGNNモデルから攻撃者がプライベートエッジ情報を復元するシナリオについて検討する。
我々は、エッジ上で強力なプライバシ保護を提供しながら、優れたモデルユーティリティを維持する、新しいプライバシ保護GNNトレーニングアルゴリズムであるEclipseを提案する。
- 参考スコア(独自算出の注目度): 16.93559308232692
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph neural networks (GNNs) play a key role in learning representations from graph-structured data and are demonstrated to be useful in many applications. However, the GNN training pipeline has been shown to be vulnerable to node feature leakage and edge extraction attacks. This paper investigates a scenario where an attacker aims to recover private edge information from a trained GNN model. Previous studies have employed differential privacy (DP) to add noise directly to the adjacency matrix or a compact graph representation. The added perturbations cause the graph structure to be substantially morphed, reducing the model utility. We propose a new privacy-preserving GNN training algorithm, Eclipse, that maintains good model utility while providing strong privacy protection on edges. Eclipse is based on two key observations. First, adjacency matrices in graph structures exhibit low-rank behavior. Thus, Eclipse trains GNNs with a low-rank format of the graph via singular values decomposition (SVD), rather than the original graph. Using the low-rank format, Eclipse preserves the primary graph topology and removes the remaining residual edges. Eclipse adds noise to the low-rank singular values instead of the entire graph, thereby preserving the graph privacy while still maintaining enough of the graph structure to maintain model utility. We theoretically show Eclipse provide formal DP guarantee on edges. Experiments on benchmark graph datasets show that Eclipse achieves significantly better privacy-utility tradeoff compared to existing privacy-preserving GNN training methods. In particular, under strong privacy constraints ($\epsilon$ < 4), Eclipse shows significant gains in the model utility by up to 46%. We further demonstrate that Eclipse also has better resilience against common edge attacks (e.g., LPA), lowering the attack AUC by up to 5% compared to other state-of-the-art baselines.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データから表現を学習する上で重要な役割を担い、多くのアプリケーションで有用であることが示されている。
しかし、GNNトレーニングパイプラインはノード機能のリークやエッジ抽出攻撃に対して脆弱であることが示されている。
本稿では,訓練されたGNNモデルから,攻撃者がプライベートエッジ情報を復元することを目的としたシナリオについて検討する。
従来の研究では、隣接行列やコンパクトグラフ表現に直接ノイズを加えるために差分プライバシー(DP)が用いられてきた。
追加の摂動はグラフ構造を実質的に変形させ、モデルの有用性を低下させる。
我々は、エッジ上で強力なプライバシ保護を提供しながら、優れたモデルユーティリティを維持する、新しいプライバシ保護GNNトレーニングアルゴリズムであるEclipseを提案する。
Eclipseは2つの重要な観察に基づいています。
まず、グラフ構造の隣接行列は低ランクな振る舞いを示す。
従ってEclipseは、元のグラフではなく特異値分解(SVD)を通じて、グラフの低ランクフォーマットでGNNを訓練する。
低ランクのフォーマットを使用することで、Eclipseは主要なグラフトポロジを保持し、残りの残余のエッジを削除する。
Eclipseはグラフ全体ではなく、低ランクの特異値にノイズを追加し、グラフのプライバシを保ちながら、モデルユーティリティを維持するのに十分なグラフ構造を維持します。
理論的には、Eclipseはエッジに対して正式なDP保証を提供します。
ベンチマークグラフデータセットの実験では、Eclipseは既存のプライバシ保存GNNトレーニングメソッドに比べて、はるかに優れたプライバシとユーティリティのトレードオフを実現している。
特に、強力なプライバシ制約($\epsilon$ < 4)の下では、Eclipseはモデルユーティリティで最大46%大きな利益を上げている。
さらに、Eclipseは共通のエッジアタック(LPAなど)に対するレジリエンスも向上しており、他の最先端のベースラインと比較して、AUCを最大5%低下させています。
関連論文リスト
- ADEdgeDrop: Adversarial Edge Dropping for Robust Graph Neural Networks [53.41164429486268]
グラフニューラルネットワーク(GNN)は、近隣ノードからグラフ構造化情報を収集する強力な能力を示した。
GNNの性能は、ノイズや冗長なグラフデータによって引き起こされる一般化の貧弱さと脆弱な堅牢性によって制限される。
本稿では,エッジの除去を誘導する対向エッジ予測器を利用する新しい対向エッジドロップ法 (ADEdgeDrop) を提案する。
論文 参考訳(メタデータ) (2024-03-14T08:31:39Z) - GraphPub: Generation of Differential Privacy Graph with High
Availability [21.829551460549936]
差分プライバシー(DP)は、グラフデータのプライバシーを保護する一般的な方法である。
グラフデータの複雑なトポロジ構造のため、グラフにDPを適用すると、GNNモデルのメッセージパッシングや集約に影響を及ぼすことが多い。
グラフトポロジを保護しつつ,データの可用性が基本的に変化しないことを保証するグラフパブリッシャ(GraphPub)を提案する。
論文 参考訳(メタデータ) (2024-02-28T20:02:55Z) - Two Heads Are Better Than One: Boosting Graph Sparse Training via
Semantic and Topological Awareness [80.87683145376305]
グラフニューラルネットワーク(GNN)は、様々なグラフ学習タスクに優れるが、大規模グラフに適用した場合、計算上の課題に直面している。
データレベルで空間を動的に操作するグラフスパーストレーニング(GST)を提案する。
GSTは、最大位相整合性と性能劣化のないスパースグラフを生成する。
論文 参考訳(メタデータ) (2024-02-02T09:10:35Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - DiP-GNN: Discriminative Pre-Training of Graph Neural Networks [49.19824331568713]
GNNのパワーを高めるために,グラフニューラルネットワーク(GNN)事前学習法が提案されている。
一般的な事前トレーニング手法の1つは、エッジのパーセンテージをマスクアウトすることであり、GNNはそれらを回復するように訓練されている。
筆者らのフレームワークでは, 識別器が見るグラフは, マスキングエッジの比率を回復できるため, 元のグラフとよく一致している。
論文 参考訳(メタデータ) (2022-09-15T17:41:50Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。