論文の概要: Unveiling the Role of Message Passing in Dual-Privacy Preservation on
GNNs
- arxiv url: http://arxiv.org/abs/2308.13513v1
- Date: Fri, 25 Aug 2023 17:46:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 13:03:06.939798
- Title: Unveiling the Role of Message Passing in Dual-Privacy Preservation on
GNNs
- Title(参考訳): GNNにおけるデュアルプライバシ保存におけるメッセージパッシングの役割の解明
- Authors: Tianyi Zhao, Hui Hu and Lu Cheng
- Abstract要約: グラフニューラルネットワーク(GNN)は、ソーシャルネットワークなどのグラフ上で表現を学習するための強力なツールである。
プライバシを保存するGNNは、ノードやリンクのプライバシの保護に重点を置いて提案されている。
本稿では,ノードとリンクの両方を効果的に保護するプライバシー保護型GNNフレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.626349365968476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) are powerful tools for learning representations
on graphs, such as social networks. However, their vulnerability to privacy
inference attacks restricts their practicality, especially in high-stake
domains. To address this issue, privacy-preserving GNNs have been proposed,
focusing on preserving node and/or link privacy. This work takes a step back
and investigates how GNNs contribute to privacy leakage. Through theoretical
analysis and simulations, we identify message passing under structural bias as
the core component that allows GNNs to \textit{propagate} and \textit{amplify}
privacy leakage. Building upon these findings, we propose a principled
privacy-preserving GNN framework that effectively safeguards both node and link
privacy, referred to as dual-privacy preservation. The framework comprises
three major modules: a Sensitive Information Obfuscation Module that removes
sensitive information from node embeddings, a Dynamic Structure Debiasing
Module that dynamically corrects the structural bias, and an Adversarial
Learning Module that optimizes the privacy-utility trade-off. Experimental
results on four benchmark datasets validate the effectiveness of the proposed
model in protecting both node and link privacy while preserving high utility
for downstream tasks, such as node classification.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、ソーシャルネットワークなどのグラフ表現を学習するための強力なツールである。
しかし、プライバシ推論攻撃に対する脆弱性は、特に高い領域において、その実用性を制限する。
この問題に対処するため、ノードやリンクのプライバシの保護に重点を置いたプライバシー保護GNNが提案されている。
この研究は一歩後退し、GNNがプライバシー漏洩にどのように貢献するかを調査する。
理論的解析とシミュレーションにより,GNNがプライバシー漏洩を防止できるコアコンポーネントとして,構造バイアス下でのメッセージパッシングを同定する。
これらの知見に基づいて、ノードとリンクのプライバシーを効果的に保護する二元的プライバシ保護GNNフレームワークを提案する。
このフレームワークは3つの主要なモジュールで構成されている。ノードの埋め込みから機密情報を除去するSensitive Information Obfuscation Module、動的に構造バイアスを補正するDynamic Structure Debiasing Module、プライバシーとユーティリティのトレードオフを最適化するAdversarial Learning Moduleである。
4つのベンチマークデータセットによる実験結果から,ノード分類などの下流タスクに高い利便性を保ちながら,ノードとリンクのプライバシ保護において提案モデルの有効性が検証された。
関連論文リスト
- Preserving Node-level Privacy in Graph Neural Networks [8.823710998526705]
グラフニューラルネットワーク(GNN)におけるノードレベルのプライバシの問題に対処するソリューションを提案する。
提案プロトコルは,1) 特定のノードサンプリング戦略と一連の調整操作を用いて所望の特性を持つサブグラフを生成するHeterPoissonと呼ばれるサンプリングルーチンと,2) 一般的に使用されるガウスノイズの代わりに対称ラプラスノイズを利用するランダム化ルーチンとからなる。
提案プロトコルは,実世界の5つのデータセットを用いた実験によって実証された,優れた性能でGNN学習を可能にする。
論文 参考訳(メタデータ) (2023-11-12T16:21:29Z) - GNNBleed: Inference Attacks to Unveil Private Edges in Graphs with
Realistic Access to GNN Models [3.0509197593879844]
本稿では,敵がブラックボックスGNNモデルアクセスを持つ状況におけるエッジプライバシについて検討する。
我々は,GNNのメッセージパッシング機構に基づく一連のプライバシ攻撃を導入する。
論文 参考訳(メタデータ) (2023-11-03T20:26:03Z) - Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption [6.319864669924721]
ノードが個人や機密情報を表現している場合、グラフプライバシを保護するために、差分プライバシを持つグラフニューラルネットワーク(GNN)が提案されている。
ノードがプライベートにしておく必要があるが、GNNのトレーニングには不可欠である個人データを含む、重要度の高いプライバシの問題について検討する。
NAP-GNNはノード情報を保護するための適応差分プライバシーに基づくプライバシー保証付きノード単位のプライバシ保存GNNアルゴリズムである。
論文 参考訳(メタデータ) (2023-08-09T13:18:41Z) - Node Injection Link Stealing Attack [0.649970685896541]
グラフ構造化データ内のプライベートリンクを推測することにより、グラフニューラルネットワーク(GNN)のプライバシ脆弱性を露呈する、ステルスで効果的な攻撃を提案する。
我々の研究は、GNNに固有のプライバシの脆弱性を強調し、アプリケーションの堅牢なプライバシ保護メカニズムを開発することの重要性を強調しています。
論文 参考訳(メタデータ) (2023-07-25T14:51:01Z) - On the Interaction between Node Fairness and Edge Privacy in Graph
Neural Networks [54.922084348041864]
本稿では,GNNの公平性とプライバシとの相互作用を初めて考察する。
ノードの個別の公平性が向上すると、エッジプライバシのリスクが増加することを実証的に確認する。
本稿では, 公正な再重み付けとプライバシに配慮したグラフ構造摂動モジュールをリトレーニング機構に実装することを提案する。
論文 参考訳(メタデータ) (2023-01-30T14:52:23Z) - Releasing Graph Neural Networks with Differential Privacy Guarantees [0.81308403220442]
我々は,GNNモデルを集中的にリリースするためのプライバシ保護フレームワークであるPrivGNNを提案する。
PrivGNNは、知識蒸留フレームワークとランダムサブサンプリングとノイズラベリングという2つのノイズメカニズムを組み合わせることで、厳格なプライバシー保証を保証する。
論文 参考訳(メタデータ) (2021-09-18T11:35:19Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Enhancing Graph Neural Network-based Fraud Detectors against Camouflaged
Fraudsters [78.53851936180348]
近年の実証研究,すなわち特徴カモフラージュと関係カモフラージュの2種類のカモフラージュを紹介した。
既存のGNNはこれらの2つのカモフラージュに対処していない。
カモフラージュ抵抗型GNN(CARE-GNN)と呼ばれる新しいモデルを提案し、カモフラージュに対する3つのユニークなモジュールを用いたGNN集約プロセスを強化する。
論文 参考訳(メタデータ) (2020-08-19T22:33:12Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。