論文の概要: Privacy-Preserving Graph Embedding based on Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2310.11060v2
- Date: Sun, 4 Aug 2024 05:59:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 00:15:47.666076
- Title: Privacy-Preserving Graph Embedding based on Local Differential Privacy
- Title(参考訳): 局所微分プライバシーに基づくプライバシー保護グラフ埋め込み
- Authors: Zening Li, Rong-Hua Li, Meihao Liao, Fusheng Jin, Guoren Wang,
- Abstract要約: ノードデータのプライバシを保護するために,PrivGEという新たなプライバシ保護グラフ埋め込みフレームワークを導入する。
具体的には,ノードデータを難読化するための LDP 機構を提案し,パーソナライズされた PageRank を近接指標としてノード表現を学習する。
いくつかの実世界のグラフデータセットの実験は、PrivGEがプライバシとユーティリティの最適なバランスを達成していることを示している。
- 参考スコア(独自算出の注目度): 26.164722283887333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph embedding has become a powerful tool for learning latent representations of nodes in a graph. Despite its superior performance in various graph-based machine learning tasks, serious privacy concerns arise when the graph data contains personal or sensitive information. To address this issue, we investigate and develop graph embedding algorithms that satisfy local differential privacy (LDP). We introduce a novel privacy-preserving graph embedding framework, named PrivGE, to protect node data privacy. Specifically, we propose an LDP mechanism to obfuscate node data and utilize personalized PageRank as the proximity measure to learn node representations. Furthermore, we provide a theoretical analysis of the privacy guarantees and utility offered by the PrivGE framework. Extensive experiments on several real-world graph datasets demonstrate that PrivGE achieves an optimal balance between privacy and utility, and significantly outperforms existing methods in node classification and link prediction tasks.
- Abstract(参考訳): グラフ埋め込みは、グラフ内のノードの潜在表現を学習するための強力なツールになっている。
グラフベースの機械学習タスクのパフォーマンスは優れていますが、グラフデータが個人または機密情報を含んでいる場合、深刻なプライバシー上の懸念が発生します。
この問題に対処するため,局所微分プライバシー(LDP)を満たすグラフ埋め込みアルゴリズムを検討・開発する。
ノードデータのプライバシを保護するために,PrivGEという新たなプライバシ保護グラフ埋め込みフレームワークを導入する。
具体的には,ノードデータを難読化するための LDP 機構を提案し,パーソナライズされた PageRank を近接指標としてノード表現を学習する。
さらに,PrivGEフレームワークが提供するプライバシ保証とユーティリティに関する理論的分析を行った。
いくつかの実世界のグラフデータセットに対する大規模な実験は、PrivGEがプライバシとユーティリティの最適なバランスを達成し、ノード分類やリンク予測タスクにおいて既存の方法よりも大幅に優れていることを示している。
関連論文リスト
- Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption [6.319864669924721]
ノードが個人や機密情報を表現している場合、グラフプライバシを保護するために、差分プライバシを持つグラフニューラルネットワーク(GNN)が提案されている。
ノードがプライベートにしておく必要があるが、GNNのトレーニングには不可欠である個人データを含む、重要度の高いプライバシの問題について検討する。
NAP-GNNはノード情報を保護するための適応差分プライバシーに基づくプライバシー保証付きノード単位のプライバシ保存GNNアルゴリズムである。
論文 参考訳(メタデータ) (2023-08-09T13:18:41Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Locally Private Graph Neural Networks [12.473486843211573]
ノードデータプライバシ(ノードデータプライバシ)の問題として,グラフノードが機密性の高いデータをプライベートに保持する可能性について検討する。
我々は、正式なプライバシー保証を備えたプライバシー保護アーキテクチャに依存しないGNN学習アルゴリズムを開発した。
実世界のデータセット上で行った実験は、我々の手法が低プライバシー損失で満足度の高い精度を維持することができることを示した。
論文 参考訳(メタデータ) (2020-06-09T22:36:06Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z) - Secure Deep Graph Generation with Link Differential Privacy [32.671503863933616]
我々は、差分プライバシー(DP)フレームワークを利用して、ディープグラフ生成モデルに厳密なプライバシー制約を定式化し、強制する。
特に、リンク再構成に基づくグラフ生成モデルの勾配に適切なノイズを注入することにより、エッジDPを強制する。
提案した DPGGAN モデルでは,グローバル構造を効果的に保存し,個々のリンクのプライバシを厳格に保護したグラフを生成することができる。
論文 参考訳(メタデータ) (2020-05-01T15:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。