論文の概要: Locally Differentially Private Graph Embedding
- arxiv url: http://arxiv.org/abs/2310.11060v1
- Date: Tue, 17 Oct 2023 08:06:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 17:00:51.473313
- Title: Locally Differentially Private Graph Embedding
- Title(参考訳): 局所微分プライベートグラフ埋め込み
- Authors: Zening Li, Rong-Hua Li, Meihao Liao, Fusheng Jin, Guoren Wang
- Abstract要約: 局所差分プライバシー(LDP)を満たすグラフ埋め込みアルゴリズムの開発問題について検討する。
ノードデータのプライバシを保護するために,新しいプライバシー保護グラフ埋め込みフレームワーク LDP-GE を提案する。
LDP-GEは、プライバシーとユーティリティのトレードオフを良好に達成し、ノード分類とリンク予測タスクの両方において、既存のアプローチを著しく上回っていることを示す。
- 参考スコア(独自算出の注目度): 28.07071644277225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph embedding has been demonstrated to be a powerful tool for learning
latent representations for nodes in a graph. However, despite its superior
performance in various graph-based machine learning tasks, learning over graphs
can raise significant privacy concerns when graph data involves sensitive
information. To address this, in this paper, we investigate the problem of
developing graph embedding algorithms that satisfy local differential privacy
(LDP). We propose LDP-GE, a novel privacy-preserving graph embedding framework,
to protect the privacy of node data. Specifically, we propose an LDP mechanism
to obfuscate node data and adopt personalized PageRank as the proximity measure
to learn node representations. Then, we theoretically analyze the privacy
guarantees and utility of the LDP-GE framework. Extensive experiments conducted
over several real-world graph datasets demonstrate that LDP-GE achieves
favorable privacy-utility trade-offs and significantly outperforms existing
approaches in both node classification and link prediction tasks.
- Abstract(参考訳): グラフ埋め込みは、グラフ内のノードの潜在表現を学ぶための強力なツールであることが示されている。
しかしながら、さまざまなグラフベースの機械学習タスクでパフォーマンスは優れていますが、グラフ上の学習は、グラフデータが機密情報を含む場合に、大きなプライバシー上の懸念を生じさせます。
そこで本稿では,局所差分プライバシー(LDP)を満たすグラフ埋め込みアルゴリズムの開発について検討する。
ノードデータのプライバシを保護するために,新しいプライバシー保護グラフ埋め込みフレームワーク LDP-GE を提案する。
具体的には,ノードデータの難読化とパーソナライズされたページランクをノード表現学習のための近接尺度として採用するldp機構を提案する。
そこで我々は, LDP-GEフレームワークのプライバシー保証と実用性を理論的に分析した。
複数の実世界のグラフデータセット上で実施された大規模な実験は、LDP-GEが良好なプライバシーとユーティリティのトレードオフを達成し、ノード分類とリンク予測タスクの両方において既存のアプローチを著しく上回っていることを示している。
関連論文リスト
- Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption [6.319864669924721]
ノードが個人や機密情報を表現している場合、グラフプライバシを保護するために、差分プライバシを持つグラフニューラルネットワーク(GNN)が提案されている。
ノードがプライベートにしておく必要があるが、GNNのトレーニングには不可欠である個人データを含む、重要度の高いプライバシの問題について検討する。
NAP-GNNはノード情報を保護するための適応差分プライバシーに基づくプライバシー保証付きノード単位のプライバシ保存GNNアルゴリズムである。
論文 参考訳(メタデータ) (2023-08-09T13:18:41Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Locally Private Graph Neural Networks [12.473486843211573]
ノードデータプライバシ(ノードデータプライバシ)の問題として,グラフノードが機密性の高いデータをプライベートに保持する可能性について検討する。
我々は、正式なプライバシー保証を備えたプライバシー保護アーキテクチャに依存しないGNN学習アルゴリズムを開発した。
実世界のデータセット上で行った実験は、我々の手法が低プライバシー損失で満足度の高い精度を維持することができることを示した。
論文 参考訳(メタデータ) (2020-06-09T22:36:06Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z) - Secure Deep Graph Generation with Link Differential Privacy [32.671503863933616]
我々は、差分プライバシー(DP)フレームワークを利用して、ディープグラフ生成モデルに厳密なプライバシー制約を定式化し、強制する。
特に、リンク再構成に基づくグラフ生成モデルの勾配に適切なノイズを注入することにより、エッジDPを強制する。
提案した DPGGAN モデルでは,グローバル構造を効果的に保存し,個々のリンクのプライバシを厳格に保護したグラフを生成することができる。
論文 参考訳(メタデータ) (2020-05-01T15:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。