論文の概要: Network Generation with Differential Privacy
- arxiv url: http://arxiv.org/abs/2111.09085v1
- Date: Wed, 17 Nov 2021 13:07:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 18:10:29.594997
- Title: Network Generation with Differential Privacy
- Title(参考訳): 差分プライバシーを用いたネットワーク生成
- Authors: Xu Zheng, Nicholas McCarthy and Jer Hayes
- Abstract要約: 我々は、プライベート情報を含む実世界のグラフのプライベートな合成版を生成する問題について考察する。
本稿では,エッジ差分プライバシーを維持しつつ,実世界のネットワーク特性を再現できる生成モデルを提案する。
- 参考スコア(独自算出の注目度): 4.297070083645049
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of generating private synthetic versions of
real-world graphs containing private information while maintaining the utility
of generated graphs. Differential privacy is a gold standard for data privacy,
and the introduction of the differentially private stochastic gradient descent
(DP-SGD) algorithm has facilitated the training of private neural models in a
number of domains. Recent advances in graph generation via deep generative
networks have produced several high performing models. We evaluate and compare
state-of-the-art models including adjacency matrix based models and edge based
models, and show a practical implementation that favours the edge-list approach
utilizing the Gaussian noise mechanism when evaluated on commonly used graph
datasets. Based on our findings, we propose a generative model that can
reproduce the properties of real-world networks while maintaining
edge-differential privacy. The proposed model is based on a stochastic neural
network that generates discrete edge-list samples and is trained using the
Wasserstein GAN objective with the DP-SGD optimizer. Being the first approach
to combine these beneficial properties, our model contributes to further
research on graph data privacy.
- Abstract(参考訳): 我々は,生成したグラフの実用性を維持しつつ,プライベート情報を含む実世界のグラフをプライベートに合成する問題を考える。
差分プライバシはデータプライバシの黄金の標準であり、差分プライベート確率勾配降下(dp-sgd)アルゴリズムの導入により、いくつかの領域におけるプライベートニューラルネットワークモデルのトレーニングが容易になった。
ディープジェネレーティブネットワークによるグラフ生成の最近の進歩は、いくつかのハイパフォーマンスモデルを生み出している。
本稿では,隣接行列ベースモデルやエッジベースモデルを含む最先端モデルの評価と比較を行い,一般的なグラフデータセットで評価する場合に,ガウス雑音機構を利用したエッジリストアプローチを提案する。
本研究では,エッジ差分プライバシーを維持しつつ,実世界のネットワーク特性を再現できる生成モデルを提案する。
提案モデルは,離散エッジリストサンプルを生成する確率的ニューラルネットワークに基づいて,DP-SGDオプティマイザを用いてWasserstein GAN目標を用いて学習する。
これらの有益なプロパティを組み合わせるための最初のアプローチとして、我々のモデルはグラフデータのプライバシーに関するさらなる研究に貢献する。
関連論文リスト
- Differential Privacy Regularization: Protecting Training Data Through Loss Function Regularization [49.1574468325115]
ニューラルネットワークに基づく機械学習モデルのトレーニングには、機密情報を含む大きなデータセットが必要である。
差分的にプライベートなSGD [DP-SGD] は、新しいモデルをトレーニングするために標準勾配降下アルゴリズム(SGD)を変更する必要がある。
より効率的な方法で同じ目標を達成するための新しい正規化戦略が提案されている。
論文 参考訳(メタデータ) (2024-09-25T17:59:32Z) - Local Differential Privacy in Graph Neural Networks: a Reconstruction Approach [17.000441871334683]
ユーザレベルでノードのプライバシを提供するための学習フレームワークを提案する。
我々は、分散化された微分プライバシーの概念、すなわちローカル微分プライバシに焦点を当てる。
摂動データから特徴やラベルを近似する再構成手法を開発した。
論文 参考訳(メタデータ) (2023-09-15T17:35:51Z) - Challenging the Myth of Graph Collaborative Filtering: a Reasoned and Reproducibility-driven Analysis [50.972595036856035]
本稿では,6つの人気グラフと最近のグラフ推薦モデルの結果を再現するコードを提案する。
これらのグラフモデルと従来の協調フィルタリングモデルを比較する。
ユーザの近所からの情報フローを調べることにより,データセット構造における内在的特徴にどのようなモデルが影響するかを同定することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T09:31:44Z) - Private Gradient Estimation is Useful for Generative Modeling [25.777591229903596]
そこで本研究では,サンプルをハミルトン力学で生成し,よく訓練されたネットワークから推定したプライベートデータセットの勾配を推定する手法を提案する。
我々のモデルは256x256の解像度でデータを生成することができる。
論文 参考訳(メタデータ) (2023-05-18T02:51:17Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation [25.95411320126426]
ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
本稿では,HeteDPと呼ばれる差分プライバシー機構に基づく,新しい異種グラフニューラルネットワークのプライバシ保存手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:41:02Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Differentially Private Graph Classification with GNNs [5.830410490229634]
グラフネットワーク(GNN)は多くの機械学習アプリケーションの最先端モデルとして確立されている。
グラフにおける機械学習の重要な応用の1つであるグラフレベル分類の差分プライバシーを導入する。
各種の合成および公開データセットについて結果を示し、異なるGNNアーキテクチャの影響を評価する。
論文 参考訳(メタデータ) (2022-02-05T15:16:40Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Secure Deep Graph Generation with Link Differential Privacy [32.671503863933616]
我々は、差分プライバシー(DP)フレームワークを利用して、ディープグラフ生成モデルに厳密なプライバシー制約を定式化し、強制する。
特に、リンク再構成に基づくグラフ生成モデルの勾配に適切なノイズを注入することにより、エッジDPを強制する。
提案した DPGGAN モデルでは,グローバル構造を効果的に保存し,個々のリンクのプライバシを厳格に保護したグラフを生成することができる。
論文 参考訳(メタデータ) (2020-05-01T15:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。