論文の概要: Large-Scale Privacy-Preserving Network Embedding against Private Link
Inference Attacks
- arxiv url: http://arxiv.org/abs/2205.14440v1
- Date: Sat, 28 May 2022 13:59:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 15:32:20.688514
- Title: Large-Scale Privacy-Preserving Network Embedding against Private Link
Inference Attacks
- Title(参考訳): プライベートリンク推論攻撃に対する大規模プライバシ保護ネットワーク
- Authors: Xiao Han, Leye Wang, Junjie Wu, Yuncong Yang
- Abstract要約: プライバシ保護ネットワークがプライベートリンク推論攻撃に対して組み込まれるという,新たな問題に対処する。
本稿では,リンクの追加や削除によるオリジナルのネットワークの摂動について提案する。また,この摂動ネットワーク上で発生した埋め込みは,プライベートリンクに関する情報をほとんど漏らすことなく,様々な下流タスクに高いユーティリティを保持することができることを期待する。
- 参考スコア(独自算出の注目度): 12.434976161956401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network embedding represents network nodes by a low-dimensional informative
vector. While it is generally effective for various downstream tasks, it may
leak some private information of networks, such as hidden private links. In
this work, we address a novel problem of privacy-preserving network embedding
against private link inference attacks. Basically, we propose to perturb the
original network by adding or removing links, and expect the embedding
generated on the perturbed network can leak little information about private
links but hold high utility for various downstream tasks. Towards this goal, we
first propose general measurements to quantify privacy gain and utility loss
incurred by candidate network perturbations; we then design a PPNE framework to
identify the optimal perturbation solution with the best privacy-utility
trade-off in an iterative way. Furthermore, we propose many techniques to
accelerate PPNE and ensure its scalability. For instance, as the skip-gram
embedding methods including DeepWalk and LINE can be seen as matrix
factorization with closed form embedding results, we devise efficient privacy
gain and utility loss approximation methods to avoid the repetitive
time-consuming embedding training for every candidate network perturbation in
each iteration. Experiments on real-life network datasets (with up to millions
of nodes) verify that PPNE outperforms baselines by sacrificing less utility
and obtaining higher privacy protection.
- Abstract(参考訳): ネットワーク埋め込みは低次元情報ベクトルによるネットワークノードを表す。
一般的には下流の様々なタスクに有効であるが、隠れたプライベートリンクなどのネットワークのプライベート情報を漏洩させる可能性がある。
本稿では,プライベートリンク推論攻撃に対して,プライバシ保護ネットワークを組み込むという新たな問題に対処する。
基本的に、リンクの追加や削除によって元のネットワークを混乱させることを提案し、乱れたネットワークで生成された埋め込みは、プライベートリンクに関する情報を漏らすことなく、様々な下流タスクに高いユーティリティを持つことができることを期待する。
この目的に向けて,我々はまず,候補ネットワークの摂動によって生じるプライバシ利得とユーティリティ損失を定量化する一般的な測定方法を提案し,反復的に最適なプライバシ利用トレードオフを伴う最適摂動ソリューションを特定するためのppneフレームワークを設計した。
さらに,PPNEを高速化し,そのスケーラビリティを確保するための多くの手法を提案する。
例えば、ディープウォークやラインを含むスキップグラム埋め込みメソッドは、クローズドフォーム埋め込み結果によるマトリックス分解と見なすことができるので、各イテレーションにおける候補ネットワークの摂動ごとに繰り返し発生する時間消費埋め込みトレーニングを避けるために、効率的なプライバシーゲインとユーティリティ損失近似法を考案する。
実生活のネットワークデータセット(数百万のノードを含む)の実験では、PPNEは実用性を犠牲にし、より高いプライバシ保護を得ることで、ベースラインを上回っている。
関連論文リスト
- Preserving Node-level Privacy in Graph Neural Networks [8.823710998526705]
グラフニューラルネットワーク(GNN)におけるノードレベルのプライバシの問題に対処するソリューションを提案する。
提案プロトコルは,1) 特定のノードサンプリング戦略と一連の調整操作を用いて所望の特性を持つサブグラフを生成するHeterPoissonと呼ばれるサンプリングルーチンと,2) 一般的に使用されるガウスノイズの代わりに対称ラプラスノイズを利用するランダム化ルーチンとからなる。
提案プロトコルは,実世界の5つのデータセットを用いた実験によって実証された,優れた性能でGNN学習を可能にする。
論文 参考訳(メタデータ) (2023-11-12T16:21:29Z) - Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption [6.319864669924721]
ノードが個人や機密情報を表現している場合、グラフプライバシを保護するために、差分プライバシを持つグラフニューラルネットワーク(GNN)が提案されている。
ノードがプライベートにしておく必要があるが、GNNのトレーニングには不可欠である個人データを含む、重要度の高いプライバシの問題について検討する。
NAP-GNNはノード情報を保護するための適応差分プライバシーに基づくプライバシー保証付きノード単位のプライバシ保存GNNアルゴリズムである。
論文 参考訳(メタデータ) (2023-08-09T13:18:41Z) - Node Injection Link Stealing Attack [0.649970685896541]
グラフ構造化データ内のプライベートリンクを推測することにより、グラフニューラルネットワーク(GNN)のプライバシ脆弱性を露呈する、ステルスで効果的な攻撃を提案する。
我々の研究は、GNNに固有のプライバシの脆弱性を強調し、アプリケーションの堅牢なプライバシ保護メカニズムを開発することの重要性を強調しています。
論文 参考訳(メタデータ) (2023-07-25T14:51:01Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Cross-Network Social User Embedding with Hybrid Differential Privacy
Guarantees [81.6471440778355]
プライバシー保護方式でユーザを包括的に表現するために,ネットワーク横断型ソーシャルユーザ埋め込みフレームワークDP-CroSUEを提案する。
特に、各異種ソーシャルネットワークに対して、異種データ型に対するプライバシー期待の変化を捉えるために、まずハイブリッドな差分プライバシーの概念を導入する。
ユーザ埋め込みをさらに強化するため、新しいネットワーク間GCN埋め込みモデルは、それらの整列したユーザを介して、ネットワーク間で知識を伝達するように設計されている。
論文 参考訳(メタデータ) (2022-09-04T06:22:37Z) - Muffliato: Peer-to-Peer Privacy Amplification for Decentralized
Optimization and Averaging [2.294014185517203]
ローカルディファレンシャルプライバシ(LDP)の緩和であるペアワイズネットワークディファレンシャルプライバシを導入する。
我々は、局所勾配降下ステップとゴシップ平均化を交互に交互に行う、微分プライベートな分散最適化アルゴリズムを導出する。
我々のアルゴリズムは,グラフ内のノード間距離の関数として,プライバシー保証を増幅することを示す。
論文 参考訳(メタデータ) (2022-06-10T13:32:35Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - Sphynx: ReLU-Efficient Network Design for Private Inference [49.73927340643812]
そこでは、サービスプロバイダのモデルを使用して、ユーザのデータサンプルに対する推論を実行することを目標としています。
ディープネットワークのための既存のPIメソッドは、機能低下の少ない暗号的にセキュアな推論を可能にする。
本稿では,畳み込みセル設計のためのマイクロサーチ手法に基づくReLU効率の高いネットワーク設計手法であるSphynxを提案する。
論文 参考訳(メタデータ) (2021-06-17T18:11:10Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。