論文の概要: Signal Recovery from Random Dot-Product Graphs Under Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2504.17274v1
- Date: Thu, 24 Apr 2025 06:02:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.264735
- Title: Signal Recovery from Random Dot-Product Graphs Under Local Differential Privacy
- Title(参考訳): 局所微分プライバシー下におけるランダムドット生成グラフからの信号回復
- Authors: Siddharth Vishwanath, Jonathan Hehir,
- Abstract要約: 我々は、$varepsilon$-edgeローカル差分プライバシーの下でグラフから潜伏情報を復元する問題を考察する。
一般化されたランダムドット積グラフのクラスについて、標準的な局所微分プライバシー機構が潜在位置における特定の幾何学的歪みを誘導することを示す。
民営化グラフの統計的推測手順を適切に調整することにより、潜伏位置の一貫した回復が達成可能であることを示す。
- 参考スコア(独自算出の注目度): 0.6906005491572401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of recovering latent information from graphs under $\varepsilon$-edge local differential privacy where the presence of relationships/edges between two users/vertices remains confidential, even from the data curator. For the class of generalized random dot-product graphs, we show that a standard local differential privacy mechanism induces a specific geometric distortion in the latent positions. Leveraging this insight, we show that consistent recovery of the latent positions is achievable by appropriately adjusting the statistical inference procedure for the privatized graph. Furthermore, we prove that our procedure is nearly minimax-optimal under local edge differential privacy constraints. Lastly, we show that this framework allows for consistent recovery of geometric and topological information underlying the latent positions, as encoded in their persistence diagrams. Our results extend previous work from the private community detection literature to a substantially richer class of models and inferential tasks.
- Abstract(参考訳): 我々は,データキュレーターからでも,2つのユーザ間の関係やエッジの存在が秘密保持されている場合,$\varepsilon$-edgeローカル差分プライバシの下でグラフから潜伏情報を復元する問題を考察する。
一般化されたランダムドット積グラフのクラスについて、標準的な局所微分プライバシー機構が潜在位置における特定の幾何学的歪みを誘導することを示す。
この知見を利用して、民営化グラフの統計的推測手順を適切に調整することにより、潜伏位置の一貫した回復が達成可能であることを示す。
さらに,局所的なエッジ差分プライバシー制約の下では,手順が最小限に近いことが証明された。
最後に、このフレームワークは、その永続性図にエンコードされているように、潜在位置の下の幾何学的および位相的情報の一貫した回復を可能にすることを示す。
本研究は,従来の研究成果を,民間コミュニティ検出文献から,よりリッチなモデルと推論タスクへと拡張した。
関連論文リスト
- Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Approximating Two-Layer ReLU Networks for Hidden State Analysis in Differential Privacy [3.8254443661593633]
DP-SGDで訓練した1つの隠蔽層ReLUネットワークに匹敵する,プライバシユーティリティトレードオフによる凸問題をプライベートにトレーニングすることが可能である。
ベンチマーク分類タスクの実験により、NoisyCGDは1層ReLUネットワークに適用されたDP-SGDに匹敵するプライバシー利用トレードオフを達成できることが示された。
論文 参考訳(メタデータ) (2024-07-05T22:43:32Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Privacy-Preserving Graph Embedding based on Local Differential Privacy [26.164722283887333]
ノードデータのプライバシを保護するために,PrivGEという新たなプライバシ保護グラフ埋め込みフレームワークを導入する。
具体的には,ノードデータを難読化するための LDP 機構を提案し,パーソナライズされた PageRank を近接指標としてノード表現を学習する。
いくつかの実世界のグラフデータセットの実験は、PrivGEがプライバシとユーティリティの最適なバランスを達成していることを示している。
論文 参考訳(メタデータ) (2023-10-17T08:06:08Z) - Local Differential Privacy in Graph Neural Networks: a Reconstruction Approach [17.000441871334683]
ユーザレベルでノードのプライバシを提供するための学習フレームワークを提案する。
我々は、分散化された微分プライバシーの概念、すなわちローカル微分プライバシに焦点を当てる。
摂動データから特徴やラベルを近似する再構成手法を開発した。
論文 参考訳(メタデータ) (2023-09-15T17:35:51Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - On the Query Complexity of Training Data Reconstruction in Private
Learning [0.0]
我々は,ホワイトボックスの敵が学習者に対して行わなければならないクエリ数を分析し,学習データを再構築する。
例えば$(epsilon, delta)$ DPの学習者は任意のコンパクトな距離空間から引き出された訓練データを持つ。
論文 参考訳(メタデータ) (2023-03-29T00:49:38Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Graph Learning Across Data Silos [10.448384704100684]
本稿では,スムーズなグラフ信号からグラフトポロジを推定する問題を考える。
データは分散クライアントにあり、プライバシー上の懸念などの要因により、ローカルクライアントを去ることは禁じられている。
本稿では,各ローカルクライアントに対してパーソナライズされたグラフと,全クライアントに対して単一のコンセンサスグラフを共同で学習する,自動重み付き多重グラフ学習モデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T02:14:57Z) - Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation [25.95411320126426]
ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
本稿では,HeteDPと呼ばれる差分プライバシー機構に基づく,新しい異種グラフニューラルネットワークのプライバシ保存手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:41:02Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。