論文の概要: Differentially private and decentralized randomized power method
- arxiv url: http://arxiv.org/abs/2411.01931v3
- Date: Thu, 12 Jun 2025 09:09:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.074244
- Title: Differentially private and decentralized randomized power method
- Title(参考訳): 分極的・分極的ランダム化電力法
- Authors: Julien Nicolas, César Sabater, Mohamed Maouche, Sonia Ben Mokhtar, Mark Coates,
- Abstract要約: 本稿では,ランダム化電力法におけるプライバシー保護の強化について述べる。
まず、微分プライバシーを実現するために、現在の技術で必要とされるノイズの量を削減できる変種を提案する。
次に、データを複数のユーザ間で分散する分散フレームワークに適用する。
- 参考スコア(独自算出の注目度): 15.955127242261808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The randomized power method has gained significant interest due to its simplicity and efficient handling of large-scale spectral analysis and recommendation tasks. However, its application to large datasets containing personal information (e.g., web interactions, search history, personal tastes) raises critical privacy problems. This paper addresses these issues by proposing enhanced privacy-preserving variants of the method. First, we propose a variant that reduces the amount of the noise required in current techniques to achieve Differential Privacy (DP). More precisely, we refine the privacy analysis so that the Gaussian noise variance no longer grows linearly with the target rank, achieving the same DP guarantees with strictly less noise. Second, we adapt our method to a decentralized framework in which data is distributed among multiple users. The decentralized protocol strengthens privacy guarantees with no accuracy penalty and a low computational and communication overhead. Our results include the provision of tighter convergence bounds for both the centralized and decentralized versions, and an empirical comparison with previous work using real recommendation datasets.
- Abstract(参考訳): ランダム化電力法は,大規模スペクトル解析と推薦タスクの簡便かつ効率的な処理により,大きな関心を集めている。
しかし、個人情報を含む大規模なデータセット(例えば、Webインタラクション、検索履歴、個人の嗜好など)への適用は、重要なプライバシー問題を引き起こす。
本論文は,これらの問題に対して,プライバシー保護法の改良型を提案する。
まず、微分プライバシー(DP)を実現するために、現在の技術で必要とされるノイズの量を削減できる変種を提案する。
より正確には、ガウス雑音分散が目標ランクと直線的に増加しないよう、プライバシー分析を洗練し、厳密に少ないノイズで同じDP保証を実現する。
次に、データを複数のユーザ間で分散する分散フレームワークに適用する。
分散化されたプロトコルは、正確性のないプライバシー保証を強化し、計算と通信のオーバーヘッドを低くする。
本研究の結果は,集中型バージョンと分散型バージョンの両方に対して,より厳密な収束バウンダリの提供と,実際のレコメンデーションデータセットを用いた以前の研究との実証的な比較を含む。
関連論文リスト
- Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Share Your Representation Only: Guaranteed Improvement of the
Privacy-Utility Tradeoff in Federated Learning [47.042811490685324]
この情報漏洩のリスクを減らし、最先端の差分プライベートアルゴリズムを使っても、無料ではない。
本稿では,異なるプライバシ保証を持つフェデレーションモデルにおいて,様々な当事者が協調的に洗練する表現学習の目的について考察する。
同じ小さなプライバシ予算の下で、以前の作業よりも大幅にパフォーマンスが向上するのを観察する。
論文 参考訳(メタデータ) (2023-09-11T14:46:55Z) - Samplable Anonymous Aggregation for Private Federated Data Analysis [25.35309084903802]
局所的に微分されたプライベートアルゴリズムは、ほとんど信頼を必要としないが、(おそらく)実用性に制限がある。
中央的に微分されたプライベートアルゴリズムは、はるかに優れたユーティリティを実現することができるが、信頼できるキュレーターを必要とする。
最初のコントリビューションは、複数のよく使われるアルゴリズムを効率的に実装できる新しいプリミティブを提案することです。
論文 参考訳(メタデータ) (2023-07-27T17:19:37Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - On Differential Privacy for Federated Learning in Wireless Systems with
Multiple Base Stations [90.53293906751747]
複数の基地局とセル間干渉を持つ無線システムにおける連合学習モデルを考える。
本稿では,学習過程の収束挙動を,その最適性ギャップの上限を導出することによって示す。
提案するスケジューラは,ランダムなスケジューラと比較して予測平均精度を向上する。
論文 参考訳(メタデータ) (2022-08-25T03:37:11Z) - Differentially Private Vertical Federated Clustering [13.27934054846057]
多くのアプリケーションでは、複数のパーティが同じユーザのセットに関するプライベートデータを持っているが、非結合な属性のセットについてである。
データ対象者のプライバシーを保護しながらモデル学習を可能にするためには、垂直連合学習(VFL)技術が必要である。
本論文で提案するアルゴリズムは, 個人用垂直結合型K平均クラスタリングのための最初の実用的な解法である。
論文 参考訳(メタデータ) (2022-08-02T19:23:48Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Network Shuffling: Privacy Amplification via Random Walks [21.685747588753514]
ネットワーク/グラフ上でランダムウォーク方式でデータを交換する分散メカニズムであるネットワークシャッフルを導入する。
プライバシーの増幅率は、均一シャッフルのような他のプライバシーの増幅手法と類似していることが示される。
論文 参考訳(メタデータ) (2022-04-08T08:36:06Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - Privacy Amplification via Random Check-Ins [38.72327434015975]
Differentially Private Gradient Descent (DP-SGD) は、多くのアプリケーションにおいて、機密データを学習するための基本的な構成要素となっている。
本稿では,DP-SGD のような反復的手法を,多くのデバイス(クライアント)に分散したフェデレーションラーニング(FL)の設定において実施することに焦点を当てる。
当社の主なコントリビューションは,各クライアントがローカルかつ独立に行うランダムな参加決定にのみ依存する,Emphrandom Check-in分散プロトコルです。
論文 参考訳(メタデータ) (2020-07-13T18:14:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。