論文の概要: Decentralized Differentially Private Power Method
- arxiv url: http://arxiv.org/abs/2507.22849v1
- Date: Wed, 30 Jul 2025 17:15:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.359381
- Title: Decentralized Differentially Private Power Method
- Title(参考訳): 分散型微分プライベートパワー方式
- Authors: Andrew Campbell, Anna Scaglione, Sean Peisert,
- Abstract要約: ネットワーク化されたマルチエージェント設定において主成分分析(PCA)を行うための分散分散微分プライベート・パワー・メソッド(D-DP-PM)を提案する。
本手法は,ネットワーク全体の固有ベクトルを協調的に推定しながら,$(epsilon,delta)$-Differential Privacy (DP)を保証する。
実世界のデータセット実験により、D-DP-PMは、単純で局所的なDPアプローチに比べて、優れたプライバシーとユーティリティのトレードオフを実現することが示された。
- 参考スコア(独自算出の注目度): 4.58112062523768
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel Decentralized Differentially Private Power Method (D-DP-PM) for performing Principal Component Analysis (PCA) in networked multi-agent settings. Unlike conventional decentralized PCA approaches where each agent accesses the full n-dimensional sample space, we address the challenging scenario where each agent observes only a subset of dimensions through row-wise data partitioning. Our method ensures $(\epsilon,\delta)$-Differential Privacy (DP) while enabling collaborative estimation of global eigenvectors across the network without requiring a central aggregator. We achieve this by having agents share only local embeddings of the current eigenvector iterate, leveraging both the inherent privacy from random initialization and carefully calibrated Gaussian noise additions. We prove that our algorithm satisfies the prescribed $(\epsilon,\delta)$-DP guarantee and establish convergence rates that explicitly characterize the impact of the network topology. Our theoretical analysis, based on linear dynamics and high-dimensional probability theory, provides tight bounds on both privacy and utility. Experiments on real-world datasets demonstrate that D-DP-PM achieves superior privacy-utility tradeoffs compared to naive local DP approaches, with particularly strong performance in moderate privacy regimes ($\epsilon\in[2, 5]$). The method converges rapidly, allowing practitioners to trade iterations for enhanced privacy while maintaining competitive utility.
- Abstract(参考訳): ネットワーク化されたマルチエージェント設定において主成分分析(PCA)を行うための分散分散微分プライベート・パワー・メソッド(D-DP-PM)を提案する。
各エージェントがn次元のサンプル空間にアクセスする従来の分散PCAアプローチとは異なり、各エージェントが行ワイドデータパーティショニングを通じて次元のサブセットのみを観測する難しいシナリオに対処する。
本手法は,集中アグリゲータを必要とせずに,ネットワーク全体にわたるグローバル固有ベクトルの協調推定を可能にしながら,$(\epsilon,\delta)$-Differential Privacy (DP)を保証する。
エージェントに現在の固有ベクトルイテレートの局所埋め込みだけを共有させ、ランダム初期化から固有のプライバシを生かし、ガウス雑音を慎重に調整することでこれを実現できる。
我々は,提案アルゴリズムが所定の$(\epsilon,\delta)$-DP保証を満たすことを証明し,ネットワークトポロジの影響を明示的に特徴づける収束率を確立する。
我々の理論解析は線形力学と高次元確率理論に基づいており、プライバシーと実用性の両方に厳密な制約を与えている。
実世界のデータセットの実験では、D-DP-PMは、緩やかなローカルDPアプローチに比べて優れたプライバシーとユーティリティのトレードオフを達成しており、特に中程度のプライバシー体制において強いパフォーマンス(\epsilon\in[2, 5]$)を示している。
この方法は急速に収束し、実践者は競争力を維持しながら、プライバシーを強化するために反復を交換できる。
関連論文リスト
- Differential Privacy Analysis of Decentralized Gossip Averaging under Varying Threat Models [6.790905400046194]
本稿では,ノードレベルの付加雑音を用いた分散化ゴシップ平均化アルゴリズムの新たなプライバシー解析法を提案する。
私たちの主な貢献は、これらのシナリオにおけるプライバシー漏洩を正確に特徴付ける新しい分析フレームワークです。
従来の手法に比べてDP境界が優れていることを示す数値計算結果を用いて,本分析を検証した。
論文 参考訳(メタデータ) (2025-05-26T13:31:43Z) - PDSL: Privacy-Preserved Decentralized Stochastic Learning with Heterogeneous Data Distribution [8.055697728504326]
分散学習では、エージェントのグループが協力して、中央サーバーなしで分散データセットを使用してグローバルモデルを学ぶ。
本稿では、不均一なデータ分布を持つ新しいプライバシー保護型分散学習アルゴリズムであるPを提案する。
論文 参考訳(メタデータ) (2025-03-31T04:58:05Z) - Differentially Private Policy Gradient [48.748194765816955]
本研究では,プライバシノイズと信頼領域サイズとの間の適切なトレードオフを見出すことができ,性能的にプライベートなポリシー勾配アルゴリズムが得られることを示す。
この結果と課題の複雑さは,オンラインRLにおける既存のDPアルゴリズムよりも大幅に改善されている。
論文 参考訳(メタデータ) (2025-01-31T12:11:13Z) - Differentially private and decentralized randomized power method [15.955127242261808]
本稿では,ランダム化電力法におけるプライバシー保護の強化について述べる。
まず、微分プライバシーを実現するために、現在の技術で必要とされるノイズの量を削減できる変種を提案する。
次に、データを複数のユーザ間で分散する分散フレームワークに適用する。
論文 参考訳(メタデータ) (2024-11-04T09:53:03Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Muffliato: Peer-to-Peer Privacy Amplification for Decentralized Optimization and Averaging [20.39986955578245]
ローカルディファレンシャルプライバシ(LDP)の緩和であるペアワイズネットワークディファレンシャルプライバシを導入する。
我々は、局所勾配降下ステップとゴシップ平均化を交互に交互に行う、微分プライベートな分散最適化アルゴリズムを導出する。
我々のアルゴリズムは,グラフ内のノード間距離の関数として,プライバシー保証を増幅することを示す。
論文 参考訳(メタデータ) (2022-06-10T13:32:35Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。