論文の概要: FedPower: Privacy-Preserving Distributed Eigenspace Estimation
- arxiv url: http://arxiv.org/abs/2103.00704v2
- Date: Tue, 27 Jun 2023 04:18:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 18:25:27.500612
- Title: FedPower: Privacy-Preserving Distributed Eigenspace Estimation
- Title(参考訳): fedpower: プライバシ保護型分散固有空間推定
- Authors: Xiao Guo and Xiang Li and Xiangyu Chang and Shusen Wang and Zhihua
Zhang
- Abstract要約: 我々は,フェデレートラーニング(FL)フレームワーク内で,textsfFedPowerと呼ばれるアルゴリズムのクラスを提案する。
textsfFedPowerは、複数のローカルパワーイテレーションとグローバルアグリゲーションステップを交互に行うことで、よく知られたパワーメソッドを活用する。
ガウス雑音, 並列化, ローカルマシンのランダムサンプリングの影響に応じて, 異なる解釈可能な項からなるテキストfFedPowerの収束境界を提供する。
- 参考スコア(独自算出の注目度): 38.17106202734679
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Eigenspace estimation is fundamental in machine learning and statistics,
which has found applications in PCA, dimension reduction, and clustering, among
others. The modern machine learning community usually assumes that data come
from and belong to different organizations. The low communication power and the
possible privacy breaches of data make the computation of eigenspace
challenging. To address these challenges, we propose a class of algorithms
called \textsf{FedPower} within the federated learning (FL) framework.
\textsf{FedPower} leverages the well-known power method by alternating multiple
local power iterations and a global aggregation step, thus improving
communication efficiency. In the aggregation, we propose to weight each local
eigenvector matrix with {\it Orthogonal Procrustes Transformation} (OPT) for
better alignment. To ensure strong privacy protection, we add Gaussian noise in
each iteration by adopting the notion of \emph{differential privacy} (DP). We
provide convergence bounds for \textsf{FedPower} that are composed of different
interpretable terms corresponding to the effects of Gaussian noise,
parallelization, and random sampling of local machines. Additionally, we
conduct experiments to demonstrate the effectiveness of our proposed
algorithms.
- Abstract(参考訳): 固有空間推定は機械学習や統計学において基本的なものであり、PCA、次元縮小、クラスタリングなどに応用されている。
現代の機械学習コミュニティは通常、データがさまざまな組織から生まれ、属していると仮定する。
通信能力の低さとデータのプライバシー侵害の可能性から、固有空間の計算は困難である。
これらの課題に対処するために,フェデレートラーニング(FL)フレームワーク内に,‘textsf{FedPower}’と呼ばれるアルゴリズムのクラスを提案する。
複数のローカルパワーイテレーションとグローバルアグリゲーションステップを交互に行い、通信効率を向上させることで、よく知られたパワーメソッドを活用する。
そこで本研究では,各固有ベクトル行列をOPT(Orthogonal Procrustes Transformation)で重み付けし,アライメントを改善することを提案する。
強力なプライバシー保護を確保するため、各イテレーションに \emph{differential privacy} (dp) の概念を採用してガウスノイズを追加する。
ガウスノイズ, 並列化, ローカルマシンのランダムサンプリングの効果に対応する, 異なる解釈可能な項からなる, textsf{FedPower} に対する収束境界を提供する。
さらに,提案アルゴリズムの有効性を示す実験を行った。
関連論文リスト
- Private Networked Federated Learning for Nonsmooth Objectives [7.278228169713637]
本稿では,非平滑な目的関数を解くためのネットワーク型フェデレーション学習アルゴリズムを提案する。
参加者の秘密性を保証するため、ゼロ集中型微分プライバシー概念(zCDP)を用いる。
プライバシ保証とアルゴリズムの正確な解への収束の完全な理論的証明を提供する。
論文 参考訳(メタデータ) (2023-06-24T16:13:28Z) - Randomized Quantization is All You Need for Differential Privacy in
Federated Learning [1.9785872350085876]
量子化と差分プライバシーを組み合わせたフェデレーション学習のアプローチを検討する。
我々は textbfRandomized textbfQuantization textbfMechanism (RQM) と呼ばれる新しいアルゴリズムを開発した。
アルゴリズムの性能を実証的に研究し、これまでの研究と比較すると、プライバシーと精度のトレードオフが改善されていることを示す。
論文 参考訳(メタデータ) (2023-06-20T21:54:13Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - On Differential Privacy for Federated Learning in Wireless Systems with
Multiple Base Stations [90.53293906751747]
複数の基地局とセル間干渉を持つ無線システムにおける連合学習モデルを考える。
本稿では,学習過程の収束挙動を,その最適性ギャップの上限を導出することによって示す。
提案するスケジューラは,ランダムなスケジューラと比較して予測平均精度を向上する。
論文 参考訳(メタデータ) (2022-08-25T03:37:11Z) - Differentially Private Federated Learning via Inexact ADMM with Multiple
Local Updates [0.0]
我々は,複数の局所的な更新を施した乗算器アルゴリズムのDP不正確な交互方向法を開発した。
当社のアルゴリズムでは,各イテレーション毎に$barepsilon$-DPを提供しており,$barepsilon$はユーザが管理するプライバシ予算である。
提案アルゴリズムは,既存のDPアルゴリズムと比較してテストエラーを少なくとも31%削減すると同時に,データプライバシのレベルが同じであることを実証する。
論文 参考訳(メタデータ) (2022-02-18T19:58:47Z) - A Newton-type algorithm for federated learning based on incremental
Hessian eigenvector sharing [5.404315085380945]
我々は、フェデレートラーニング(FL)を高速化するために設計された、通信制約付きニュートン型(NT)アルゴリズムを提案する。
提案手法は実際のデータセットで完全に検証される。
論文 参考訳(メタデータ) (2022-02-11T17:52:56Z) - Learning Optimal Antenna Tilt Control Policies: A Contextual Linear
Bandit Approach [65.27783264330711]
セルラーネットワークにおけるアンテナ傾きの制御は、ネットワークのカバレッジとキャパシティの間の効率的なトレードオフに到達するために不可欠である。
既存のデータから最適な傾き制御ポリシーを学習するアルゴリズムを考案する。
従来のルールベースの学習アルゴリズムよりもはるかに少ないデータサンプルを用いて最適な傾き更新ポリシーを作成できることを示す。
論文 参考訳(メタデータ) (2022-01-06T18:24:30Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。