論文の概要: Secure Stateful Aggregation: A Practical Protocol with Applications in Differentially-Private Federated Learning
- arxiv url: http://arxiv.org/abs/2410.11368v1
- Date: Tue, 15 Oct 2024 07:45:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:00:13.932027
- Title: Secure Stateful Aggregation: A Practical Protocol with Applications in Differentially-Private Federated Learning
- Title(参考訳): セキュアなステートフル・アグリゲーション:差分生産型フェデレーション学習のための実践的プロトコル
- Authors: Marshall Ball, James Bell-Clark, Adria Gascon, Peter Kairouz, Sewoong Oh, Zhiye Xie,
- Abstract要約: DP-FTRLベースのアプローチは、すでに業界に広く展開されている。
セキュアなステートフルアグリゲーションを導入します。これは、アグリゲーション値のプライベートストレージを可能にする、単純なアグリゲーションのみのデータ構造です。
DP-FTRLをベースとした私的フェデレーション学習を実現するためには,セキュアなステートフルアグリゲーションが十分である。
- 参考スコア(独自算出の注目度): 36.42916779389165
- License:
- Abstract: Recent advances in differentially private federated learning (DPFL) algorithms have found that using correlated noise across the rounds of federated learning (DP-FTRL) yields provably and empirically better accuracy than using independent noise (DP-SGD). While DP-SGD is well-suited to federated learning with a single untrusted central server using lightweight secure aggregation protocols, secure aggregation is not conducive to implementing modern DP-FTRL techniques without assuming a trusted central server. DP-FTRL based approaches have already seen widespread deployment in industry, albeit with a trusted central curator who provides and applies the correlated noise. To realize a fully private, single untrusted server DP-FTRL federated learning protocol, we introduce secure stateful aggregation: a simple append-only data structure that allows for the private storage of aggregate values and reading linear functions of the aggregates. Assuming Ring Learning with Errors, we provide a lightweight and scalable realization of this protocol for high-dimensional data in a new security/resource model, Federated MPC : where a powerful persistent server interacts with weak, ephemeral clients. We observe that secure stateful aggregation suffices for realizing DP-FTRL-based private federated learning: improving DPFL utility guarantees over the state of the art while maintaining privacy with an untrusted central party. Our approach has minimal overhead relative to existing techniques which do not yield comparable utility. The secure stateful aggregation primitive and the federated MPC paradigm may be of interest for other practical applications.
- Abstract(参考訳): 近年のDPFLアルゴリズムの進歩により, 独立雑音 (DP-SGD) よりも有意かつ実験的に精度が向上することがわかった。
DP-SGDは、軽量なセキュアアグリゲーションプロトコルを用いた単一の信頼できない中央サーバによるフェデレーション学習に適しているが、セキュアアグリゲーションは、信頼できる中央サーバを仮定することなく、最新のDP-FTRL技術を実装することには適していない。
DP-FTRLをベースとしたアプローチは、信頼できる中央キュレーターが相関ノイズを提供し、適用しているにもかかわらず、すでに産業に広く展開されている。
完全プライベートで信頼性の低いDP-FTRLフェデレーション学習プロトコルを実現するために,集約値をプライベートに格納し,集約の線形関数を読み取ることのできる,単純な付加のみのデータ構造であるセキュアなステートフルアグリゲーションを導入する。
Ring Learning with Errorsを仮定すると、新しいセキュリティ/リソースモデルであるFederated MPCにおける高次元データのための軽量でスケーラブルなこのプロトコルの実現を提供する。
我々は,DP-FTRLをベースとした私的フェデレーション学習を実現する上で,セキュアなステートフルアグリゲーションが十分であることを示す。
我々のアプローチは、同等の効用を得られない既存の技術と比較して最小限のオーバーヘッドを持つ。
セキュアなステートフルアグリゲーションプリミティブとフェデレートされたMPCパラダイムは、他の実用的な応用にも関心があるかもしれない。
関連論文リスト
- DMM: Distributed Matrix Mechanism for Differentially-Private Federated Learning using Packed Secret Sharing [51.336015600778396]
フェデレーテッド・ラーニング(FL)は最近、産業とアカデミックの両方で多くの注目を集めています。
FLでは、機械学習モデルは、複数のラウンドにまたがって委員会に配置されたさまざまなエンドユーザのデータを使用して訓練される。
このようなデータは、しばしばセンシティブであるため、FLの主な課題は、モデルの実用性を維持しながらプライバシを提供することである。
論文 参考訳(メタデータ) (2024-10-21T16:25:14Z) - Universally Harmonizing Differential Privacy Mechanisms for Federated Learning: Boosting Accuracy and Convergence [22.946928984205588]
ディファレンシャル・プライベート・フェデレーション・ラーニング(DP-FL)は協調モデルトレーニングにおいて有望な手法である。
本稿では,任意のランダム化機構を普遍的に調和させる最初のDP-FLフレームワーク(UDP-FL)を提案する。
その結果,UDP-FLは異なる推論攻撃に対して強い耐性を示すことがわかった。
論文 参考訳(メタデータ) (2024-07-20T00:11:59Z) - Correlated Privacy Mechanisms for Differentially Private Distributed Mean Estimation [8.660393575612169]
CorDP-DMEは、ローカルディファレンシャルプライバシ(LDP)と分散DP(SecAgg)のギャップにまたがる新しいDP-DMEである。
我々はCorDP-DMEの情報理論解析を行い、任意のプライバシパラメータの下での実用性に関する理論的保証を導出する。
論文 参考訳(メタデータ) (2024-07-03T17:22:33Z) - FastLloyd: Federated, Accurate, Secure, and Tunable $k$-Means Clustering with Differential Privacy [26.927356987142407]
本稿では,プライバシー保護のための$k$-meansクラスタリングの問題について検討する。
セキュアな計算を使った既存のアプローチは、かなりのオーバーヘッドに悩まされ、出力のプライバシを提供しない。
計算DPモデルを用いて、4桁の高速化を実現する軽量でセキュアな集約ベースのアプローチを設計する。
論文 参考訳(メタデータ) (2024-05-03T19:04:37Z) - FedMPQ: Secure and Communication-Efficient Federated Learning with Multi-codebook Product Quantization [12.83265009728818]
本稿では,フェデレート学習のための新しいアップリンク通信圧縮手法であるFedMPQを提案する。
従来の研究とは対照的に,本手法では,データが独立かつ同一に分散されていないシナリオにおいて,より堅牢性を示す。
LEAFデータセットを用いて実験を行った結果,提案手法はベースラインの最終精度の99%を達成できた。
論文 参考訳(メタデータ) (2024-04-21T08:27:36Z) - Federated Nearest Neighbor Machine Translation [66.8765098651988]
本稿では,FedNN(FedNN)機械翻訳フレームワークを提案する。
FedNNは1ラウンドの記憶に基づくインタラクションを活用して、異なるクライアント間で知識を共有する。
実験の結果,FedAvgと比較して,FedNNは計算コストと通信コストを著しく削減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T18:04:07Z) - Differentially Private Federated Bayesian Optimization with Distributed
Exploration [48.9049546219643]
我々は、DPを反復アルゴリズムに追加するための一般的なフレームワークを通じて、ディープニューラルネットワークのトレーニングに差分プライバシ(DP)を導入する。
DP-FTS-DEは高い実用性(競争性能)と高いプライバシー保証を実現する。
また,DP-FTS-DEがプライバシとユーティリティのトレードオフを引き起こすことを示すために,実世界の実験も行っている。
論文 参考訳(メタデータ) (2021-10-27T04:11:06Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。