論文の概要: Sparsified Secure Aggregation for Privacy-Preserving Federated Learning
- arxiv url: http://arxiv.org/abs/2112.12872v1
- Date: Thu, 23 Dec 2021 22:44:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 17:52:41.918209
- Title: Sparsified Secure Aggregation for Privacy-Preserving Federated Learning
- Title(参考訳): プライバシ保護フェデレーション学習のためのスパシファイドセキュアアグリゲーション
- Authors: Irem Ergun, Hasin Us Sami, Basak Guler
- Abstract要約: セキュアアグリゲーションのための軽量な勾配スペーシフィケーションフレームワークを提案する。
提案手法は,セキュアアグリゲーションの通信オーバヘッドを大幅に低減できることを示す。
実験により,従来のセキュアなベンチマークと比較すると,我々のフレームワークは通信オーバーヘッドを最大7.8倍削減し,壁時計のトレーニング時間を1.13倍短縮することを示した。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Secure aggregation is a popular protocol in privacy-preserving federated
learning, which allows model aggregation without revealing the individual
models in the clear. On the other hand, conventional secure aggregation
protocols incur a significant communication overhead, which can become a major
bottleneck in real-world bandwidth-limited applications. Towards addressing
this challenge, in this work we propose a lightweight gradient sparsification
framework for secure aggregation, in which the server learns the aggregate of
the sparsified local model updates from a large number of users, but without
learning the individual parameters. Our theoretical analysis demonstrates that
the proposed framework can significantly reduce the communication overhead of
secure aggregation while ensuring comparable computational complexity. We
further identify a trade-off between privacy and communication efficiency due
to sparsification. Our experiments demonstrate that our framework reduces the
communication overhead by up to 7.8x, while also speeding up the wall clock
training time by 1.13x, when compared to conventional secure aggregation
benchmarks.
- Abstract(参考訳): セキュアアグリゲーションは、プライバシ保存型フェデレーション学習で一般的なプロトコルであり、個々のモデルを明確化することなくモデルアグリゲーションを可能にする。
一方,従来のセキュアアグリゲーションプロトコルでは通信オーバーヘッドが大きくなり,実際の帯域幅制限アプリケーションでは大きなボトルネックとなる可能性がある。
この課題に対処するために,本研究では,サーバが多数のユーザから,個々のパラメータを学習することなく,分散したローカルモデル更新の集合を学習する,セキュアアグリゲーションのための軽量な勾配スペーシフィケーションフレームワークを提案する。
理論的解析により,提案フレームワークは,計算複雑性を保証しながら,セキュアアグリゲーションの通信オーバーヘッドを大幅に低減できることを示した。
我々はさらに、プライバシーと通信効率とのトレードオフをスパーシフィケーションによって特定する。
実験により,従来のセキュアなベンチマークと比較すると,我々のフレームワークは通信オーバーヘッドを最大7.8倍削減し,壁時計のトレーニング時間を1.13倍短縮することを示した。
関連論文リスト
- PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - FedMPQ: Secure and Communication-Efficient Federated Learning with Multi-codebook Product Quantization [12.83265009728818]
本稿では,フェデレート学習のための新しいアップリンク通信圧縮手法であるFedMPQを提案する。
従来の研究とは対照的に,本手法では,データが独立かつ同一に分散されていないシナリオにおいて,より堅牢性を示す。
LEAFデータセットを用いて実験を行った結果,提案手法はベースラインの最終精度の99%を達成できた。
論文 参考訳(メタデータ) (2024-04-21T08:27:36Z) - Scalable Federated Unlearning via Isolated and Coded Sharding [76.12847512410767]
フェデレートされたアンラーニングは、クライアントレベルのデータエフェクトを削除するための有望なパラダイムとして登場した。
本稿では,分散シャーディングと符号化コンピューティングに基づく,スケーラブルなフェデレーション・アンラーニング・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T08:41:45Z) - Efficient and Secure Federated Learning for Financial Applications [15.04345368582332]
本稿では,フェデレート学習における通信コスト削減のための2つのスペーシング手法を提案する。
1つは、モデルパラメータ更新のための時間変化の階層的スペーシフィケーション法であり、高比のスペーシリティ後のモデル精度を維持する問題の解決である。
もう1つは、セキュアアグリゲーションフレームワークにスパシフィケーション手法を適用することである。
論文 参考訳(メタデータ) (2023-03-15T04:15:51Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Privacy-preserving Decentralized Aggregation for Federated Learning [3.9323226496740733]
フェデレーション学習は、複数のリージョンにまたがる分散データを学習するための有望なフレームワークである。
我々は,連合学習のためのプライバシ保存型分散集約プロトコルを開発した。
9 と 15 の分散サイトを持つベンチマークデータセットを用いて,画像分類と次単語予測のアルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2020-12-13T23:45:42Z) - Efficient Sparse Secure Aggregation for Federated Learning [0.20052993723676896]
我々は,圧縮に基づくフェデレーション手法を付加的な秘密共有に適用し,効率的なセキュアなアグリゲーションプロトコルを実現する。
悪意のある敵に対するプライバシーの証明と、半正直な設定でその正しさを証明します。
セキュアアグリゲーションに関する従来の研究と比較すると、我々のプロトコルは通信コストが低く、同じ精度で適用可能なコストがかかる。
論文 参考訳(メタデータ) (2020-07-29T14:28:30Z) - Concentrated Differentially Private and Utility Preserving Federated
Learning [24.239992194656164]
フェデレーション・ラーニング(Federated Learning)とは、エッジデバイスのセットが、中央サーバのオーケストレーションの下でモデルを協調的にトレーニングする、機械学習環境である。
本稿では,モデルユーティリティの劣化を伴わずに,プライバシ問題に対処するフェデレーション学習手法を開発する。
このアプローチのエンドツーエンドのプライバシ保証を厳格に提供し、理論的収束率を分析します。
論文 参考訳(メタデータ) (2020-03-30T19:20:42Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。