論文の概要: Secure Aggregation for Buffered Asynchronous Federated Learning
- arxiv url: http://arxiv.org/abs/2110.02177v1
- Date: Tue, 5 Oct 2021 17:07:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 16:29:24.574573
- Title: Secure Aggregation for Buffered Asynchronous Federated Learning
- Title(参考訳): バッファ付き非同期フェデレーション学習のためのセキュアアグリゲーション
- Authors: Jinhyun So, Ramy E. Ali, Ba\c{s}ak G\"uler, A. Salman Avestimehr
- Abstract要約: フェデレーテッド・ラーニング(FL)は一般的に同期トレーニングに依存している。
非同期トレーニングはストラグラーを効率的に扱うが、セキュアなアグリゲーションプロトコルと互換性がないため、プライバシを確保することはできない。
FedBuffとして知られるバッファリング非同期トレーニングプロトコルが最近提案され、同期トレーニングと非同期トレーニングのギャップを埋めて、トラグラーを緩和し、同時にプライバシーを確保する。
- 参考スコア(独自算出の注目度): 4.893896929103367
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Federated learning (FL) typically relies on synchronous training, which is
slow due to stragglers. While asynchronous training handles stragglers
efficiently, it does not ensure privacy due to the incompatibility with the
secure aggregation protocols. A buffered asynchronous training protocol known
as FedBuff has been proposed recently which bridges the gap between synchronous
and asynchronous training to mitigate stragglers and to also ensure privacy
simultaneously. FedBuff allows the users to send their updates asynchronously
while ensuring privacy by storing the updates in a trusted execution
environment (TEE) enabled private buffer. TEEs, however, have limited memory
which limits the buffer size. Motivated by this limitation, we develop a
buffered asynchronous secure aggregation (BASecAgg) protocol that does not rely
on TEEs. The conventional secure aggregation protocols cannot be applied in the
buffered asynchronous setting since the buffer may have local models
corresponding to different rounds and hence the masks that the users use to
protect their models may not cancel out. BASecAgg addresses this challenge by
carefully designing the masks such that they cancel out even if they correspond
to different rounds. Our convergence analysis and experiments show that
BASecAgg almost has the same convergence guarantees as FedBuff without relying
on TEEs.
- Abstract(参考訳): フェデレーション学習 (federated learning, fl) は通常、同期トレーニングに依存するが、ストラグラーによる学習は遅くなる。
非同期トレーニングはストラグラーを効率的に扱うが、セキュアなアグリゲーションプロトコルと互換性がないため、プライバシを確保することはできない。
FedBuffとして知られるバッファリング非同期トレーニングプロトコルが最近提案され、同期トレーニングと非同期トレーニングのギャップを埋めて、トラグラーを緩和し、同時にプライバシーを確保する。
fedbuffでは、更新を信頼された実行環境(tee)に保存することで、プライバシを確保しながら、更新を非同期に送信することができる。
しかし、TEEはバッファサイズを制限するメモリが限られている。
この制限により、我々は、TEEに依存しないバッファリング非同期セキュアアグリゲーション(BASecAgg)プロトコルを開発した。
従来のセキュアアグリゲーションプロトコルは、バッファが異なるラウンドに対応するローカルモデルを持つ可能性があるため、バッファ化された非同期設定では適用できないため、ユーザがモデルを保護するために使用するマスクはキャンセルできない。
BASecAggは、異なるラウンドに対応していてもキャンセルするようにマスクを慎重に設計することで、この問題に対処する。
我々の収束分析と実験は、BASecAggがTEEに頼ることなくFedBuffと同じ収束保証を持つことを示している。
関連論文リスト
- A Novel Buffered Federated Learning Framework for Privacy-Driven Anomaly Detection in IIoT [11.127334284392676]
異種IIoT環境における異常検出のための同相暗号を利用したバッファリングFL(BFL)フレームワークを提案する。
BFLは、トラグラー効果と通信ボトルネックの両方を軽減するために、新しい重み付き平均時間アプローチを利用する。
その結果, 最先端FL法と比較してBFLの方が優れ, 精度と収束速度が向上した。
論文 参考訳(メタデータ) (2024-08-16T13:01:59Z) - Privacy Preserving Semi-Decentralized Mean Estimation over Intermittently-Connected Networks [59.43433767253956]
信頼できない無線ネットワークの異なるノードに分散するベクトルの平均をプライベートに推定する問題を考える。
半分散的なセットアップでは、ノードは隣人と協力してローカルコンセンサスを計算し、中央サーバにリレーする。
ノード間のデータ共有による協調中継とプライバシー漏洩のトレードオフについて検討する。
論文 参考訳(メタデータ) (2024-06-06T06:12:15Z) - Buffered Asynchronous Secure Aggregation for Cross-Device Federated Learning [16.682175699793635]
本稿ではバッファ型非同期セキュアアグリゲーション(BASA)という新しいセキュアアグリゲーションプロトコルを提案する。
BASAはAFLと完全に互換性があり、各ユーザがユーザ間の同期通信に頼ることなく、サーバとの1ラウンドの通信しか必要としないという条件の下でセキュアなアグリゲーションを提供する。
BASAに基づいてハードウェアに余分な要求を伴わずにセキュアなアグリゲーションを実現する最初のAFL法を提案する。
論文 参考訳(メタデータ) (2024-06-05T16:39:32Z) - FedFa: A Fully Asynchronous Training Paradigm for Federated Learning [14.4313600357833]
フェデレートラーニング(Federated Learning)は、多数のデバイス上で機械学習モデルのトレーニングをスケールするための、効率的な分散トレーニングパラダイムである。
近年の最先端のソリューションでは,半非同期アプローチを用いて収束の保証による待ち時間コストの軽減が提案されている。
我々はFedFaと呼ばれる完全な非同期トレーニングパラダイムを提案し、モデル収束を保証し、待ち時間を完全に排除できる。
論文 参考訳(メタデータ) (2024-04-17T02:46:59Z) - Differentially Private Wireless Federated Learning Using Orthogonal
Sequences [56.52483669820023]
本稿では,FLORAS と呼ばれる AirComp 法を提案する。
FLORASはアイテムレベルとクライアントレベルの差分プライバシー保証の両方を提供する。
新たなFL収束バウンダリが導出され、プライバシー保証と組み合わせることで、達成された収束率と差分プライバシーレベルのスムーズなトレードオフが可能になる。
論文 参考訳(メタデータ) (2023-06-14T06:35:10Z) - ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated
Learning Based on Coded Computing and Vector Commitment [90.60126724503662]
ByzSecAggは、フェデレートラーニングのための効率的なセキュアアグリゲーションスキームである。
ByzSecAggは、ビザンツの攻撃やプライバシーの漏洩から保護されている。
論文 参考訳(メタデータ) (2023-02-20T11:15:18Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Unbounded Gradients in Federated Leaning with Buffered Asynchronous
Aggregation [0.6526824510982799]
textitFedBuffアルゴリズムは、セキュアなアグリゲーションを通じてプライバシを保持しながら非同期更新を可能にする。
本稿では,データの不均一性,バッチサイズ,遅延を考慮したアルゴリズムの収束率に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-10-03T18:20:48Z) - Semi-Synchronous Personalized Federated Learning over Mobile Edge
Networks [88.50555581186799]
我々は,モバイルエッジネットワーク上での半同期パーソナライズフェデレーション(PerFedS$2$)と呼ばれる半同期PFLアルゴリズムを提案する。
我々は、グローバルラウンド当たりの参加者数とラウンド数の観点から、PerFedS2の収束率の上限を導出する。
PerFedS2はトレーニング時間を節約し、トレーニング損失の収束を保証する。
論文 参考訳(メタデータ) (2022-09-27T02:12:43Z) - Federated Learning with Buffered Asynchronous Aggregation [0.7327285556439885]
Federated Learning (FL)は、トレーニングデータをデバイス上に保持しながら、分散デバイス間で共有モデルをトレーニングする。
ほとんどのFLスキームは同期であり、個々のデバイスからモデル更新を集約する。
同期FLと非同期FLを組み合わせたFedBuffを提案する。
論文 参考訳(メタデータ) (2021-06-11T23:29:48Z) - Harnessing Wireless Channels for Scalable and Privacy-Preserving
Federated Learning [56.94644428312295]
無線接続は、フェデレートラーニング(FL)の実現に有効である
Channel randomnessperturbs 各ワーカはモデル更新をインバージョンし、複数のワーカはバンド幅に大きな干渉を発生させる。
A-FADMMでは、すべてのワーカーがモデル更新をアナログ送信を介して単一のチャンネルを使用してパラメータサーバにアップロードする。
これは通信帯域幅を節約するだけでなく、各ワーカーの正確なモデル更新軌跡を任意の盗聴者から隠蔽する。
論文 参考訳(メタデータ) (2020-07-03T16:31:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。