論文の概要: SwiftAgg+: Achieving Asymptotically Optimal Communication Load in Secure
Aggregation for Federated Learning
- arxiv url: http://arxiv.org/abs/2203.13060v1
- Date: Thu, 24 Mar 2022 13:12:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 15:25:34.352179
- Title: SwiftAgg+: Achieving Asymptotically Optimal Communication Load in Secure
Aggregation for Federated Learning
- Title(参考訳): swiftagg+: フェデレーション学習のためのセキュアアグリゲーションにおける漸近的最適通信負荷の実現
- Authors: Tayyebeh Jahani-Nezhad, Mohammad Ali Maddah-Ali, Songze Li, Giuseppe
Caire
- Abstract要約: SwiftAgg+は、フェデレーション学習システムのための新しいセキュアアグリゲーションプロトコルである。
中央サーバは、分散ユーザである$NinmathbbN$のローカルモデルを集約する。
- 参考スコア(独自算出の注目度): 83.94234859890402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose SwiftAgg+, a novel secure aggregation protocol for federated
learning systems, where a central server aggregates local models of
$N\in\mathbb{N}$ distributed users, each of size $L \in \mathbb{N}$, trained on
their local data, in a privacy-preserving manner. SwiftAgg+ can significantly
reduce the communication overheads without any compromise on security, and
achieve the optimum communication load within a diminishing gap. Specifically,
in presence of at most $D$ dropout users, SwiftAgg+ achieves average per-user
communication load of $(1+\mathcal{O}(\frac{1}{N}))L$ and the server
communication load of $(1+\mathcal{O}(\frac{1}{N}))L$, with a worst-case
information-theoretic security guarantee, against any subset of up to $T$
semi-honest users who may also collude with the curious server. The proposed
SwiftAgg+ has also a flexibility to reduce the number of active communication
links at the cost of increasing the the communication load between the users
and the server. In particular, for any $K\in\mathbb{N}$, SwiftAgg+ can achieve
the uplink communication load of $(1+\frac{T}{K})L$, and per-user communication
load of up to $(1-\frac{1}{N})(1+\frac{T+D}{K})L$, where the number of
pair-wise active connections in the network is $\frac{N}{2}(K+T+D+1)$.
- Abstract(参考訳): 我々は,フェデレーション学習システムのための新しいセキュアアグリゲーションプロトコルであるSwiftAgg+を提案する。このプロトコルでは,中央サーバが分散ユーザである$N\in\mathbb{N}$のローカルモデルを集約し,各サイズが$L \in \mathbb{N}$のローカルデータをプライバシ保護形式でトレーニングする。
SwiftAgg+はセキュリティを損なうことなく通信オーバーヘッドを大幅に削減し、ギャップを減らして最適な通信負荷を実現する。
具体的には、少なくとも$D$のドロップアウトユーザが存在する場合、SwiftAgg+はユーザ毎の平均的な通信負荷が$(1+\mathcal{O}(\frac{1}{N}))L$とサーバ間の通信負荷が$(1+\mathcal{O}(\frac{1}{N}))L$で、最悪のケース情報理論上のセキュリティ保証がある。
提案するswiftagg+は,ユーザとサーバ間の通信負荷の増加を犠牲にして,アクティブな通信リンク数を削減する柔軟性も備えている。
特に、$K\in\mathbb{N}$の場合、SwiftAgg+は$(1+\frac{T}{K})L$のアップリンク通信負荷と$(1-\frac{1}{N})(1+\frac{T+D}{K})L$のユーザ毎通信負荷を達成できる。
関連論文リスト
- Asynchronous Approximate Agreement with Quadratic Communication [23.27199615640474]
非同期ネットワークは$n$のメッセージ送信パーティで、そのうちの最大$t$はビザンチンです。
本研究では,入力の凸内積にほぼ等しい出力が得られるような近似一致について検討する。
これは、信頼できるブロードキャスト毎に$Theta(n2)$メッセージ、またはイテレーション毎に$Theta(n3)$メッセージを取る。
論文 参考訳(メタデータ) (2024-08-10T09:03:06Z) - Cooperative Multi-Agent Reinforcement Learning: Asynchronous
Communication and Linear Function Approximation [77.09836892653176]
マルコフ決定過程の設定におけるマルチエージェント強化学習について検討した。
本稿では非同期通信が可能な値に基づく証明可能な効率的なアルゴリズムを提案する。
我々は、コラボレーションによってパフォーマンスを改善するために、最小の$Omega(dM)$通信の複雑さが必要であることを示す。
論文 参考訳(メタデータ) (2023-05-10T20:29:29Z) - A Simple and Provably Efficient Algorithm for Asynchronous Federated
Contextual Linear Bandits [77.09836892653176]
我々は,M$エージェントが相互に協力して,中央サーバの助けを借りて,グローバルなコンテキスト線形バンドイット問題を解決するためのフェデレーション付きコンテキスト線形バンドイットについて検討した。
すべてのエージェントが独立して動作し、ひとつのエージェントとサーバ間の通信が他のエージェントの通信をトリガーしない非同期設定を考える。
texttFedLinUCBの後悔は$tildeO(dsqrtsum_m=1M T_m)$で、通信の複雑さは$tildeO(dM)であることを示す。
論文 参考訳(メタデータ) (2022-07-07T06:16:19Z) - SwiftAgg: Communication-Efficient and Dropout-Resistant Secure
Aggregation for Federated Learning with Worst-Case Security Guarantees [83.94234859890402]
我々は,フェデレート学習システムのための新しいセキュアアグリゲーションプロトコルSwiftAggを提案する。
中央サーバは、ローカルデータに基づいてトレーニングされた、$N$の分散ユーザのローカルモデルを集約する。
SwiftAggは、セキュリティ上の妥協なしに、通信オーバーヘッドを大幅に削減する。
論文 参考訳(メタデータ) (2022-02-08T22:08:56Z) - Coordinated Attacks against Contextual Bandits: Fundamental Limits and
Defense Mechanisms [75.17357040707347]
オンラインレコメンデーションシステムによってモチベーションされた我々は,文脈的包帯における最適政策の発見問題を提案する。
目標は、優れたユーザに対する報酬を可能な限り少ないユーザインタラクションで最大化するポリシーを、しっかりと学習することだ。
効率的なロバストな平均推定器を用いることで、$tildeO(min(S,A)cdot alpha/epsilon2)$ upper-boundを実現できることを示す。
論文 参考訳(メタデータ) (2022-01-30T01:45:13Z) - FedPAGE: A Fast Local Stochastic Gradient Method for
Communication-Efficient Federated Learning [21.055643409860743]
Averaging(FedAvg、またはLocal-SGD)は、クライアントが複数のローカルSGDステップを実行して、アップデートをオーケストレーションサーバに通信する、古典的なフェデレーション学習である。
本稿では,新しいフェデレーション学習アルゴリズムであるFedAvgを提案する。
論文 参考訳(メタデータ) (2021-08-10T15:41:27Z) - Communication-efficient SGD: From Local SGD to One-Shot Averaging [16.00658606157781]
複数の作業者に対して並列化することで,勾配降下(SGD)の高速化を検討する。
そこで本研究では,反復数の増加に伴って通信頻度を小さくすることで,全体の通信を減らし,局所的なSGD方式を提案する。
論文 参考訳(メタデータ) (2021-06-09T01:10:34Z) - Information Theoretic Secure Aggregation with User Dropouts [56.39267027829569]
サーバは、複数のユーザの入力の総和のみを学習したいが、一部のユーザはドロップアウトする(つまり、応答しないかもしれない)。
セキュアアグリゲーションの以下の最小2ラウンドモデルを検討する。
論文 参考訳(メタデータ) (2021-01-19T17:43:48Z) - Federated Bandit: A Gossiping Approach [22.595542913855624]
我々は、分散化されたマルチアーマッド・バンドイット問題であるemphFederated Banditを、$N$エージェントのセットで研究し、接続グラフ$G$で記述された隣人とのみローカルデータを通信できる。
Gossip_UCBは、ローカルな帯域学習をグローバルなゴシッププロセスに適応させ、接続されたエージェント間で情報を共有し、$O(max textttpoly(N,M) log T, textttpoly(N,M) log_lambda-1の順序で後悔を保証できることを示す。
論文 参考訳(メタデータ) (2020-10-24T03:44:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。