論文の概要: CodedPaddedFL and CodedSecAgg: Straggler Mitigation and Secure
Aggregation in Federated Learning
- arxiv url: http://arxiv.org/abs/2112.08909v1
- Date: Thu, 16 Dec 2021 14:26:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 16:57:08.271279
- Title: CodedPaddedFL and CodedSecAgg: Straggler Mitigation and Secure
Aggregation in Federated Learning
- Title(参考訳): codedpaddedflとcodedsecagg:フェデレーション学習におけるストラグラー緩和とセキュアアグリゲーション
- Authors: Reent Schlegel, Siddhartha Kumar, Eirik Rosnes, Alexandre Graell i
Amat
- Abstract要約: 本稿では, 階層化デバイスの効果を緩和する線形回帰のための2つの新しい符号付きフェデレーションラーニング手法を提案する。
最初のスキームであるCodedPaddedFLは、従来のFLのプライバシレベルを維持しながら、ストラグリングデバイスの効果を緩和する。
第2のスキームであるCodedSecAggは、モデル反転攻撃に対するストラグラーレジリエンスと堅牢性を提供する。
- 参考スコア(独自算出の注目度): 86.98177890676077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present two novel coded federated learning (FL) schemes for linear
regression that mitigate the effect of straggling devices. The first scheme,
CodedPaddedFL, mitigates the effect of straggling devices while retaining the
privacy level of conventional FL. Particularly, it combines one-time padding
for user data privacy with gradient codes to yield resiliency against
straggling devices. To apply one-time padding to real data, our scheme exploits
a fixed-point arithmetic representation of the data. For a scenario with 25
devices, CodedPaddedFL achieves a speed-up factor of 6.6 and 9.2 for an
accuracy of 95\% and 85\% on the MMIST and Fashion-MNIST datasets,
respectively, compared to conventional FL. Furthermore, it yields similar
performance in terms of latency compared to a recently proposed scheme by
Prakash \emph{et al.} without the shortcoming of additional leakage of private
data. The second scheme, CodedSecAgg, provides straggler resiliency and
robustness against model inversion attacks and is based on Shamir's secret
sharing. CodedSecAgg outperforms state-of-the-art secure aggregation schemes
such as LightSecAgg by a speed-up factor of 6.6--14.6, depending on the number
of colluding devices, on the MNIST dataset for a scenario with 120 devices, at
the expense of a 30\% increase in latency compared to CodedPaddedFL.
- Abstract(参考訳): 本稿では,線形回帰のための2つの新しい符号化型フェデレート学習(fl)スキームを提案し,ストラグリングデバイスの効果を緩和する。
最初のスキームであるCodedPaddedFLは、従来のFLのプライバシレベルを維持しながら、ストラグリングデバイスの効果を緩和する。
特に、ユーザデータのプライバシのためのワンタイムパディングと勾配コードを組み合わせることで、ストラグリングデバイスに対するレジリエンスを得る。
実データにワンタイムパディングを適用するため,本方式ではデータの固定点算術表現を利用する。
25のデバイスを持つシナリオでは、CodedPaddedFLは従来のFLと比較して、MMISTデータセットとFashion-MNISTデータセットの95%と85の精度で6.6と9.2のスピードアップ係数を達成する。
さらに、Prakash \emph{et al.comが最近提案したスキームと比較すると、レイテンシに関して同様のパフォーマンスが得られる。
プライベートデータの漏えいを未然に防ぐことができる。
第2のスキームであるcodedsecaggは、モデル反転攻撃に対するストラグラーのレジリエンスと堅牢性を提供し、shamirの秘密共有に基づいている。
codedsecaggは、120台のデバイスからなるシナリオのmnistデータセットにおいて、codedpaddedflと比較してレイテンシが30%増加するという犠牲を犠牲にして、結束デバイス数に応じて、lightsecaggのような最先端のセキュアアグリゲーションスキームを6.6--14.6のスピードアップ係数で上回っている。
関連論文リスト
- A Novel Buffered Federated Learning Framework for Privacy-Driven Anomaly Detection in IIoT [11.127334284392676]
異種IIoT環境における異常検出のための同相暗号を利用したバッファリングFL(BFL)フレームワークを提案する。
BFLは、トラグラー効果と通信ボトルネックの両方を軽減するために、新しい重み付き平均時間アプローチを利用する。
その結果, 最先端FL法と比較してBFLの方が優れ, 精度と収束速度が向上した。
論文 参考訳(メタデータ) (2024-08-16T13:01:59Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - ScionFL: Efficient and Robust Secure Quantized Aggregation [36.668162197302365]
我々は,フェデレートラーニングのための最初のセキュアアグリゲーションフレームワークであるScionFLを紹介する。
量子化された入力で効率的に動作し、同時に悪意のあるクライアントに対して堅牢性を提供する。
クライアントのオーバーヘッドがなく、サーバのオーバーヘッドも緩やかなため、標準的なFLベンチマークに匹敵する精度が得られます。
論文 参考訳(メタデータ) (2022-10-13T21:46:55Z) - Semi-Synchronous Personalized Federated Learning over Mobile Edge
Networks [88.50555581186799]
我々は,モバイルエッジネットワーク上での半同期パーソナライズフェデレーション(PerFedS$2$)と呼ばれる半同期PFLアルゴリズムを提案する。
我々は、グローバルラウンド当たりの参加者数とラウンド数の観点から、PerFedS2の収束率の上限を導出する。
PerFedS2はトレーニング時間を節約し、トレーニング損失の収束を保証する。
論文 参考訳(メタデータ) (2022-09-27T02:12:43Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z) - Sparse Federated Learning with Hierarchical Personalized Models [24.763028713043468]
フェデレートラーニング(FL)は、ユーザのプライベートデータを収集することなく、プライバシセーフで信頼性の高い協調トレーニングを実現する。
階層型パーソナライズされたモデルを用いたスパースフェデレーション学習(sFedHP)という,モロー包絡に基づく階層型近位写像を用いたパーソナライズされたFLアルゴリズムを提案する。
また、連続的に微分可能な近似L1ノルムをスパース制約として使用して通信コストを低減させる。
論文 参考訳(メタデータ) (2022-03-25T09:06:42Z) - Coding for Straggler Mitigation in Federated Learning [86.98177890676077]
提案手法は,プライバシと勾配コードを保存するために1回パディングを組み合わせることで,ストラグラーに対する抵抗性を向上する。
提案手法は,MNISTデータセットとFashion-MNISTデータセットのトレーニングスピードアップ係数が6.6ドルと9.2ドルであり,それぞれ95%と85%であることを示す。
論文 参考訳(メタデータ) (2021-09-30T15:53:35Z) - Fast Federated Learning in the Presence of Arbitrary Device
Unavailability [26.368873771739715]
Federated Learning (FL)は異種デバイスをコーディネートして、ユーザのプライバシを維持しながら共有モデルを協調的にトレーニングする。
ひとつの課題は、デバイスが中央サーバ以外のトレーニングプロセスから外れることだ。
我々はこの問題を解決するためにIm Federated A patientaging (MIFA)を提案する。
論文 参考訳(メタデータ) (2021-06-08T07:46:31Z) - XOR Mixup: Privacy-Preserving Data Augmentation for One-Shot Federated
Learning [49.130350799077114]
我々は、XorMixupという、プライバシー保護のためのXORベースのミックスアップデータ拡張技術を開発した。
中心となる考え方は、各デバイスのデータサンプルのみを使用してデコードされた、他のデバイスのエンコードされたデータサンプルを収集することである。
XorMixFLは、非IID MNISTデータセットの下で、Vanilla FLよりも最大17.6%高い精度を達成する。
論文 参考訳(メタデータ) (2020-06-09T09:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。