論文の概要: Secure Aggregation for Federated Learning in Flower
- arxiv url: http://arxiv.org/abs/2205.06117v1
- Date: Thu, 12 May 2022 14:31:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 18:29:27.935745
- Title: Secure Aggregation for Federated Learning in Flower
- Title(参考訳): 花の連合学習のためのセキュアアグリゲーション
- Authors: Kwing Hei Li, Pedro Porto Buarque de Gusm\~ao, Daniel J. Beutel,
Nicholas D. Lane
- Abstract要約: フェデレートラーニング(FL)は、トレーニング計算をクライアントに委譲することで、共用予測モデルを学ぶことを可能にする。
セキュアアグリゲーション(SA)プロトコルは、サーバが個々のトレーニングされたモデルをアグリゲーションする際に検査できないことを保証するために使用される。
本稿では、Flower FLフレームワークでPythonユーザ向けのSAの実装であるSalviaを紹介する。
- 参考スコア(独自算出の注目度): 8.537997283673997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) allows parties to learn a shared prediction model by
delegating the training computation to clients and aggregating all the
separately trained models on the server. To prevent private information being
inferred from local models, Secure Aggregation (SA) protocols are used to
ensure that the server is unable to inspect individual trained models as it
aggregates them. However, current implementations of SA in FL frameworks have
limitations, including vulnerability to client dropouts or configuration
difficulties.
In this paper, we present Salvia, an implementation of SA for Python users in
the Flower FL framework. Based on the SecAgg(+) protocols for a semi-honest
threat model, Salvia is robust against client dropouts and exposes a flexible
and easy-to-use API that is compatible with various machine learning
frameworks. We show that Salvia's experimental performance is consistent with
SecAgg(+)'s theoretical computation and communication complexities.
- Abstract(参考訳): federated learning (fl)は、クライアントにトレーニング計算を委譲し、サーバ上で個別にトレーニングされたすべてのモデルを集約することで、共有予測モデルを学ぶことができる。
ローカルモデルからプライベート情報が推測されるのを防ぐため、セキュリティ集約(SA)プロトコルは、サーバが個別にトレーニングされたモデルを集約して検査できないことを保証するために使用される。
しかし、現在のflフレームワークにおけるsaの実装には、クライアントのドロップアウトに対する脆弱性や設定の困難など、制限がある。
本稿では、Flower FLフレームワークにおけるPythonユーザ向けSAの実装であるSalviaについて述べる。
半正直な脅威モデルのためのSecAgg(+)プロトコルに基づいて、Salviaはクライアントのドロップアウトに対して堅牢であり、さまざまな機械学習フレームワークと互換性のあるフレキシブルで使いやすいAPIを公開する。
本稿では、Salviaの実験性能がSecAgg(+)の理論計算と通信複雑性と一致することを示す。
- 全文 参考訳へのリンク
関連論文リスト
- Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients [98.22390453672499]
Supervised Federated Learning (FL)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有することを可能にする。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントのラベル付きデータにラベル付きデータを変換する。
論文 参考訳(メタデータ) (2022-04-07T09:12:00Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning [0.0]
我々は、N-party Federated Learningのための最初のブロックチェーンベースのフレームワークBEASを紹介する。
グラデーションプルーニングを使用したトレーニングデータの厳格なプライバシー保証を提供する。
異常検出プロトコルは、データ汚染攻撃のリスクを最小限に抑えるために使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
論文 参考訳(メタデータ) (2022-02-06T17:11:14Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Practical and Light-weight Secure Aggregation for Federated Submodel
Learning [9.996335306548387]
本稿では,実用的で軽量なフェデレート・サブモデル学習手法を提案する。
我々は分散ポイント関数(DPF)とカッコウハッシュを用いてスキームを構築する。
提案プロトコルは,重量が$leq 215$である場合,1分以内で終了できる。
論文 参考訳(メタデータ) (2021-11-02T08:47:27Z) - UnSplit: Data-Oblivious Model Inversion, Model Stealing, and Label
Inference Attacks Against Split Learning [0.0]
Split Learningフレームワークは、モデルをクライアントとサーバ間で分割することを目的としている。
分割学習パラダイムは深刻なセキュリティリスクを生じさせ,セキュリティの誤った感覚以上のものを提供しないことを示す。
論文 参考訳(メタデータ) (2021-08-20T07:39:16Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。