論文の概要: LightSecAgg: Rethinking Secure Aggregation in Federated Learning
- arxiv url: http://arxiv.org/abs/2109.14236v1
- Date: Wed, 29 Sep 2021 07:19:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 23:15:56.129912
- Title: LightSecAgg: Rethinking Secure Aggregation in Federated Learning
- Title(参考訳): lightsecagg: 連合学習におけるセキュアアグリゲーション再考
- Authors: Chien-Sheng Yang, Jinhyun So, Chaoyang He, Songze Li, Qian Yu, Salman
Avestimehr
- Abstract要約: 我々はLightSecAggが最先端プロトコルと同じプライバシとフォールアウト・レジリエンスの保証を実現していることを示す。
また、LightSecAggはトレーニング時間を大幅に短縮し、パフォーマンスが最大で12.7タイムsのベースラインでのパフォーマンス向上を実現しています。
- 参考スコア(独自算出の注目度): 24.834891926133594
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Secure model aggregation is a key component of federated learning (FL) that
aims at protecting the privacy of each user's individual model, while allowing
their global aggregation. It can be applied to any aggregation-based
approaches, including algorithms for training a global model, as well as
personalized FL frameworks. Model aggregation needs to also be resilient to
likely user dropouts in FL system, making its design substantially more
complex. State-of-the-art secure aggregation protocols essentially rely on
secret sharing of the random-seeds that are used for mask generations at the
users, in order to enable the reconstruction and cancellation of those
belonging to dropped users. The complexity of such approaches, however, grows
substantially with the number of dropped users. We propose a new approach,
named LightSecAgg, to overcome this bottleneck by turning the focus from
"random-seed reconstruction of the dropped users" to "one-shot aggregate-mask
reconstruction of the active users". More specifically, in LightSecAgg each
user protects its local model by generating a single random mask. This mask is
then encoded and shared to other users, in such a way that the aggregate-mask
of any sufficiently large set of active users can be reconstructed directly at
the server via encoded masks. We show that LightSecAgg achieves the same
privacy and dropout-resiliency guarantees as the state-of-the-art protocols,
while significantly reducing the overhead for resiliency to dropped users.
Furthermore, our system optimization helps to hide the runtime cost of offline
processing by parallelizing it with model training. We evaluate LightSecAgg via
extensive experiments for training diverse models on various datasets in a
realistic FL system, and demonstrate that LightSecAgg significantly reduces the
total training time, achieving a performance gain of up to $12.7\times$ over
baselines.
- Abstract(参考訳): セキュアモデルアグリゲーションは、各ユーザの個々のモデルのプライバシを保護すると同時に、グローバルアグリゲーションを可能にすることを目的とした、連邦学習(FL)の重要なコンポーネントである。
グローバルモデルをトレーニングするためのアルゴリズムや、パーソナライズされたFLフレームワークなど、アグリゲーションベースのアプローチにも適用可能だ。
モデルアグリゲーションは、FLシステムのユーザドロップアウトに対する耐性も必要であり、その設計をかなり複雑にする必要があります。
最先端のセキュアアグリゲーションプロトコルは、本質的には、削除されたユーザに属するユーザの復元とキャンセルを可能にするために、マスク世代に使用されるランダムシードの秘密共有に依存している。
しかし、こうしたアプローチの複雑さは、ユーザの減少によって大きく増加する。
我々はlightsecaggという新しいアプローチを提案し、このボトルネックを克服すべく、焦点を「ドロップしたユーザーをランダムにシードした再構築」から「アクティブユーザーのワンショットアグリゲートマスク復元」へと転換した。
具体的には、LightSecAggでは、各ユーザが単一のランダムマスクを生成してローカルモデルを保護します。
そして、このマスクを他のユーザにエンコードして共有し、十分な数のアクティブなユーザの集合マスクを直接、エンコードされたマスクを介してサーバに直接再構築することができる。
我々は、LightSecAggが最先端プロトコルと同じプライバシとドロップアウト・レジリエンスを保証すると同時に、ドロップユーザに対するレジリエンスのオーバーヘッドを大幅に削減することを示す。
さらに,システム最適化は,モデルトレーニングと並列化することで,オフライン処理のランタイムコストを隠蔽する。
現実的なFLシステムにおいて、様々なデータセット上で様々なモデルのトレーニングを行うための広範な実験を通じてLightSecAggを評価し、LightSecAggがトレーニング時間を大幅に短縮し、最大12.7\times$ベースラインでのパフォーマンス向上を実現していることを示す。
関連論文リスト
- ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - Achieving Byzantine-Resilient Federated Learning via Layer-Adaptive Sparsified Model Aggregation [7.200910949076064]
フェデレートラーニング(FL)は、複数のクライアントがローカルデータを共有せずに、協調的にモデルをトレーニングすることを可能にする。
しかし、FLシステムは、悪質なモデルの更新をアップロードすることでモデルのトレーニングプロセスを妨害することを目的とした、よく設計されたByzantine攻撃に対して脆弱である。
本稿では,階層的適応アグリゲーションと事前アグリゲーション・スパリフィケーションを組み合わせたLayer-Adaptive Sparsified Model Aggregation(LASA)手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T19:28:35Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Guaranteeing Data Privacy in Federated Unlearning with Dynamic User Participation [21.07328631033828]
フェデレート・アンラーニング(FU)は、訓練されたグローバルなFLモデルから、フェデレート・ラーニング(FL)ユーザーのデータの影響を排除できる。
単純なFUメソッドでは、未学習のユーザを削除し、その後、残りのすべてのユーザとスクラッチから新しいグローバルFLモデルを再トレーニングする。
本稿では、動的ユーザ参加を効果的に管理しつつ、プライバシを確保することを目的とした、プライバシ保護のためのFUフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-03T03:39:07Z) - Scale-MIA: A Scalable Model Inversion Attack against Secure Federated
Learning via Latent Space Reconstruction [26.9559481641707]
フェデレーション学習は、参加者のデータプライバシを保護する能力で知られている。
最近出現したモデル反転攻撃 (MIA) は、悪意のあるパラメータサーバが、モデルの更新によって個々のユーザーのローカルデータサンプルを再構築できることを示した。
本報告では,クライアントのトレーニングサンプルを,集約された更新から効率よく,かつ正確に回収できる新しいMIAであるScale-MIAを提案する。
論文 参考訳(メタデータ) (2023-11-10T00:53:22Z) - Federated Learning Under Restricted User Availability [3.0846824529023387]
ユーザの不均一な可用性や参加は、悪影響や環境のために避けられない。
本稿では,頻度の低いユーザや制限されたユーザによるデータへの制限的参加を効果的に捉え,緩和するFL問題の新たな定式化を提案する。
提案手法は, 標準FLと比較して, 性能が有意に向上したことを示す。
論文 参考訳(メタデータ) (2023-09-25T14:40:27Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Subspace based Federated Unlearning [75.90552823500633]
フェデレート・アンラーニング(FL)は、ユーザが忘れられる権利を満たすために、特定のターゲットクライアントのFLへの貢献を取り除くことを目的としている。
既存のフェデレートされた未学習アルゴリズムでは、パラメータの更新履歴をサーバに格納する必要がある。
そこで我々は,SFUと呼ばれる,単純なyet効率のサブスペースに基づくフェデレーションアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-02-24T04:29:44Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。