論文の概要: ScionFL: Secure Quantized Aggregation for Federated Learning
- arxiv url: http://arxiv.org/abs/2210.07376v1
- Date: Thu, 13 Oct 2022 21:46:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 18:22:32.784820
- Title: ScionFL: Secure Quantized Aggregation for Federated Learning
- Title(参考訳): ScionFL: フェデレートラーニングのためのセキュアな量子化集約
- Authors: Yaniv Ben-Itzhak, Helen M\"ollering, Benny Pinkas, Thomas Schneider,
Ajith Suresh, Oleksandr Tkachenko, Shay Vargaftik, Christian Weinert, Hossein
Yalame, Avishay Yanai
- Abstract要約: 量子化技術は一般的に、クライアントとサーバ間の通信を32倍に減らすことができる。
我々は、最先端の未標的の毒殺攻撃を効果的に防御するセキュアな定量化集約フレームワークの効率的な拡張を提案する。
- 参考スコア(独自算出の注目度): 44.69902593901196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy concerns in federated learning (FL) are commonly addressed with
secure aggregation schemes that prevent a central party from observing
plaintext client updates. However, most such schemes neglect orthogonal FL
research that aims at reducing communication between clients and the aggregator
and is instrumental in facilitating cross-device FL with thousands and even
millions of (mobile) participants. In particular, quantization techniques can
typically reduce client-server communication by a factor of 32x.
In this paper, we unite both research directions by introducing an efficient
secure aggregation framework based on outsourced multi-party computation (MPC)
that supports any linear quantization scheme. Specifically, we design a novel
approximate version of an MPC-based secure aggregation protocol with support
for multiple stochastic quantization schemes, including ones that utilize the
randomized Hadamard transform and Kashin's representation. In our empirical
performance evaluation, we show that with no additional overhead for clients
and moderate inter-server communication, we achieve similar training accuracy
as insecure schemes for standard FL benchmarks.
Beyond this, we present an efficient extension to our secure quantized
aggregation framework that effectively defends against state-of-the-art
untargeted poisoning attacks.
- Abstract(参考訳): フェデレートラーニング(FL)におけるプライバシの懸念は、一般に、中央の当事者が平文クライアントのアップデートを観察するのを防ぐセキュアなアグリゲーションスキームで対処される。
しかし、そのようなスキームの多くは、クライアントとアグリゲータ間の通信を減らすことを目的とした直交fl研究を無視し、数千ないし数百万の(モバイル)参加者によるクロスデバイスflの促進に寄与している。
特に量子化技術は、通常32倍の係数でクライアントサーバ間の通信を減らすことができる。
本稿では,任意の線形量子化スキームをサポートするアウトソースマルチパーティ計算(MPC)に基づく効率的なセキュアアグリゲーションフレームワークを導入することにより,両研究の方向性を統一する。
具体的には、ランダム化アダマール変換やカシン表現を用いた複数の確率量子化スキームをサポートするmpcベースのセキュアアグリゲーションプロトコルの近似バージョンを設計する。
経験的性能評価では、クライアントに対する追加のオーバーヘッドやサーバ間通信の適度さなしに、標準flベンチマークの安全でないスキームと同じようなトレーニング精度を実現できることを示した。
これ以外にも、最先端の未標的の毒殺攻撃を効果的に防御するセキュアな定量化集約フレームワークを効率的に拡張する。
関連論文リスト
- FedRDF: A Robust and Dynamic Aggregation Function against Poisoning
Attacks in Federated Learning [0.0]
Federated Learning(FL)は、集中型機械学習(ML)デプロイメントに関連する典型的なプライバシ問題に対する、有望なアプローチである。
そのよく知られた利点にもかかわらず、FLはビザンツの行動や毒殺攻撃のようなセキュリティ攻撃に弱い。
提案手法は各種モデル毒殺攻撃に対して試験され,最先端の凝集法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-15T16:42:04Z) - Privacy-Preserving Distributed Learning for Residential Short-Term Load
Forecasting [11.185176107646956]
電力システムの負荷データは、住宅ユーザの日常のルーチンを不注意に明らかにし、彼らの財産のセキュリティにリスクを及ぼす可能性がある。
我々はマルコフスイッチ方式の分散学習フレームワークを導入し、その収束は厳密な理論的解析によって実証される。
実世界の電力系統負荷データを用いたケーススタディにより,提案アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2024-02-02T16:39:08Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - MUDGUARD: Taming Malicious Majorities in Federated Learning using
Privacy-Preserving Byzantine-Robust Clustering [34.429892915267686]
Byzantine-robust Federated Learning (FL)は、悪意のあるクライアントに対抗し、攻撃の成功率を極端に低く保ちながら、正確なグローバルモデルをトレーニングすることを目的としている。
しかし、既存のシステムのほとんどは、クライアントが正直な場合にのみ堅牢である。
本稿では,サーバ側とクライアント側の両方で悪意あるマイノリティの求職者多数で運用可能な,ビザンチン・ロバスト・プライバシ保護型FLシステム MUDGUARD を提案する。
論文 参考訳(メタデータ) (2022-08-22T09:17:58Z) - FedPerm: Private and Robust Federated Learning by Parameter Permutation [2.406359246841227]
Federated Learning(FL)は、相互に信頼できないクライアントが共通の機械学習モデルを共同でトレーニングできるようにする分散学習パラダイムである。
クライアントデータのプライバシはFLで最重要である。同時に、モデルが敵のクライアントからの攻撃から保護されなければならない。
我々は、データプライバシを増幅する新しいモデル内パラメータシャッフル技術と、クライアントのモデル更新の暗号化集約を可能にするPrivate Information Retrieval(PIR)ベースの技術を組み合わせることで、これらの問題に対処する新しいFLアルゴリズムであるFedPermを提案する。
論文 参考訳(メタデータ) (2022-08-16T19:40:28Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - Mining Latent Relationships among Clients: Peer-to-peer Federated
Learning with Adaptive Neighbor Matching [6.959557494221414]
フェデレートラーニング(FL)では、クライアントは多様な目的を持ち、すべてのクライアントの知識をひとつのグローバルモデルにマージすることで、ローカルパフォーマンスへの負の移行を引き起こす。
我々はP2P(P2P) FLを活用し、クライアントは中心サーバなしで隣人と通信する。
本稿では,クラスタ数を仮定することなく,効率的な通信トポロジを分散的に構築するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-23T09:10:14Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Higher Performance Visual Tracking with Dual-Modal Localization [106.91097443275035]
Visual Object Tracking (VOT)は、堅牢性と正確性の両方に同期性を必要とする。
ONRによるロバストなローカリゼーション抑制器とOFCによるターゲットセンターへの正確なローカリゼーションにより、ターゲットローカリゼーションのためのデュアルモーダルフレームワークを提案します。
論文 参考訳(メタデータ) (2021-03-18T08:47:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。