論文の概要: ScionFL: Efficient and Robust Secure Quantized Aggregation
- arxiv url: http://arxiv.org/abs/2210.07376v2
- Date: Mon, 8 May 2023 19:31:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 20:38:26.773947
- Title: ScionFL: Efficient and Robust Secure Quantized Aggregation
- Title(参考訳): ScionFL: 効率的でロバストなセキュアな量子化集約
- Authors: Yaniv Ben-Itzhak, Helen M\"ollering, Benny Pinkas, Thomas Schneider,
Ajith Suresh, Oleksandr Tkachenko, Shay Vargaftik, Christian Weinert, Hossein
Yalame, Avishay Yanai
- Abstract要約: 我々は,フェデレートラーニングのための最初のセキュアアグリゲーションフレームワークであるScionFLを紹介する。
量子化された入力で効率的に動作し、同時に悪意のあるクライアントに対して堅牢性を提供する。
クライアントのオーバーヘッドがなく、サーバ側のオーバーヘッドも緩やかなため、標準的なFLベンチマークでは同等の精度が得られます。
- 参考スコア(独自算出の注目度): 44.69902593901196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Secure aggregation is commonly used in federated learning (FL) to alleviate
privacy concerns related to the central aggregator seeing all parameter updates
in the clear. Unfortunately, most existing secure aggregation schemes ignore
two critical orthogonal research directions that aim to (i) significantly
reduce client-server communication and (ii) mitigate the impact of malicious
clients. However, both of these additional properties are essential to
facilitate cross-device FL with thousands or even millions of (mobile)
participants. In this paper, we unite both research directions by introducing
ScionFL, the first secure aggregation framework for FL that operates
efficiently on quantized inputs and simultaneously provides robustness against
malicious clients. Our framework leverages (novel) multi-party computation
(MPC) techniques and supports multiple linear (1-bit) quantization schemes,
including ones that utilize the randomized Hadamard transform and Kashin's
representation. Our theoretical results are supported by extensive evaluations.
We show that with no overhead for clients and moderate overhead on the server
side compared to transferring and processing quantized updates in plaintext, we
obtain comparable accuracy for standard FL benchmarks. Additionally, we
demonstrate the robustness of our framework against state-of-the-art poisoning
attacks.
- Abstract(参考訳): セキュアアグリゲータは、中央アグリゲータに関連するプライバシー上の懸念を軽減するために、連合学習(federated learning:fl)で一般的に使用される。
残念ながら、既存のほとんどのセキュアアグリゲーションスキームは、2つの重要な直交研究方向を無視している。
(i)クライアントサーバ間の通信を著しく削減し、
(ii)悪意のあるクライアントの影響を緩和する。
しかし、これらの追加プロパティは、数千または数百万の(モバイル)参加者によるクロスデバイスflを促進するために不可欠である。
本稿では,量子化インプット上で効率よく動作し,悪意のあるクライアントに対してロバスト性を提供するFLの最初のセキュアアグリゲーションフレームワークであるScionFLを導入することにより,両研究の方向性を統一する。
我々のフレームワークは,マルチパーティ計算(MPC)技術を活用し,ランダム化アダマール変換やカシンの表現などを含む複数の線形(1ビット)量子化スキームをサポートする。
我々の理論結果は広範な評価によって支持されている。
クライアントのオーバヘッドやサーバ側の中程度のオーバヘッドをプレーンテキストでの量子化更新の転送や処理に比較して,標準的なflベンチマークで同等の精度が得られることを示す。
さらに,最先端の中毒攻撃に対するフレームワークの堅牢性を示す。
関連論文リスト
- Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - RFLPA: A Robust Federated Learning Framework against Poisoning Attacks with Secure Aggregation [2.2667044928324747]
フェデレートラーニング(FL)は、複数のデバイスがデータを共有せずに協調的にモデルをトレーニングすることを可能にする。
その利点にもかかわらず、FLはプライバシーの漏洩や中毒攻撃に弱い。
本稿では,SecAggプロトコルに基づくRFLPAに対する堅牢なフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-24T03:31:10Z) - FedRDF: A Robust and Dynamic Aggregation Function against Poisoning
Attacks in Federated Learning [0.0]
Federated Learning(FL)は、集中型機械学習(ML)デプロイメントに関連する典型的なプライバシ問題に対する、有望なアプローチである。
そのよく知られた利点にもかかわらず、FLはビザンツの行動や毒殺攻撃のようなセキュリティ攻撃に弱い。
提案手法は各種モデル毒殺攻撃に対して試験され,最先端の凝集法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-15T16:42:04Z) - Towards Understanding Adversarial Transferability in Federated Learning [14.417827137513369]
悪質なクライアントのグループは、そのアイデンティティを軽視し、良心的なクライアントとして振る舞うことによって、トレーニング中にモデルに影響を与えてきたが、その後、敵の役割に切り替えた。
この種の攻撃は微妙で検出が難しい。
提案攻撃が現在のFLシステムに対して高いセキュリティリスクを課すことを実証的に示す。
論文 参考訳(メタデータ) (2023-10-01T08:35:46Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Higher Performance Visual Tracking with Dual-Modal Localization [106.91097443275035]
Visual Object Tracking (VOT)は、堅牢性と正確性の両方に同期性を必要とする。
ONRによるロバストなローカリゼーション抑制器とOFCによるターゲットセンターへの正確なローカリゼーションにより、ターゲットローカリゼーションのためのデュアルモーダルフレームワークを提案します。
論文 参考訳(メタデータ) (2021-03-18T08:47:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。