論文の概要: Secure Byzantine-Robust Distributed Learning via Clustering
- arxiv url: http://arxiv.org/abs/2110.02940v1
- Date: Wed, 6 Oct 2021 17:40:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 16:15:43.236455
- Title: Secure Byzantine-Robust Distributed Learning via Clustering
- Title(参考訳): クラスタリングによるセキュアなビザンチンロバスト分散学習
- Authors: Raj Kiriti Velicheti, Derek Xia, Oluwasanmi Koyejo
- Abstract要約: ビザンチンの堅牢性とプライバシを共同で保護するフェデレーション学習システムは、依然としてオープンな問題である。
本研究では,クライアントのプライバシーとロバスト性を同時に保持する分散学習フレームワークであるSHAREを提案する。
- 参考スコア(独自算出の注目度): 16.85310886805588
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning systems that jointly preserve Byzantine robustness and
privacy have remained an open problem. Robust aggregation, the standard defense
for Byzantine attacks, generally requires server access to individual updates
or nonlinear computation -- thus is incompatible with privacy-preserving
methods such as secure aggregation via multiparty computation. To this end, we
propose SHARE (Secure Hierarchical Robust Aggregation), a distributed learning
framework designed to cryptographically preserve client update privacy and
robustness to Byzantine adversaries simultaneously. The key idea is to
incorporate secure averaging among randomly clustered clients before filtering
malicious updates through robust aggregation. Experiments show that SHARE has
similar robustness guarantees as existing techniques while enhancing privacy.
- Abstract(参考訳): ビザンチンの堅牢性とプライバシを共同で保存する連合学習システムは、オープンな問題のままである。
ビザンチン攻撃の標準的な防御であるロバストアグリゲーションは、一般的に個々の更新や非線形計算へのサーバアクセスを必要とするため、マルチパーティ計算によるセキュアアグリゲーションのようなプライバシ保護手法とは相容れない。
この目的のために,クライアント更新のプライバシとロバスト性を同時に保持する分散学習フレームワークであるSHARE(Secure Hierarchical Robust Aggregation)を提案する。
重要なアイデアは、ロバストアグリゲーションを通じて悪意のあるアップデートをフィルタリングする前に、ランダムにクラスタ化されたクライアント間のセキュアな平均化を組み込むことである。
実験によると、SHAREは既存の技術と同様の堅牢性を保証すると同時に、プライバシーを向上している。
関連論文リスト
- TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Byzantine-Robust Federated Learning with Variance Reduction and
Differential Privacy [6.343100139647636]
フェデレートラーニング(FL)は、モデルトレーニング中にデータのプライバシを保存するように設計されている。
FLはプライバシー攻撃やビザンツ攻撃に弱い。
本稿では,厳格なプライバシを保証するとともに,ビザンチン攻撃に対するシステムの堅牢性を同時に向上する新しいFLスキームを提案する。
論文 参考訳(メタデータ) (2023-09-07T01:39:02Z) - ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated
Learning Based on Coded Computing and Vector Commitment [90.60126724503662]
ByzSecAggは、フェデレートラーニングのための効率的なセキュアアグリゲーションスキームである。
ByzSecAggは、ビザンツの攻撃やプライバシーの漏洩から保護されている。
論文 参考訳(メタデータ) (2023-02-20T11:15:18Z) - MUDGUARD: Taming Malicious Majorities in Federated Learning using
Privacy-Preserving Byzantine-Robust Clustering [34.429892915267686]
Byzantine-robust Federated Learning (FL)は、悪意のあるクライアントに対抗し、攻撃の成功率を極端に低く保ちながら、正確なグローバルモデルをトレーニングすることを目的としている。
しかし、既存のシステムのほとんどは、クライアントが正直な場合にのみ堅牢である。
本稿では,サーバ側とクライアント側の両方で悪意あるマイノリティの求職者多数で運用可能な,ビザンチン・ロバスト・プライバシ保護型FLシステム MUDGUARD を提案する。
論文 参考訳(メタデータ) (2022-08-22T09:17:58Z) - Reconciling Security and Communication Efficiency in Federated Learning [11.653872280157321]
クロスデバイスフェデレーション学習は、ますます人気のある機械学習環境である。
本稿では,クライアント・サーバ間のモデル更新を圧縮する問題を形式化し,解決する。
我々は、セキュアなフェデレートラーニング(Federated Learning)セットアップでLEAFベンチマークの最先端結果を確立し、アップリンク通信において最大40$times$圧縮を行う。
論文 参考訳(メタデータ) (2022-07-26T09:52:55Z) - Byzantine-Robust Online and Offline Distributed Reinforcement Learning [60.970950468309056]
本稿では,複数のエージェントが環境を探索し,その経験を中央サーバを通じて伝達する分散強化学習環境について考察する。
エージェントの$alpha$-fractionは敵対的であり、任意の偽情報を報告することができる。
我々は、これらの対立エージェントの存在下で、マルコフ決定プロセスの根底にある準最適政策を特定することを模索する。
論文 参考訳(メタデータ) (2022-06-01T00:44:53Z) - Robust Federated Learning via Over-The-Air Computation [48.47690125123958]
オーバー・ザ・エア計算によるモデル更新の簡易な平均化により、学習タスクは悪意のあるクライアントのローカルモデル更新のランダムまたは意図した変更に対して脆弱になる。
本稿では,このような攻撃に対して,フェデレート学習のためのオーバー・ザ・エア計算の利点を保ちながら,ロバストな伝達と集約の枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T19:21:21Z) - PRECAD: Privacy-Preserving and Robust Federated Learning via
Crypto-Aided Differential Privacy [14.678119872268198]
フェデレートラーニング(FL)は、複数の参加するクライアントがデータセットをローカルに保持し、モデル更新のみを交換することで、機械学習モデルを協調的にトレーニングすることを可能にする。
既存のFLプロトコルの設計は、データのプライバシやモデルの堅牢性を損なうような攻撃に対して脆弱であることが示されている。
我々はPreCADと呼ばれるフレームワークを開発し、同時に差分プライバシー(DP)を実現し、暗号の助けを借りてモデル中毒攻撃に対する堅牢性を高める。
論文 参考訳(メタデータ) (2021-10-22T04:08:42Z) - Learning from History for Byzantine Robust Optimization [52.68913869776858]
分散学習の重要性から,ビザンチンの堅牢性が近年注目されている。
既存のロバストアグリゲーションルールの多くは、ビザンチンの攻撃者がいなくても収束しない可能性がある。
論文 参考訳(メタデータ) (2020-12-18T16:22:32Z) - Towards Bidirectional Protection in Federated Learning [70.36925233356335]
F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-02T19:37:02Z) - Byzantine-Resilient Secure Federated Learning [2.578242050187029]
本稿では,セキュアなフェデレーション学習のための単一サーバByzantine-Resilient secure aggregate framework(BREA)を提案する。
BREAは、Byzantine-Resilience Consistence Consistenceを同時に保証するために、統合的で検証可能な、安全なモデルアグリゲーションアプローチに基づいている。
実験では,ビザンチン系ユーザの存在下での収束を実証し,従来のフェデレート学習ベンチマークに匹敵する精度を示した。
論文 参考訳(メタデータ) (2020-07-21T22:15:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。