論文の概要: Secure Byzantine-Robust Distributed Learning via Clustering
- arxiv url: http://arxiv.org/abs/2110.02940v1
- Date: Wed, 6 Oct 2021 17:40:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 16:15:43.236455
- Title: Secure Byzantine-Robust Distributed Learning via Clustering
- Title(参考訳): クラスタリングによるセキュアなビザンチンロバスト分散学習
- Authors: Raj Kiriti Velicheti, Derek Xia, Oluwasanmi Koyejo
- Abstract要約: ビザンチンの堅牢性とプライバシを共同で保護するフェデレーション学習システムは、依然としてオープンな問題である。
本研究では,クライアントのプライバシーとロバスト性を同時に保持する分散学習フレームワークであるSHAREを提案する。
- 参考スコア(独自算出の注目度): 16.85310886805588
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning systems that jointly preserve Byzantine robustness and
privacy have remained an open problem. Robust aggregation, the standard defense
for Byzantine attacks, generally requires server access to individual updates
or nonlinear computation -- thus is incompatible with privacy-preserving
methods such as secure aggregation via multiparty computation. To this end, we
propose SHARE (Secure Hierarchical Robust Aggregation), a distributed learning
framework designed to cryptographically preserve client update privacy and
robustness to Byzantine adversaries simultaneously. The key idea is to
incorporate secure averaging among randomly clustered clients before filtering
malicious updates through robust aggregation. Experiments show that SHARE has
similar robustness guarantees as existing techniques while enhancing privacy.
- Abstract(参考訳): ビザンチンの堅牢性とプライバシを共同で保存する連合学習システムは、オープンな問題のままである。
ビザンチン攻撃の標準的な防御であるロバストアグリゲーションは、一般的に個々の更新や非線形計算へのサーバアクセスを必要とするため、マルチパーティ計算によるセキュアアグリゲーションのようなプライバシ保護手法とは相容れない。
この目的のために,クライアント更新のプライバシとロバスト性を同時に保持する分散学習フレームワークであるSHARE(Secure Hierarchical Robust Aggregation)を提案する。
重要なアイデアは、ロバストアグリゲーションを通じて悪意のあるアップデートをフィルタリングする前に、ランダムにクラスタ化されたクライアント間のセキュアな平均化を組み込むことである。
実験によると、SHAREは既存の技術と同様の堅牢性を保証すると同時に、プライバシーを向上している。
関連論文リスト
- Uncovering Attacks and Defenses in Secure Aggregation for Federated Deep Learning [17.45950557331482]
フェデレートラーニングは、多様なデータに対するグローバルモデルの協調学習を可能にし、データのローカリティを保ち、ユーザデータを中央サーバに転送する必要をなくす。
セキュアアグリゲーションプロトコルは、ユーザ更新をマスク/暗号化し、中央サーバがマスキングされた情報を集約できるように設計されている。
MicroSecAgg (PoPETS 2024) は,既存のアプローチの通信複雑性を緩和することを目的とした,単一のサーバセキュアアグリゲーションプロトコルを提案する。
論文 参考訳(メタデータ) (2024-10-13T00:06:03Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Robust Zero Trust Architecture: Joint Blockchain based Federated learning and Anomaly Detection based Framework [17.919501880326383]
本稿では,IoTネットワーク内の効率的なリモートワークとコラボレーションを支援する分散システムに適した,堅牢なゼロトラストアーキテクチャ(ZTA)を紹介する。
ブロックチェーンベースのフェデレーション学習原則を使用することで、当社のフレームワークは、漏洩したクライアントからの悪意のある更新を防止すべく、堅牢な集約メカニズムを備えている。
このフレームワークは異常検出と信頼計算を統合し、セキュアで信頼性の高いデバイスコラボレーションを分散的に保証する。
論文 参考訳(メタデータ) (2024-06-24T23:15:19Z) - Privacy-Preserving Aggregation for Decentralized Learning with Byzantine-Robustness [5.735144760031169]
Byzantineクライアントは、任意のモデル更新を他のクライアントにブロードキャストすることで、学習プロセスを意図的に破壊する。
本稿では,ビザンチンの脅威に対するDLのセキュリティとプライバシを高めるために設計された,新しいDLプロトコルであるSecureDLを紹介する。
実験の結果,悪意者による攻撃においてもSecureDLは有効であることがわかった。
論文 参考訳(メタデータ) (2024-04-27T18:17:36Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated
Learning Based on Coded Computing and Vector Commitment [90.60126724503662]
ByzSecAggは、フェデレートラーニングのための効率的なセキュアアグリゲーションスキームである。
ByzSecAggは、ビザンツの攻撃やプライバシーの漏洩から保護されている。
論文 参考訳(メタデータ) (2023-02-20T11:15:18Z) - MUDGUARD: Taming Malicious Majorities in Federated Learning using
Privacy-Preserving Byzantine-Robust Clustering [34.429892915267686]
Byzantine-robust Federated Learning (FL)は、悪意のあるクライアントに対抗し、攻撃の成功率を極端に低く保ちながら、正確なグローバルモデルをトレーニングすることを目的としている。
しかし、既存のシステムのほとんどは、クライアントが正直な場合にのみ堅牢である。
本稿では,サーバ側とクライアント側の両方で悪意あるマイノリティの求職者多数で運用可能な,ビザンチン・ロバスト・プライバシ保護型FLシステム MUDGUARD を提案する。
論文 参考訳(メタデータ) (2022-08-22T09:17:58Z) - Robust Federated Learning via Over-The-Air Computation [48.47690125123958]
オーバー・ザ・エア計算によるモデル更新の簡易な平均化により、学習タスクは悪意のあるクライアントのローカルモデル更新のランダムまたは意図した変更に対して脆弱になる。
本稿では,このような攻撃に対して,フェデレート学習のためのオーバー・ザ・エア計算の利点を保ちながら,ロバストな伝達と集約の枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T19:21:21Z) - Learning from History for Byzantine Robust Optimization [52.68913869776858]
分散学習の重要性から,ビザンチンの堅牢性が近年注目されている。
既存のロバストアグリゲーションルールの多くは、ビザンチンの攻撃者がいなくても収束しない可能性がある。
論文 参考訳(メタデータ) (2020-12-18T16:22:32Z) - Towards Bidirectional Protection in Federated Learning [70.36925233356335]
F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-02T19:37:02Z) - Byzantine-Resilient Secure Federated Learning [2.578242050187029]
本稿では,セキュアなフェデレーション学習のための単一サーバByzantine-Resilient secure aggregate framework(BREA)を提案する。
BREAは、Byzantine-Resilience Consistence Consistenceを同時に保証するために、統合的で検証可能な、安全なモデルアグリゲーションアプローチに基づいている。
実験では,ビザンチン系ユーザの存在下での収束を実証し,従来のフェデレート学習ベンチマークに匹敵する精度を示した。
論文 参考訳(メタデータ) (2020-07-21T22:15:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。