論文の概要: RoFL: Attestable Robustness for Secure Federated Learning
- arxiv url: http://arxiv.org/abs/2107.03311v1
- Date: Wed, 7 Jul 2021 15:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-08 13:52:59.546398
- Title: RoFL: Attestable Robustness for Secure Federated Learning
- Title(参考訳): RoFL: セキュアなフェデレーション学習のための実証可能なロバスト性
- Authors: Lukas Burkhalter, Hidde Lycklama \`a Nijeholt, Alexander Viand,
Nicolas K\"uchler, Anwar Hithnawi
- Abstract要約: フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
- 参考スコア(独自算出の注目度): 59.63865074749391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning is an emerging decentralized machine learning paradigm
that allows a large number of clients to train a joint model without the need
to share their private data. Participants instead only share ephemeral updates
necessary to train the model. To ensure the confidentiality of the client
updates, Federated Learning systems employ secure aggregation; clients encrypt
their gradient updates, and only the aggregated model is revealed to the
server. Achieving this level of data protection, however, presents new
challenges to the robustness of Federated Learning, i.e., the ability to
tolerate failures and attacks. Unfortunately, in this setting, a malicious
client can now easily exert influence on the model behavior without being
detected. As Federated Learning is being deployed in practice in a range of
sensitive applications, its robustness is growing in importance. In this paper,
we take a step towards understanding and improving the robustness of secure
Federated Learning. We start this paper with a systematic study that evaluates
and analyzes existing attack vectors and discusses potential defenses and
assesses their effectiveness. We then present RoFL, a secure Federated Learning
system that improves robustness against malicious clients through input checks
on the encrypted model updates. RoFL extends Federated Learning's secure
aggregation protocol to allow expressing a variety of properties and
constraints on model updates using zero-knowledge proofs. To enable RoFL to
scale to typical Federated Learning settings, we introduce several ML and
cryptographic optimizations specific to Federated Learning. We implement and
evaluate a prototype of RoFL and show that realistic ML models can be trained
in a reasonable time while improving robustness.
- Abstract(参考訳): フェデレーション学習(federated learning)は、多くのクライアントがプライベートデータを共有せずに共同モデルをトレーニングできる、新たな分散機械学習パラダイムである。
参加者はモデルトレーニングに必要な一時的な更新のみを共有する。
クライアント更新の機密性を確保するため、連合学習システムはセキュアアグリゲーションを採用し、クライアントは勾配更新を暗号化し、集約されたモデルのみをサーバに公開する。
しかし、このレベルのデータ保護を達成することで、フェデレーション学習の堅牢性、すなわち障害や攻撃を許容する能力に新たな課題が浮かび上がってくる。
残念ながら、この設定では、悪意のあるクライアントは、検出されることなく、モデル動作に簡単に影響を与えることができる。
フェデレーション学習は、さまざまなセンシティブなアプリケーションで実際に展開されているため、その堅牢性は重要性を増している。
本稿では,安全な連合学習のロバスト性を理解し,改善するための一歩を踏み出す。
本論文は,既存の攻撃ベクトルを評価し,解析し,潜在的防御について考察し,その効果を評価する体系的な研究から始める。
次に,暗号化されたモデル更新の入力チェックを通じて,悪意のあるクライアントに対する堅牢性を向上させる,セキュアなフェデレーション学習システムroflを提案する。
RoFLはフェデレートラーニングのセキュアアグリゲーションプロトコルを拡張し、ゼロ知識証明を使用してモデル更新にさまざまなプロパティと制約を表現できるようにする。
RoFLが一般的なフェデレートラーニング設定にスケールするために、フェデレートラーニングに特有のMLと暗号の最適化をいくつか導入する。
我々は,RoFLのプロトタイプの実装と評価を行い,ロバスト性を改善しつつ,現実的なMLモデルを合理的な時間で訓練可能であることを示す。
関連論文リスト
- Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - Enhancing Security Using Random Binary Weights in Privacy-Preserving Federated Learning [5.311735227179715]
視覚変換器を用いたプライバシー保護フェデレーション学習におけるセキュリティ向上手法を提案する。
連合学習では、各クライアントから生データを収集することなく更新情報を収集して学習を行う。
提案手法の有効性は, APRIL (Attention PRIvacy Leakage) 修復攻撃に対するモデル性能と抵抗の観点から確認した。
論文 参考訳(メタデータ) (2024-09-30T06:28:49Z) - Reinforcement Learning as a Catalyst for Robust and Fair Federated
Learning: Deciphering the Dynamics of Client Contributions [6.318638597489423]
Reinforcement Federated Learning (RFL)は、深い強化学習を活用して、集約中のクライアントコントリビューションを適応的に最適化する新しいフレームワークである。
堅牢性に関しては、RFLは同等の公平性を維持しつつ、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-02-08T10:22:12Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Backdoor Attacks in Peer-to-Peer Federated Learning [11.235386862864397]
Peer-to-Peer Federated Learning (P2PFL)は、プライバシと信頼性の両面でアドバンテージを提供する。
本稿では,P2PFLに対する新たなバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2023-01-23T21:49:28Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。