論文の概要: Preserving Privacy and Security in Federated Learning
- arxiv url: http://arxiv.org/abs/2202.03402v1
- Date: Mon, 7 Feb 2022 18:40:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 18:40:57.508292
- Title: Preserving Privacy and Security in Federated Learning
- Title(参考訳): フェデレーション学習におけるプライバシとセキュリティの保護
- Authors: Truc Nguyen, My T. Thai
- Abstract要約: 我々は,セキュアなアグリゲーションと,ユーザからの毒殺攻撃に対する防御機構を組み合わせるためのフレームワークを開発する。
ゼロ知識証明プロトコルを利用して,防衛機構をローカルに実行し,その結果を中央サーバに示す。
我々のフレームワークは、セキュアなアグリゲーションのプライバシー保証に違反することなく、中央サーバが有毒なモデル更新を識別することを可能にする。
- 参考スコア(独自算出の注目度): 24.50496262648492
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is known to be vulnerable to security and privacy issues.
Existing research has focused either on preventing poisoning attacks from users
or on protecting user privacy of model updates. However, integrating these two
lines of research remains a crucial challenge since they often conflict with
one another with respect to the threat model.
In this work, we develop a framework to combine secure aggregation with
defense mechanisms against poisoning attacks from users, while maintaining
their respective privacy guarantees. We leverage zero-knowledge proof protocol
to let users run the defense mechanisms locally and attest the result to the
central server without revealing any information about their model updates.
Furthermore, we propose a new secure aggregation protocol for federated
learning using homomorphic encryption that is robust against malicious users.
Our framework enables the central server to identify poisoned model updates
without violating the privacy guarantees of secure aggregation. Finally, we
analyze the computation and communication complexity of our proposed solution
and benchmark its performance.
- Abstract(参考訳): フェデレーション学習は、セキュリティやプライバシーの問題に弱いことが知られている。
既存の研究は、ユーザーからの毒殺攻撃の防止か、モデル更新のユーザのプライバシーを保護することに焦点を当てている。
しかし、これらの2つの研究を統合することは、脅威モデルに関してしばしば互いに対立するため、重要な課題である。
本研究では,ユーザからの攻撃に対する防御機構とセキュアなアグリゲーションを組み合わせたフレームワークを開発し,それぞれのプライバシ保証を維持した。
ゼロ知識証明プロトコルを利用して,ユーザがローカルに防御機構を実行し,モデル更新に関する情報を公開せずに中央サーバに結果を証明できる。
さらに,悪意のあるユーザに対して堅牢な同型暗号を用いたフェデレーション学習のためのセキュアアグリゲーションプロトコルを提案する。
当社のフレームワークは,セキュアアグリゲーションのプライバシ保証に違反することなく,有害なモデル更新を中央サーバが特定可能にする。
最後に,提案手法の計算と通信の複雑さを分析し,その性能をベンチマークする。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data
Distribution Inference Attacks [53.210725411547806]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Robust and Actively Secure Serverless Collaborative Learning [48.01929996757643]
コラボレーティブ機械学習(ML)は、分散データからより良いモデルを学ぶために広く利用されている。
学習のための協調的なアプローチは、直感的にユーザデータを保護しますが、サーバ、クライアント、あるいはその両方に対して脆弱なままです。
本稿では、悪意のあるサーバに対してセキュアで、悪意のあるクライアントに対して堅牢なピアツーピア学習方式を提案する。
論文 参考訳(メタデータ) (2023-10-25T14:43:03Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - A New Implementation of Federated Learning for Privacy and Security
Enhancement [27.612480082254486]
フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-03T03:13:19Z) - Eluding Secure Aggregation in Federated Learning via Model Inconsistency [2.647302105102753]
フェデレートされた学習により、ユーザーはプライベートトレーニングデータセット上でディープニューラルネットワークをトレーニングできる。
悪意のあるサーバは,たとえ後者が存在していなかったとしても,セキュアなアグリゲーションを容易に回避できることを示す。
個別のプライベートトレーニングデータセットに関する情報を推測できる2つの異なる攻撃を考案する。
論文 参考訳(メタデータ) (2021-11-14T16:09:11Z) - Secure and Privacy-Preserving Federated Learning via Co-Utility [7.428782604099875]
私たちは、参加する仲間にプライバシを提供し、ビザンチンや毒殺攻撃に対するセキュリティを提供する、連合学習フレームワークを構築しています。
更新アグリゲーションによるプライバシ保護とは異なり、我々のアプローチはモデル更新の価値を保ち、従って通常のフェデレーション学習の精度を保っている。
論文 参考訳(メタデータ) (2021-08-04T08:58:24Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z) - Towards Bidirectional Protection in Federated Learning [70.36925233356335]
F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-02T19:37:02Z) - Learning to Detect Malicious Clients for Robust Federated Learning [20.5238037608738]
フェデレートされた学習システムは悪意のあるクライアントからの攻撃に弱い。
我々は、中央サーバが悪意あるモデル更新を検出して削除することを学ぶ、堅牢なフェデレーション学習のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-01T14:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。