論文の概要: Preserving Privacy and Security in Federated Learning
- arxiv url: http://arxiv.org/abs/2202.03402v3
- Date: Tue, 29 Aug 2023 00:03:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 19:29:21.054700
- Title: Preserving Privacy and Security in Federated Learning
- Title(参考訳): フェデレーション学習におけるプライバシとセキュリティの保護
- Authors: Truc Nguyen, My T. Thai
- Abstract要約: ユーザに対するプライバシ保証と,それらによる毒殺攻撃の検出の両方を提供する,原則的フレームワークを開発する。
我々のフレームワークは、セキュアなアグリゲーションのプライバシー保証に違反することなく、中央サーバが有毒なモデル更新を識別することを可能にする。
- 参考スコア(独自算出の注目度): 21.241705771577116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is known to be vulnerable to both security and privacy
issues. Existing research has focused either on preventing poisoning attacks
from users or on concealing the local model updates from the server, but not
both. However, integrating these two lines of research remains a crucial
challenge since they often conflict with one another with respect to the threat
model. In this work, we develop a principle framework that offers both privacy
guarantees for users and detection against poisoning attacks from them. With a
new threat model that includes both an honest-but-curious server and malicious
users, we first propose a secure aggregation protocol using homomorphic
encryption for the server to combine local model updates in a private manner.
Then, a zero-knowledge proof protocol is leveraged to shift the task of
detecting attacks in the local models from the server to the users. The key
observation here is that the server no longer needs access to the local models
for attack detection. Therefore, our framework enables the central server to
identify poisoned model updates without violating the privacy guarantees of
secure aggregation.
- Abstract(参考訳): フェデレーション学習は、セキュリティとプライバシの両方の問題に弱いことが知られている。
既存の研究は、ユーザによる毒殺攻撃の防止か、あるいはローカルモデルのアップデートをサーバから隠蔽することに注力しているが、両方ではない。
しかし、これらの2つの研究を統合することは、脅威モデルに関してしばしば互いに対立するため、重要な課題である。
本研究では,ユーザに対するプライバシ保証と害虫攻撃の検出の両方を提供する原則フレームワークを開発する。
サーバと悪意のあるユーザの両方を含む新しい脅威モデルによって、我々はまず、ローカルモデルの更新をプライベートな方法で結合するために、サーバに準同型暗号化を用いたセキュアアグリゲーションプロトコルを提案します。
そして、ゼロ知識証明プロトコルを利用して、ローカルモデルにおける攻撃を検出するタスクをサーバからユーザへシフトさせる。
ここで重要なのは、サーバーが攻撃検出のためにローカルモデルにアクセスする必要がなくなったことだ。
したがって,本フレームワークにより,セキュアなアグリゲーションのプライバシー保証に違反することなく,中央サーバが有毒なモデル更新を特定できる。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data
Distribution Inference Attacks [53.210725411547806]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Robust and Actively Secure Serverless Collaborative Learning [48.01929996757643]
コラボレーティブ機械学習(ML)は、分散データからより良いモデルを学ぶために広く利用されている。
学習のための協調的なアプローチは、直感的にユーザデータを保護しますが、サーバ、クライアント、あるいはその両方に対して脆弱なままです。
本稿では、悪意のあるサーバに対してセキュアで、悪意のあるクライアントに対して堅牢なピアツーピア学習方式を提案する。
論文 参考訳(メタデータ) (2023-10-25T14:43:03Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - A New Implementation of Federated Learning for Privacy and Security
Enhancement [27.612480082254486]
フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-03T03:13:19Z) - Eluding Secure Aggregation in Federated Learning via Model Inconsistency [2.647302105102753]
フェデレートされた学習により、ユーザーはプライベートトレーニングデータセット上でディープニューラルネットワークをトレーニングできる。
悪意のあるサーバは,たとえ後者が存在していなかったとしても,セキュアなアグリゲーションを容易に回避できることを示す。
個別のプライベートトレーニングデータセットに関する情報を推測できる2つの異なる攻撃を考案する。
論文 参考訳(メタデータ) (2021-11-14T16:09:11Z) - Secure and Privacy-Preserving Federated Learning via Co-Utility [7.428782604099875]
私たちは、参加する仲間にプライバシを提供し、ビザンチンや毒殺攻撃に対するセキュリティを提供する、連合学習フレームワークを構築しています。
更新アグリゲーションによるプライバシ保護とは異なり、我々のアプローチはモデル更新の価値を保ち、従って通常のフェデレーション学習の精度を保っている。
論文 参考訳(メタデータ) (2021-08-04T08:58:24Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z) - Towards Bidirectional Protection in Federated Learning [70.36925233356335]
F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-02T19:37:02Z) - Learning to Detect Malicious Clients for Robust Federated Learning [20.5238037608738]
フェデレートされた学習システムは悪意のあるクライアントからの攻撃に弱い。
我々は、中央サーバが悪意あるモデル更新を検出して削除することを学ぶ、堅牢なフェデレーション学習のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-01T14:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。