論文の概要: Preserving Privacy and Security in Federated Learning
- arxiv url: http://arxiv.org/abs/2202.03402v1
- Date: Mon, 7 Feb 2022 18:40:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 18:40:57.508292
- Title: Preserving Privacy and Security in Federated Learning
- Title(参考訳): フェデレーション学習におけるプライバシとセキュリティの保護
- Authors: Truc Nguyen, My T. Thai
- Abstract要約: 我々は,セキュアなアグリゲーションと,ユーザからの毒殺攻撃に対する防御機構を組み合わせるためのフレームワークを開発する。
ゼロ知識証明プロトコルを利用して,防衛機構をローカルに実行し,その結果を中央サーバに示す。
我々のフレームワークは、セキュアなアグリゲーションのプライバシー保証に違反することなく、中央サーバが有毒なモデル更新を識別することを可能にする。
- 参考スコア(独自算出の注目度): 24.50496262648492
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is known to be vulnerable to security and privacy issues.
Existing research has focused either on preventing poisoning attacks from users
or on protecting user privacy of model updates. However, integrating these two
lines of research remains a crucial challenge since they often conflict with
one another with respect to the threat model.
In this work, we develop a framework to combine secure aggregation with
defense mechanisms against poisoning attacks from users, while maintaining
their respective privacy guarantees. We leverage zero-knowledge proof protocol
to let users run the defense mechanisms locally and attest the result to the
central server without revealing any information about their model updates.
Furthermore, we propose a new secure aggregation protocol for federated
learning using homomorphic encryption that is robust against malicious users.
Our framework enables the central server to identify poisoned model updates
without violating the privacy guarantees of secure aggregation. Finally, we
analyze the computation and communication complexity of our proposed solution
and benchmark its performance.
- Abstract(参考訳): フェデレーション学習は、セキュリティやプライバシーの問題に弱いことが知られている。
既存の研究は、ユーザーからの毒殺攻撃の防止か、モデル更新のユーザのプライバシーを保護することに焦点を当てている。
しかし、これらの2つの研究を統合することは、脅威モデルに関してしばしば互いに対立するため、重要な課題である。
本研究では,ユーザからの攻撃に対する防御機構とセキュアなアグリゲーションを組み合わせたフレームワークを開発し,それぞれのプライバシ保証を維持した。
ゼロ知識証明プロトコルを利用して,ユーザがローカルに防御機構を実行し,モデル更新に関する情報を公開せずに中央サーバに結果を証明できる。
さらに,悪意のあるユーザに対して堅牢な同型暗号を用いたフェデレーション学習のためのセキュアアグリゲーションプロトコルを提案する。
当社のフレームワークは,セキュアアグリゲーションのプライバシ保証に違反することなく,有害なモデル更新を中央サーバが特定可能にする。
最後に,提案手法の計算と通信の複雑さを分析し,その性能をベンチマークする。
関連論文リスト
- PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - A New Implementation of Federated Learning for Privacy and Security
Enhancement [27.612480082254486]
フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-03T03:13:19Z) - Eluding Secure Aggregation in Federated Learning via Model Inconsistency [2.647302105102753]
フェデレートされた学習により、ユーザーはプライベートトレーニングデータセット上でディープニューラルネットワークをトレーニングできる。
悪意のあるサーバは,たとえ後者が存在していなかったとしても,セキュアなアグリゲーションを容易に回避できることを示す。
個別のプライベートトレーニングデータセットに関する情報を推測できる2つの異なる攻撃を考案する。
論文 参考訳(メタデータ) (2021-11-14T16:09:11Z) - Secure and Privacy-Preserving Federated Learning via Co-Utility [7.428782604099875]
私たちは、参加する仲間にプライバシを提供し、ビザンチンや毒殺攻撃に対するセキュリティを提供する、連合学習フレームワークを構築しています。
更新アグリゲーションによるプライバシ保護とは異なり、我々のアプローチはモデル更新の価値を保ち、従って通常のフェデレーション学習の精度を保っている。
論文 参考訳(メタデータ) (2021-08-04T08:58:24Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z) - Learning to Detect Malicious Clients for Robust Federated Learning [20.5238037608738]
フェデレートされた学習システムは悪意のあるクライアントからの攻撃に弱い。
我々は、中央サーバが悪意あるモデル更新を検出して削除することを学ぶ、堅牢なフェデレーション学習のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-01T14:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。