論文の概要: Preserving Privacy and Security in Federated Learning
- arxiv url: http://arxiv.org/abs/2202.03402v3
- Date: Tue, 29 Aug 2023 00:03:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 19:29:21.054700
- Title: Preserving Privacy and Security in Federated Learning
- Title(参考訳): フェデレーション学習におけるプライバシとセキュリティの保護
- Authors: Truc Nguyen, My T. Thai
- Abstract要約: ユーザに対するプライバシ保証と,それらによる毒殺攻撃の検出の両方を提供する,原則的フレームワークを開発する。
我々のフレームワークは、セキュアなアグリゲーションのプライバシー保証に違反することなく、中央サーバが有毒なモデル更新を識別することを可能にする。
- 参考スコア(独自算出の注目度): 21.241705771577116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is known to be vulnerable to both security and privacy
issues. Existing research has focused either on preventing poisoning attacks
from users or on concealing the local model updates from the server, but not
both. However, integrating these two lines of research remains a crucial
challenge since they often conflict with one another with respect to the threat
model. In this work, we develop a principle framework that offers both privacy
guarantees for users and detection against poisoning attacks from them. With a
new threat model that includes both an honest-but-curious server and malicious
users, we first propose a secure aggregation protocol using homomorphic
encryption for the server to combine local model updates in a private manner.
Then, a zero-knowledge proof protocol is leveraged to shift the task of
detecting attacks in the local models from the server to the users. The key
observation here is that the server no longer needs access to the local models
for attack detection. Therefore, our framework enables the central server to
identify poisoned model updates without violating the privacy guarantees of
secure aggregation.
- Abstract(参考訳): フェデレーション学習は、セキュリティとプライバシの両方の問題に弱いことが知られている。
既存の研究は、ユーザによる毒殺攻撃の防止か、あるいはローカルモデルのアップデートをサーバから隠蔽することに注力しているが、両方ではない。
しかし、これらの2つの研究を統合することは、脅威モデルに関してしばしば互いに対立するため、重要な課題である。
本研究では,ユーザに対するプライバシ保証と害虫攻撃の検出の両方を提供する原則フレームワークを開発する。
サーバと悪意のあるユーザの両方を含む新しい脅威モデルによって、我々はまず、ローカルモデルの更新をプライベートな方法で結合するために、サーバに準同型暗号化を用いたセキュアアグリゲーションプロトコルを提案します。
そして、ゼロ知識証明プロトコルを利用して、ローカルモデルにおける攻撃を検出するタスクをサーバからユーザへシフトさせる。
ここで重要なのは、サーバーが攻撃検出のためにローカルモデルにアクセスする必要がなくなったことだ。
したがって,本フレームワークにより,セキュアなアグリゲーションのプライバシー保証に違反することなく,中央サーバが有毒なモデル更新を特定できる。
関連論文リスト
- PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - A New Implementation of Federated Learning for Privacy and Security
Enhancement [27.612480082254486]
フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-03T03:13:19Z) - Eluding Secure Aggregation in Federated Learning via Model Inconsistency [2.647302105102753]
フェデレートされた学習により、ユーザーはプライベートトレーニングデータセット上でディープニューラルネットワークをトレーニングできる。
悪意のあるサーバは,たとえ後者が存在していなかったとしても,セキュアなアグリゲーションを容易に回避できることを示す。
個別のプライベートトレーニングデータセットに関する情報を推測できる2つの異なる攻撃を考案する。
論文 参考訳(メタデータ) (2021-11-14T16:09:11Z) - Secure and Privacy-Preserving Federated Learning via Co-Utility [7.428782604099875]
私たちは、参加する仲間にプライバシを提供し、ビザンチンや毒殺攻撃に対するセキュリティを提供する、連合学習フレームワークを構築しています。
更新アグリゲーションによるプライバシ保護とは異なり、我々のアプローチはモデル更新の価値を保ち、従って通常のフェデレーション学習の精度を保っている。
論文 参考訳(メタデータ) (2021-08-04T08:58:24Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z) - Learning to Detect Malicious Clients for Robust Federated Learning [20.5238037608738]
フェデレートされた学習システムは悪意のあるクライアントからの攻撃に弱い。
我々は、中央サーバが悪意あるモデル更新を検出して削除することを学ぶ、堅牢なフェデレーション学習のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-01T14:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。