論文の概要: Secure Aggregation Is Not All You Need: Mitigating Privacy Attacks with
Noise Tolerance in Federated Learning
- arxiv url: http://arxiv.org/abs/2211.06324v1
- Date: Thu, 10 Nov 2022 05:13:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 16:48:20.409538
- Title: Secure Aggregation Is Not All You Need: Mitigating Privacy Attacks with
Noise Tolerance in Federated Learning
- Title(参考訳): セキュアアグリゲーションは必要ではない:フェデレーション学習におけるプライバシー攻撃とノイズ耐性の緩和
- Authors: John Reuben Gilbert
- Abstract要約: フェデレーション学習は、AIモデルを作成しながらデータのプライバシを保護することを目的としている。
現在のアプローチは、データのプライバシを保護するためのセキュアなアグリゲーションプロトコルに大きく依存しています。
サーバが完全に悪意を持っていれば生じる可能性のある,セキュアなアグリゲーションに対する脆弱性を調査します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is a collaborative method that aims to preserve data
privacy while creating AI models. Current approaches to federated learning tend
to rely heavily on secure aggregation protocols to preserve data privacy.
However, to some degree, such protocols assume that the entity orchestrating
the federated learning process (i.e., the server) is not fully malicious or
dishonest. We investigate vulnerabilities to secure aggregation that could
arise if the server is fully malicious and attempts to obtain access to
private, potentially sensitive data. Furthermore, we provide a method to
further defend against such a malicious server, and demonstrate effectiveness
against known attacks that reconstruct data in a federated learning setting.
- Abstract(参考訳): フェデレーション学習(Federated Learning)は、AIモデルを作成しながらデータのプライバシを維持することを目的としたコラボレーション手法である。
フェデレーション学習に対する現在のアプローチは、データのプライバシを保護するためにセキュアな集約プロトコルに大きく依存する傾向がある。
しかしながら、そのようなプロトコルは、フェデレートされた学習プロセス(すなわちサーバー)を編成するエンティティが完全に悪意や不正直ではないと仮定する。
サーバが完全に悪意を持っていれば発生する可能性のあるアグリゲーションの脆弱性を調査し、機密性の高いプライベートデータへのアクセスを試みます。
さらに,このような悪意のあるサーバに対してさらに防御を行い,連合学習環境においてデータを再構築する既知の攻撃に対して有効性を示す方法を提案する。
関連論文リスト
- Uncovering Attacks and Defenses in Secure Aggregation for Federated Deep Learning [17.45950557331482]
フェデレートラーニングは、多様なデータに対するグローバルモデルの協調学習を可能にし、データのローカリティを保ち、ユーザデータを中央サーバに転送する必要をなくす。
セキュアアグリゲーションプロトコルは、ユーザ更新をマスク/暗号化し、中央サーバがマスキングされた情報を集約できるように設計されている。
MicroSecAgg (PoPETS 2024) は,既存のアプローチの通信複雑性を緩和することを目的とした,単一のサーバセキュアアグリゲーションプロトコルを提案する。
論文 参考訳(メタデータ) (2024-10-13T00:06:03Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Protecting Split Learning by Potential Energy Loss [70.81375125791979]
我々は、分割学習の前方埋め込みからのプライバシー漏洩に焦点を当てる。
我々は、前方埋め込みをより「複雑化」させるためのエネルギー損失の可能性を提案する。
論文 参考訳(メタデータ) (2022-10-18T06:21:11Z) - Efficient and Privacy Preserving Group Signature for Federated Learning [2.121963121603413]
Federated Learning(FL)は、ユーザデータのプライバシに対する脅威を軽減することを目的とした機械学習(ML)テクニックである。
本稿では,グループ署名に基づくFLの効率的かつプライバシ保護プロトコルを提案する。
論文 参考訳(メタデータ) (2022-07-12T04:12:10Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - Collusion Resistant Federated Learning with Oblivious Distributed
Differential Privacy [4.951247283741297]
プライバシ保護フェデレーション学習は、分散クライアントの集団が共同で共有モデルを学ぶことを可能にする。
本稿では、このようなクライアントの共謀に対して最初に保護する、難解な分散差分プライバシーに基づく効率的なメカニズムを提案する。
我々は,プロトコルの実行速度,学習精度,および2つのデータセットのプライバシ性能を実証的に分析した。
論文 参考訳(メタデータ) (2022-02-20T19:52:53Z) - Eluding Secure Aggregation in Federated Learning via Model Inconsistency [2.647302105102753]
フェデレートされた学習により、ユーザーはプライベートトレーニングデータセット上でディープニューラルネットワークをトレーニングできる。
悪意のあるサーバは,たとえ後者が存在していなかったとしても,セキュアなアグリゲーションを容易に回避できることを示す。
個別のプライベートトレーニングデータセットに関する情報を推測できる2つの異なる攻撃を考案する。
論文 参考訳(メタデータ) (2021-11-14T16:09:11Z) - Secure and Privacy-Preserving Federated Learning via Co-Utility [7.428782604099875]
私たちは、参加する仲間にプライバシを提供し、ビザンチンや毒殺攻撃に対するセキュリティを提供する、連合学習フレームワークを構築しています。
更新アグリゲーションによるプライバシ保護とは異なり、我々のアプローチはモデル更新の価値を保ち、従って通常のフェデレーション学習の精度を保っている。
論文 参考訳(メタデータ) (2021-08-04T08:58:24Z) - Secure Byzantine-Robust Machine Learning [61.03711813598128]
本稿では,Byzantine-robustnessとByzantine-robustnessの両方を提供するセキュアな2サーバプロトコルを提案する。
さらに、このプロトコルは通信効率が高く、フォールトトレラントであり、局所的な差分プライバシーを享受する。
論文 参考訳(メタデータ) (2020-06-08T16:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。